Scopri come Knowledge Distillation ottimizza l'IA comprimendo i modelli per ottenere prestazioni più rapide ed efficienti su dispositivi edge e applicazioni reali.
La distillazione della conoscenza è una tecnica di apprendimento automatico che si concentra sul trasferimento della conoscenza da un modello complesso e di grandi dimensioni (spesso definito "insegnante") a un modello più piccolo e semplice (conosciuto come "studente"). Questo approccio consente al modello studente di ottenere prestazioni paragonabili a quelle dell'insegnante pur essendo più efficiente in termini di risorse computazionali, il che lo rende ideale per l'implementazione in ambienti con risorse limitate come i dispositivi mobili, i dispositivi IoT o i sistemi di edge computing.
Il processo di Distillazione della Conoscenza prevede l'addestramento del modello studente per replicare il comportamento del modello insegnante. Invece di basarsi esclusivamente sui dati etichettati originali, lo studente impara dalle "etichette morbide" o dai risultati probabilistici dell'insegnante, che contengono informazioni più ricche sulle relazioni tra le diverse classi. Questa conoscenza aggiuntiva aiuta lo studente a generalizzare meglio, anche con meno parametri.
Ad esempio, in un compito di classificazione di immagini, il modello insegnante potrebbe produrre probabilità come il 90% per "gatto", l'8% per "cane" e il 2% per "coniglio". Queste probabilità non vincolanti forniscono indicazioni sulle somiglianze tra le classi, che il modello studente utilizza per affinare le sue previsioni.
La Distillazione della Conoscenza ha trovato largo impiego in vari ambiti dell'intelligenza artificiale e dell'apprendimento automatico:
Nell'imaging medico, i modelli di grandi dimensioni addestrati per rilevare le anomalie nelle radiografie o nelle risonanze magnetiche possono essere distillati in modelli più piccoli per una diagnosi più rapida e in tempo reale. Ad esempio, Ultralytics YOLO i modelli, noti per la loro efficienza nel rilevamento di oggetti, possono trarre vantaggio dalla distillazione per migliorare la velocità e l'implementazione nei dispositivi sanitari. Per saperne di più sull'IA nel settore sanitario.
I veicoli autonomi si affidano a modelli di rilevamento e classificazione degli oggetti per prendere decisioni in tempo reale. In questo caso, i modelli distillati sono fondamentali, in quanto riducono i tempi di inferenza pur mantenendo la precisione. Scopri come l 'intelligenza artificiale nella guida autonoma sta trasformando la sicurezza e l'efficienza dei trasporti.
In NLP, i modelli basati su trasformatori di grandi dimensioni, come BERT, vengono distillati in versioni più piccole, come DistilBERT, per consentire una classificazione più rapida dei testi, la traduzione e la risposta alle domande sui dispositivi edge. Per saperne di più su trasformatori e NLP.
In settori come la vendita al dettaglio e l'industria manifatturiera, la distillazione della conoscenza viene utilizzata per distribuire modelli leggeri per attività come la gestione dell'inventario e il rilevamento dei difetti. Ad esempio, i modelli di computer vision di Ultralytics ottimizzati attraverso la distillazione possono migliorare l'efficienza della produzione guidata dall'intelligenza artificiale.
Mentre sia la Distillazione della Conoscenza che la potatura del modello si concentrano sull'ottimizzazione del modello, la potatura riduce la complessità del modello rimuovendo i parametri meno significativi, mentre la distillazione prevede l'addestramento di un modello separato e più piccolo per imitare il comportamento di uno più grande.
La quantizzazione del modello riduce la precisione dei parametri del modello (ad esempio, convertendo i numeri in virgola mobile a 32 bit in numeri interi a 8 bit), mentre la distillazione mantiene la precisione ma trasferisce la conoscenza in un'architettura più piccola.
Utilizzando la Distillazione della Conoscenza, un modello YOLO di grandi dimensioni può addestrare una versione più piccola per rilevare gli oggetti nei flussi video con un'elevata precisione ma con una latenza inferiore. Questo è particolarmente utile per applicazioni come la sorveglianza di sicurezza, dove l'elaborazione in tempo reale è fondamentale. Scopri di più sulle capacità di inferenza in tempo reale diYOLO.
Nell'agricoltura di precisione, i modelli di IA di grandi dimensioni addestrati su serie di dati complesse possono essere ridotti in versioni compatte per l'impiego su droni o sensori sul campo, consentendo di svolgere attività come il rilevamento dei parassiti o il monitoraggio della salute delle colture. Scopri come l 'intelligenza artificiale sta trasformando l'agricoltura.
Diversi framework supportano la Distillazione della Conoscenza, rendendola accessibile ai professionisti dell'apprendimento automatico:
La Distillazione della Conoscenza continua a svolgere un ruolo fondamentale nel progresso dei sistemi di IA, consentendo modelli potenti ma efficienti per le applicazioni del mondo reale. Colmando il divario tra accuratezza ed efficienza, consente all'IA di raggiungere un maggior numero di dispositivi, industrie e utenti a livello globale.