Machine Learning: la rivoluzione del Cognitive Computing

Il successo dell’Apprendimento Automatico, noto anche come Machine Learning, si basa sulla scalabilità. Con l’avanzare del Machine Learning gli ingegneri dovranno progettare sistemi in grado di regolare dinamicamente la risorsa di elaborazione fornita. Il cambiamento è continuo e costante: l’Intelligenza Artificiale (IA) e l’Apprendimento Automatico (ML) stanno cambiando radicalmente molti settori.

Machine Learning: una tecnologia in continua evoluzione

Il Machine Learning è in continua evoluzione, come del resto tutto il panorama tecnologico. Questo comporta ancora molte sfide per gli sviluppatori intenzionati ad immettere sul mercato nuovi prodotti e servizi basati su Intelligenza Artificiale e Machine Learning. A differenza del tradizionale settore embedded che mostra una relazione lineare tra la necessità di maggiori prestazioni di elaborazione ed il modo in cui le prestazioni vengono utilizzate, esiste una disparità tra Artificial Intelligence e Machine Learning e le piattaforme hardware su cui gireranno. Il Machine Learning offre l’accuratezza necessaria sull’hardware fornito, di conseguenza se l’hardware è in grado di adattarsi, è possibile evitare compromessi sulla precisione.

Figura 1. Strumenti e metodi del Machine Learning

Il fattore chiave sarà la scalabilità

Gli ingegneri dovranno progettare sistemi che offrano prestazioni scalabili, in grado di adattare dinamicamente il tipo di risorsa di elaborazione fornita in base all’attività da svolgere. Ciò è diverso dal modus operandi degli ingegneri del settore embedded. Per alcuni anni i processori integrati hanno avuto la possibilità di variare la frequenza operativa e la tensione di alimentazione in base al carico di lavoro. In sostanza, il core di un processore può funzionare più lentamente quando non è occupato, il ridimensionamento della frequenza di clock principale si traduce direttamente in un minor numero di transistor che si accendono e si spengono al secondo, risparmiando energia. Quando il core ha davvero bisogno di essere occupato, la frequenza di clock viene aumentata, aumentando il throughput. Esiste una relazione tra la tensione di alimentazione e la frequenza di clock. Riducendo entrambi, viene amplificata la quantità di energia risparmiata. Questo tipo di ridimensionamento non sarà sufficiente per fornire la potenza e le prestazioni necessarie nei dispositivi integrati attualmente in fase di sviluppo per eseguire modelli di Machine Learning. Ciò è dovuto al fatto che il modo in cui misuriamo le prestazioni cambierà. Allo stato attuale, i processori sono in genere misurati in termini di operazioni al secondo, in teraops o trilioni di operazioni al secondo (TOPS). L’uso di TOPS per misurare le prestazioni di un processore che esegue inferenze non avrà lo stesso senso di quando esegue il codice sequenziale, poiché il modo in cui il modello viene eseguito non è direttamente paragonabile al normale software incorporato.

Prospettive di sviluppo

I processori per Machine Learning saranno misurati sull’accuratezza che ottengono quando forniscono un determinato numero di inferenze al secondo per una determinata quantità di potenza. Non abbiamo ancora una metrica standard per questo, ma possiamo dire che aumentare la frequenza di clock per raggiungere l’obiettivo di inferenze non è garantito e probabilmente distruggerà il budget di potenza, senza migliorare la precisione. Non esiste una soluzione unica per l’apprendimento automatico. Gli ingegneri devono progettare sistemi che offrano prestazioni scalabili e possano adattare il tipo di risorsa di elaborazione fornita in base all’attività da svolgere.

 

 


Scarica subito una copia gratis


Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *