EO LIGHTING 34

Lighting RIFERIMENTI [1] Rapporto Yole: Computing and AI Technologies for Mobile and Consumer Applications 2021 [2] Come semplificare lo sviluppo di applicazioni di IA edge embedded VISS (Vision Imaging Sub-System) è un ISP tradizionale che supporta le seguenti funzionalità: rimozione del ru- more, demosaicizzazione, correzione dei pixel difettosi, guadagno e bilanciamento del bianco (manuale e auto- matico), correzione dell’aberrazione cromatica (CAC) e codifica HDR ( high dynamic range ). La funzione di demo- saicizzazione prevede il supporto RGB-Ir e consente l’ac- quisizione ad alta risoluzione di fotogrammi a infrarossi senza una telecamera secondaria e senza allineamento del fotogramma. VPAC-3L include un sottosistema di correzione delle di- storsioni degli obiettivi per il dewarping delle immagini acquisite attraverso obiettivi ad ampio campo visivo (Fig. 6). Le telecamere con obiettivi ad ampio campo visivo come i fish-eye necessitano della correzione per ripristi- nare la forma rettangolare delle immagini e ridurre gli ef- fetti di dilatazione non lineare in prossimità dei bordi del fotogramma della telecamera. Inoltre, VPAC-3L comprende un engine multiscalare (MSC) per il downscaling delle immagini. MSC permette due in- put e 10 output, in modo tale che gli input possano essere copiati e scalati indipendentemente. Uno dei casi d’uso in questo caso è effettuare il downscale di un’immagine per il machine learning e mantenere la versione a dimensioni complete in modo che l’output del machine learning pos- sa essere sovrapposto sul fotogramma a piena risoluzio- ne. MSC supporta una riduzione fino a 4 volte in ciascuna dimensione ed effettua l’interpolazione automatica dove necessario, compresa la dilatazione/il restringimento per adeguare le modifiche al rapporto d’aspetto. Lo sche- ma riportato in figura 5 utilizza questo metodo: il plugin gstreamer “tiovxmultiscalar” produce due percorsi di output che vengono riuniti nel plugin “tiovxdldrawbox” per tracciare i riquadri di delimitazione del rilevamento oggetti sull’immagine originale. TI supporta svariati sensori e moduli per telecamere, col- laborando con terze parti per aiutare gli sviluppatori ad aggiungere nuovi sensori per telecamere con supporto driver e messa a punto dell’ISP. Gli strumenti di messa a punto dell’ISP consentono inoltre ai configuratori ISP più esperti di eseguire da soli queste operazioni. Alte prestazioni con bassi consumi Il processore AM62A è progettato per soddisfare i com- plessi requisiti computazionali degli algoritmi di deep learning, offrendo al tempo stesso un’elevata efficienza energetica. Il dispositivo funziona con una tensione del core di soli 0,75 V, che garantisce un elevato livello di effi- cienza energetica e consente l’uso del processore in appli- cazioni alimentate a batteria e con severi vincoli dal punto di vista termico. AM62A è in grado di eseguire elaborazioni di deep learning con una telecamera da 5 MP a 60 fps con consumi conte- nuti entro 2 W alle tipiche condizioni di esercizio, renden- dolo ideale per dispositivi edge a batteria che richiedono un rilevamento di immagini e oggetti in tempo reale. Il di- spositivo supporta inoltre modalità a basso consumo, che permettono di risparmiare energia e aumentare la durata della batteria in applicazioni portatili (oppure ridurre gli oneri legati alla progettazione termica). TI propone un tool per la stima della potenza per aiutare ingegneri e progettisti a stimare il consumo energetico del processore AM62A nella loro applicazione specifica, tenendo conto di fattori come la tensione d’esercizio, la frequenza, la temperatura di giunzione e le caratteristi- che del silicio. Questa informazione può essere utilizzata per ottimizzare il consumo energetico, aumentare la du- rata della batteria, migliorare la progettazione termica e garantire che il dispositivo rispetti il budget di potenza richiesto. “Pronto all’uso” AM62A è pronto all’uso per gli sviluppatori che deside- rano progettare applicazioni con smart camera. Il deep learning e l’accelerazione dell’elaborazione delle imma- gini offrono tutte le prestazioni necessarie per sistemi a telecamera singola e doppia; inoltre, grazie alla gamma scalabile di TI, lo stesso software offre la scalabilità ne- cessaria per supportare processori con prestazioni su- periori e più opzioni di interfaccia. Per gli utenti meno esperti nel campo del deep learning, TI collabora con una serie di terze parti in grado di fornire la propria espe- rienza specifica con le apparecchiature finali, i dataset e i modelli per casi d’uso come il tracciamento delle per- sone, la robotica, analisi incentrate sugli esseri umani, localizzazione e mappatura, sensor fusion e molto altro ancora nelle Demo edge AI sul tool per sviluppatori Re- source Explorer. I progettisti possono iniziare subito a progettare le pro- prie smart camera con un EVM per kit di base AM62A e con il processore SDK. Documentazione, immagini pre- definite e demo sono disponibili nella pagina del prodot- to AM62A. Ulteriori informazioni sull’IA edge per tutti i processori di TI sono disponibili sul sito ti.com/edgeai. EO LIGHTING - APRILE 2024 XXVIII

RkJQdWJsaXNoZXIy Mzg4NjYz