High Performance Computing for Automotive

High Performance Computing for Automotive
Computer su ruote. Questo è il modo in cui le persone vedono attualmente le automobili. Praticamente tutto ciò che accade in un veicolo viene monitorato e azionato da un microcontrollore, dall'apertura dei finestrini al calcolo della miscela carburante-aria ottimale per la coppia richiesta. Ma la superficie è stata appena scalfita per quanto riguarda la potenza di calcolo che sta entrando nei veicoli.
 
Aumento dei veicoli autonomi L3 e robotaxi
 
L'era del trasporto autonomo sta nascendo e con essa si aprirà una nuova era di requisiti computazionali per l'industria automobilistica. Le automobili automatizzate richiedono ampie suite di sensori per scansionare l'ambiente e fornire all'auto i dati necessari per emulare la guida umana. Il rapporto "Auto autonome, robotassi e sensori 2024-2044" di IDTechEx ha rilevato che i principali robotaxi SAE di livello 4 hanno fino a 40 sensori individuali. In combinazione con l'imminente introduzione di tecnologie automatizzate nel mercato dei veicoli, ciò determinerà un CAGR decennale del 13% nel mercato dei sensori automobilistici. Tuttavia, i sensori da soli sono pressoché inutili senza un'elaborazione ad alte prestazioni dei loro dati e la costruzione di un rendering 3D dell'ambiente per informare la politica di guida programmata del veicolo.
 
Il calcolo ad alte prestazioni (HPC) prende i dati in tempo reale provenienti da una serie di sensori ed esegue diversi processi importanti. Le due sfide principali che deve affrontare sono la fusione dei sensori e la classificazione degli oggetti, e c'è un certo disaccordo sull'ordine in cui queste vengono eseguite. Alcuni ritengono che la cosa migliore sia la fusione precoce, in cui tutti i dati dei sensori vengono combinati in un rendering 3D della scena, e poi un algoritmo di intelligenza artificiale, eseguito dall'unità HPC del veicolo, identifica ed etichetta ogni oggetto rilevato. Altri pensano che si debba generare un elenco di oggetti da ciascun sensore e poi fondere i risultati. Questo ha il vantaggio di poter incrociare i rilevamenti di ciascun sensore e verificare l'accordo. Il lato negativo di questa soluzione è rappresentato dalle difficoltà nel gestire le discrepanze tra gli elenchi di oggetti provenienti da sensori diversi.
 
Il SOC di calcolo autonomo
 
Fonte: IDTechEx
 
Sia che si utilizzi la fusione tardiva che quella precoce, l'HPC dovrà comunque svolgere molte attività di elaborazione dei dati sotto forma di elaborazione delle immagini e di esecuzione di algoritmi di intelligenza artificiale per la classificazione delle immagini e la politica di guida. I componenti chiave che gestiscono questi compiti sono i processori grafici (GPU), i processori di calcolo (CPU) e la RAM. In genere si tratta di componenti separati e discreti; tuttavia, i requisiti specifici dell'HPC per le auto autonome hanno portato a combinarli in singoli chip chiamati SOC o sistemi su chip. Questi combinano GPU, CPU, RAM e altro ancora su un singolo pezzo di silicio. Il SOC ideale può ricevere i dati da tutti i sensori di guida autonoma del veicolo, elaborarli, identificare e classificare tutti gli oggetti rilevati e creare una serie di attuazioni di sterzo, acceleratore e freno in base alla politica di guida. Il SOC è quindi responsabile dell'intero sistema di guida autonoma.
 
L'inserimento di tutte queste caratteristiche in un unico chip è fondamentale per soddisfare i requisiti di calcolo della guida autonoma. Con una separazione fisica quasi nulla, ogni parte del chip può scambiare dati con una latenza prossima allo zero, un rumore quasi nullo e un'enorme larghezza di banda. Ciò è in contrasto con la presenza di componenti discreti distribuiti su un circuito stampato, con più interfacce e più tracce di dati che introducono rumore e latenza.
 
Le GPU sono una parte fondamentale del puzzle; le loro capacità di elaborazione delle immagini, combinate con la capacità di eseguire algoritmi di intelligenza artificiale attraverso l'apprendimento profondo e le reti neurali, le rendono una pietra miliare del SOC. È per questo che vediamo Nvidia guadagnare terreno nello spazio dei veicoli autonomi. Nvidia ha una lunga storia di sviluppo di GPU per applicazioni grafiche nel campo dell'informatica ed è stata in grado di cambiare rotta, portando la sua esperienza nel settore automobilistico. Le sue piattaforme Xavier e Orin sono state punti fermi nell'elaborazione computazionale dei veicoli autonomi.
 
Mobileye è un altro dei pionieri di questo settore. Fondata nel 1999, ha fatto rapidamente colpo e si è fatta un nome, attirando l'interesse di Intel e portandola all'acquisizione. Ora è di nuovo pubblica e ha trovato la sua strada in molti veicoli di consumo che alimentano le applicazioni ADAS.
 
Mobileye e Nvidia hanno aumentato la loro potenza di calcolo negli ultimi tempi, passando da pochi TOPS (operazioni al secondo in terra) a decine di TOPS, ora a centinaia di TOPS e a migliaia di TOPS. Il modo principale in cui questi miglioramenti stanno avvenendo è l'adozione di nodi di dimensioni sempre più ridotte da parte di fonderie leader come TSMC e Samsung. Queste aziende hanno perseguito questi miglioramenti attraverso tecnologie di nodi più piccoli da parte delle loro fonderie di supporto.
 
Tecnologie dei semiconduttori in crescita
 
Tecnologie di fonderia. Fonte: IDTechEx
 
Negli ultimi anni, IDTechEx ha visto Mobileye, Nivida e altri passare dai 28 nm nel 2018 a soluzioni FinFET da 7 nm e inferiori nel 2021. Tuttavia, le fonderie stanno producendo tecnologie a meno di 5 nm e si stanno dirigendo verso tecnologie a meno di 1 nm in futuro. IDTechEx ha visto che ogni volta che la tecnologia del nodo si dimezza, la potenza di calcolo aumenta di un fattore 10. Una relazione riscontrata e mostrata esplicitamente nel rapporto "Semiconduttori automobilistici 2023-2033" di IDTechEx. Ma la ricerca di nodi di dimensioni sempre più ridotte diventerà sempre più costosa. Un singolo wafer da 300 mm di tecnologia TSMC a 3 nm costa circa 20.000 dollari, e questo prezzo continuerà a crescere man mano che le tecnologie inferiori a 3 nm verranno richieste in una varietà di settori, dalle normali applicazioni informatiche come telefoni, laptop e PC, alla nuova domanda proveniente dal settore automobilistico.
 
Prestazioni del SOC automobilistico (TOP). Fonte: IDTechEx
 
Per questo motivo, gli sviluppatori di HPC automobilistici devono pensare a come ottimizzare le tecnologie esistenti per ottenere il massimo delle prestazioni. Un approccio che IDTechEx sta osservando è una maggiore attenzione agli acceleratori di intelligenza artificiale (AI), reti neurali (NN) e deep learning (DL). Questi utilizzano nuove strategie di elaborazione dei dati potenziate dall'AI, riducendo la dipendenza dagli approcci classici presenti nelle GPU. Questo può aumentare le prestazioni del chip in modo molto economico, richiedendo meno investimenti nelle tecnologie dei nodi più piccoli e producendo persino un vantaggio in termini di efficienza complessiva. IDTechEx vede l'intelligenza artificiale diventare sempre più comune negli schemi a blocchi dei SOC dei principali produttori di livello 2 come Mobileye e Renesas. Ma una prospettiva particolarmente interessante è Recogni. Recogni è una start-up che ha sviluppato un acceleratore di intelligenza artificiale per applicazioni SOC di guida autonoma, che promette una potenza di calcolo e un'efficienza di livello superiore.
 
Anche con la riduzione delle dimensioni dei nodi e le soluzioni fantasiose di intelligenza artificiale, il settore dei chip per computer continua a registrare un rallentamento del ritmo di sviluppo. La legge di Moore dice che la potenza di calcolo dovrebbe raddoppiare ogni due anni, una formula empirica vecchia di decenni che ha resistito fino a poco tempo fa. Alcuni sostengono che la legge di Moore stia iniziando a rallentare, poiché l'industria deve affrontare sfide tecnologiche sempre più difficili per ottenere guadagni incrementali sempre più piccoli. Altri sostengono che la legge di Moore sia morta.
 
Una soluzione importante per affrontare il rallentamento della Legge di Moore e il sostanziale aumento dei costi di produzione dei circuiti integrati monolitici (IC) è il concetto di "chiplet". Il concetto centrale di chiplet prevede la decostruzione di un circuito integrato monolitico in blocchi funzionali distinti, la trasformazione di questi blocchi in chiplet separati e il successivo riassemblaggio a livello di packaging. L'obiettivo finale di un processore basato su chiplet è quello di mantenere o migliorare le prestazioni, riducendo al contempo i costi di produzione complessivi rispetto ai circuiti integrati monolitici tradizionali. L'efficacia del design dei chiplet dipende in larga misura dalle tecniche di packaging, in particolare da quelle impiegate per l'interconnessione di più chiplet, che hanno un impatto significativo sulle prestazioni complessive del sistema. Queste tecnologie avanzate di confezionamento dei semiconduttori, che comprendono approcci come i circuiti integrati 2,5D, i circuiti integrati 3D e il confezionamento a livello di wafer con fan-out ad alta densità, sono denominate collettivamente "confezionamento avanzato dei semiconduttori". Queste tecniche all'avanguardia sono ampiamente esaminate nel rapporto di ricerca di IDTechEx intitolato "Emballage avancé pour semi-conducteurs 2023-2033". Esse facilitano la convergenza di più chiplet, spesso prodotti in nodi di processo diversi, su un unico substrato. Questa convergenza è resa possibile dall'utilizzo di bump di dimensioni compatte, che consentono di aumentare le densità di interconnessione e le capacità di integrazione.
 
Se consideriamo l'attuale panorama delle tecnologie avanzate di packaging dei semiconduttori nel settore, prendiamo come esempio il settore delle CPU per server. Sebbene la maggior parte delle CPU server contemporanee sia costruita su progetti monolitici System-on-Chip (SoC), sono emersi sviluppi degni di nota. Nel 2021, Intel ha annunciato la sua prossima CPU per server, Sapphire Rapids, che adotterà un approccio innovativo. Questa CPU di nuova generazione sarà costruita come un modulo a quattro chip interconnessi tramite l'Embedded Multi-die Interconnect Bridge (EMIB) di Intel, che rappresenta una soluzione di packaging avanzato per semiconduttori 2,5D.
 
Contemporaneamente, AMD ha sfruttato la potenza delle tecniche avanzate di packaging dei semiconduttori 3D per migliorare le prestazioni delle CPU per server. Nel caso della sua ultima CPU per server, Milan-X (in uscita a marzo 2022), AMD impiega una strategia di packaging 3D che prevede l'impilamento di un die di cache direttamente sopra il processore. Secondo le dichiarazioni di AMD, questa innovazione consente di ottenere un notevole aumento della densità di interconnessione di oltre 200 volte rispetto al tradizionale packaging 2D. Questi sviluppi non si limitano alle sole CPU; il settore dei data center ha visto anche l'integrazione di tecnologie avanzate di packaging dei semiconduttori per altri componenti, come gli acceleratori. NVIDIA, uno degli attori principali, utilizza la tecnologia di packaging 2,5D di TSMC nota come Chip on Wafer on Substrate (CoWoS) per i suoi acceleratori di GPU di fascia alta dal 2016.
 
Questa ondata di adozione, esemplificata sia da Intel che da AMD nei loro prodotti all'avanguardia, indica un crescente utilizzo delle tecnologie avanzate di packaging dei semiconduttori in tutto il settore. La tendenza va oltre le CPU per server e comprende una serie di componenti per data center. Con l'evolversi del panorama industriale, queste metodologie di packaging innovative sono destinate a svolgere un ruolo fondamentale nel migliorare le prestazioni, l'integrazione e l'efficienza.
 
L'evoluzione del packaging dei semiconduttori. Fonte: Rapporto IDTechEx "Imballaggio avanzato dei semiconduttori 2022-2032".
 
Nel prossimo futuro (nell'arco di 10-15 anni), spinto dall'aumento dei requisiti di elaborazione e dalla necessità di una notevole larghezza di banda con un consumo energetico minimo, il settore automobilistico seguirà una traiettoria simile a quella del mercato del cloud e dell'elaborazione ad alte prestazioni (HPC). Questa traiettoria prevede l'integrazione di diversi elementi di proprietà intellettuale (IP) e di silicio a livello di package per ottenere caratteristiche essenziali e prestazioni ottimali. Nel contesto dei processori di elaborazione per veicoli autonomi (AV), il panorama del packaging vedrà la fusione di più componenti di silicio all'interno dello stesso pacchetto, implementando approcci avanzati di progettazione 2.5D e 3D.
 
Con l'aumento della domanda di calcolo ad alte prestazioni nei veicoli e la necessità di una crescita continua delle prestazioni, si assisterà a una rapida evoluzione della tecnologia dei computer per autoveicoli. Dimensioni del nodo inferiori a 3 nm, design a chiplet, maggiore affidamento sull'accelerazione dell'intelligenza artificiale, packaging 2,5D e persino 3D diventeranno parte integrante dell'HPC per le tecnologie autonome nelle automobili. I computer sono presenti nelle auto da decenni, ma le tecnologie in arrivo faranno sembrare un'auto media come la tecnologia della linea telefonica fissa in un mondo di smartphone.
 
Per ulteriori informazioni su questo settore, consultare "Semiconduttori automobilistici 2023-2033", "Auto autonome, robotassi e sensori 2024-2044" e "Imballaggio avanzato dei semiconduttori 2023-2033". IDTechEx offre anche dati e analisi di esperti su questi argomenti come parte di un abbonamento di market intelligence - per saperne di più:www.IDTechEx.com/Subscriptions.
 
Questo articolo è tratto da "Technology Innovations Outlook 2024-2034", una rivista gratuita di articoli scritti dagli analisti di IDTechEx che fornisce approfondimenti su una serie di aree di innovazione tecnologica, valutando il panorama attuale e fornendo le prospettive per il prossimo decennio. La rivista può essere letta integralmente su www.IDTechEx.com/Magazine.