Skip to main content Skip to site footer

You are using an outdated browser. Please upgrade your browser to improve your experience.

Close Look: Marzo 2024

one month ago

Intelligenza artificiale generativa - i prossimi passi

Sono state scritte molte parole sul potenziale di trasformazione dell’implementazione dell’intelligenza artificiale generativa (gen AI) a livello settoriale e nazionale in tutto il mondo. E molti sono stati i miliardi di dollari guadagnati da investitori disposti a finanziare questa nuova tecnologia rivoluzionaria, o semplicemente a speculare sul suo successo. Il numero di riferimenti all’IA da parte dei CEO nelle conference call con gli investitori è aumentato vertiginosamente, e qualsiasi società che rivendichi un potenziale vantaggio in termini di IA ha visto un forte incremento del prezzo delle sue azioni.

La prima fase, detta anche di implementazione della IA di tipo generativo, portata all'attenzione del pubblico nel 2022 da ChatGPT, è ben avviata. Le unità di elaborazione grafica (GPU), o microchip ad alta potenza, necessarie per "addestrare" i grandi modelli linguistici (LLM) che sono alla base dell’IA generativa con la creazione di risposte per gli utenti, sono state richiestissime. L’azienda di progettazione leader di questa tecnologia, Nvidia, è considerata una delle poche realmente in grado di monetizzare l'hype che ruota attorno all'intelligenza artificiale. Anche se le future previsioni di profitto potrebbero basarsi più sulla speculazione che sulla sostanza, il valore di mercato di Nvidia ha generato fino a 2000 miliardi di dollari, uno degli unici tre titoli a raggiungere questo traguardo.

La fase di implementazione dell’IA si sta ora trasformando in una fase di accelerazione. Nvidia ha recentemente presentato i nuovi chip Blackwell. Questi chip, guidati dal B200, comprendono 208 miliardi di transistor, mentre gli attuali chip H100 ne hanno solo 80 miliardi. I chip saranno due volte più potenti nell’addestramento degli LLM. Inoltre, secondo Jensen Huang, CEO di Nvidia, si prevede che siano cinque volte più potenti nel compito di inferenza, aumentando notevolmente la velocità con cui app come ChatGPT o Gemini di Google possono rispondere alle domande degli utenti.

Tuttavia, l’opportunità di realizzare profitti eccezionali nel segmento dell’IA non è passata inosservata. I giganti tecnologici, come Microsoft, Google e Amazon, sebbene da un lato collaborino con Nvidia, stanno anche investendo ingenti somme nella progettazione dei loro chip. L’obiettivo è ridurre la dipendenza da Nvidia e mantenere i clienti esistenti agganciati ai propri sistemi hardware e software. Il nuovo focus di Nvidia sulla fase di inferenza potrebbe essere visto come una risposta al futuro aumento della concorrenza da parte di questi “hyperscaler”, anche man mano che i loro clienti passano dall’addestramento degli LLM alla fase di implementazione dei loro investimenti in IA.

La dimensione finale del mercato dell’IA rimane oggetto di dibattito, per quanto le stime varino da enorme a stratosferica. Nvidia ha previsto che il valore totale di tutta la tecnologia dei data center raggiungerà i 2000 miliardi di dollari nei prossimi cinque anni. E una recente previsione stimava un’accelerazione di 40 trilioni di dollari per l’economia globale entro il 2030. Le autorità di regolamentazione stanno monitorando gli sviluppi per garantire un mercato competitivo, mentre le piattaforme che non riescono ad affrontare la disinformazione o i deepfake alimentati dall’IA potrebbero essere soggette a pesanti multe. Nel frattempo, gli scienziati cinesi e occidentali che si occupano di IA hanno accettato di cooperare, di fronte a sistemi di IA sempre più autonomi, per ridurre il rischio di attacchi biologici o informatici in futuro.

We use cookies to give you the best possible experience of our website. If you continue, we'll assume you are happy for your web browser to receive all cookies from our website. See our cookie policy for more information on cookies and how to manage them.