Dall’inizio del 2022, il grande fermento nell’industria tecnologica e tra i non addetti ai lavori è l’”intelligenza artificiale”. Sebbene il concetto non sia nuovo – IA è il termine usato per descrivere il modo in cui i computer giocano ai videogiochi almeno dagli anni ’80 – ha nuovamente catturato l’immaginazione del pubblico.
Prima di entrare nel vivo dell’articolo, è necessaria una breve premessa. Quando si parla di IA, è importante capire cosa si intende. L’IA può essere suddivisa in sette grandi categorie. La maggior parte di queste sette categorie sono, nella migliore delle ipotesi, ipotetiche e non esistono. Il tipo di IA che interessa a tutti rientra nella categoria delle IA a memoria limitata. È qui che risiedono i modelli linguistici di grandi dimensioni, o large language models (LLM). Poiché non si tratta di un articolo sui dettagli, si pensi agli LLM come a complesse macchine che utilizzano le statistiche per fare ipotesi. Si digita una frase e la macchina produce un risultato basato su dati precedentemente caricati che, statisticamente, corrisponde a quanto richiesto.
Basandosi su questa tecnologia, gli LLM possono produrre (almeno apparentemente) risultati impressionanti. Ad esempio, chiedete a ChatGPT 4.0 (la versione più recente al momento della stesura di questo articolo) di risolvere il seguente rompicapo logico:
Questa è una festa: {}
Questo è un fagiolo che salta: B
Il fagiolo che salta vuole andare alla festa
Il risultato sarà una vera e propria dimostrazione di talento, {B}. Impressionante, vero? È in grado di fare la stessa cosa a prescindere dai due personaggi utilizzati e da qualsiasi personaggio si desideri che partecipi al party. Questo è stato usato come dimostrazione del potere dell’intelligenza artificiale.
Tuttavia, fate così:
Questa è una festa: B
Questo è un fagiolo che salta: {}
Il fagiolo che salta vuole andare alla festa.
Quando ho posto questa domanda, mi aspettavo che il sistema mi desse almeno una risposta simile a quella precedente, ma ho ottenuto due risposte: B{} e {}B.
Questa non è la risposta corretta, poiché il puzzle logico è irrisolvibile, almeno per quanto riguarda il funzionamento dei computer.
La risposta corretta, per un umano, sarebbe I{}3.
Per capire cosa succede sotto il cofano, ecco il prossimo esempio:
Dis be ah pahtah: []
Messa wanna boogie woogie: M
Meesa be da boom chicka boom.
Questa sciocca frase pronunciata alla Jar Jar Binks, per un umano non avrebbe senso, poiché le tre affermazioni non sono collegate e non c’è un nesso logico. Eppure, GPT4 ha fatto il suo dovere e ha detto che ora sono io la festa. Questo perché, nonostante la sua complessità, il sistema è ancora guidato da un algoritmo. Legge la frase, controlla nel suo database, vede ciò che un sacco di persone hanno digitato in precedenza con una frase simile (perché OpenAI ha spinto un sacco di persone a provarci) e produce lo stesso formato. È un risultato simile a quello che potrebbe produrre uno studente al primo anno di programmazione.
Le principali limitazioni
Lo sciocco esempio di cui sopra dimostra che ci sono enormi limitazioni nel settore dell’intelligenza artificiale. Funziona benissimo se le si domanda qualcosa di semplice e prevedibile, mentre crolla quando le si chiede qualcosa di leggermente più complesso, come cercare di ottenere da un generatore di immagini l’immagine desiderata da un semplice paragrafo di quattro frasi. Come ammette l’industria, c’è molto lavoro da fare se si vogliono progressi.
Il problema? L’intero esperimento dell’IA è assurdamente costoso e i costi stanno andando ben oltre i progressi dell’utilità. Quest’anno, OpenAI, l’attuale leader degli LLM, è sulla buona strada per perdere 5 miliardi di dollari, pari alla metà del suo investimento totale. Le perdite aumenteranno con l’aumentare dei clienti e con il miglioramento del modello.
C’è una sorprendente mancanza di applicazioni valide in cui questa tecnologia può essere utilizzata. I tentativi di applicare questa tecnologia in modo sostanziale si sono ritorti contro di noi. L’intelligenza artificiale di Air Canada, che forniva l’assistenza ai clienti, aveva fatto pagare a prezzo pieno i biglietti aerei scontati. Il tribunale canadese ha dichiarato che la compagnia è responsabile di tutto ciò che un assistente AI fornisce a un cliente. Negli Stati Uniti è stato vietato ai legali di utilizzare l’intelligenza artificiale nelle cause giudiziarie, dopo una serie di eventi di alto profilo in cui i programmi di intelligenza artificiale avevano falsificato documenti. Si era anche scoperto che importanti dimostrazioni di IA erano state pesantemente falsificate. Il nuovo riepilogo dell’intelligenza artificiale di Google in cima alla pagina di ricerca richiede circa 10 volte più energia per essere prodotto rispetto alla ricerca stessa e ha un’utilità quasi nulla per l’utente finale. I ricavi nel settore dell’intelligenza artificiale sono quasi esclusivamente concentrati nell’hardware, con pochi soldi in vista per l’utente finale. Aggiungeteci poi lo sconvolgente fabbisogno energetico necessario per far funzionare il tutto.
A peggiorare le cose, l’ulteriore sviluppo probabilmente diventerà solo più costoso, non più economico. L’industria dell’hardware è alla fine delle sue possibilità di avanzamento. I progettisti dei processori avevano esaurito la possibilità di aumentare la velocità di clock quasi due decenni fa, quando le prestazioni di un singolo thread avevano raggiunto il massimo nel 2015. La progettazione dei processori è basata principalmente sull’aumento del numero di core logici attraverso la riduzione dei transistor. Tuttavia, questa particolare tendenza dovrebbe esaurirsi l’anno prossimo, con l’entrata in funzione dei processori a 2 nm. Ciò significa che, già a partire dal prossimo anno, l’intelligenza artificiale non potrà fare affidamento sui guadagni di efficienza dell’hardware per colmare il divario dei costi, poiché siamo già vicini al limite massimo teorico ottenibile senza una riprogettazione radicale del funzionamento dei processori. I nuovi clienti richiedono nuove capacità, quindi ogni volta che una nuova azienda si iscrive al programma, i costi aumentano, rendendo discutibile il fatto che ci sarà mai un momento in cui i guadagni sopravanzeranno le perdite.
Visto come stanno le cose, un uomo d’affari prudente taglierebbe le sue perdite nel settore dell’IA. I costi in rapida crescita e la dubbia utilità della tecnologia la fanno sembrare un’impresa in forte perdita. Eppure, gli investimenti nell’IA sono aumentati. Cosa sta succedendo?
I soldi facili di Big Tech
Stiamo assistendo ad un significativo rimbalzo della lunga era del denaro facile che, nonostante i rialzi formali dei tassi di interesse della Fed, è ancora in corso. Il settore tecnologico, in particolare, è stato uno dei principali beneficiari del fenomeno del denaro facile. Il denaro facile dura da così tanto tempo che intere industrie, in particolare quelle tecnologiche, sono costruite e progettate attorno ad esso. È così che continuano ad andare avanti le app per la consegna di cibo a domicilio, che non hanno mai registrato un profitto e sono destinate a perdere la bellezza di 20 miliardi di dollari solo nel 2024. L’industria tecnologica concentra miliardi da investire in piani aziendali discutibili solo perché hanno una patina di software sullo sfondo.
Nel boom dell’intelligenza artificiale vedo molti degli stessi schemi visti anni fa con il fiasco di WeWork. Entrambi cercano di affrontare soluzioni banali. Nessuno dei due ha una buona scalabilità rispetto alla base di clienti. Entrambi, nonostante siano formalmente basati sul capitale, sono fortemente soggetti a costi operativi variabili che non possono essere facilmente eliminati. Entrambi sono costretti ad aumentare il livello di spesa per fare poco più che la stessa identica cosa fatta in precedenza.
Nonostante ciò, aziende come Google e Microsoft sono disposte a investire enormi quantità di risorse nel progetto. Il motivo principale è che, per loro, le risorse sono relativamente banali. Le principali aziende tecnologiche, grazie a decenni di denaro a basso costo, hanno abbastanza capitale a disposizione per acquistare l’intero settore globale dell’intelligenza artificiale. Una perdita di 5 miliardi di dollari è una goccia nel mare per un’azienda come Microsoft. In un’economia di guerra la paura di perdere è maggiore del costo di qualche dollaro.
Tuttavia, il denaro facile ha i suoi limiti. Secondo le stime, l’investimento per il 2025 [per l’IA] ammonterà a 200 miliardi di dollari che, anche per i giganti come Alphabet, non sono certo spiccioli. Anche questo dato impallidisce rispetto ad alcune delle stime più ridicole, come il fatturato globale dell’IA che raggiungerà 1,3 trilioni di dollari entro il 2032. Ai soldi facili di oggi non interessa da dove proverranno tali entrate. Il denaro facile, tuttavia, cederà quando la realtà colpirà e i ricavi non si manifesteranno. Quanto è disposto a pagare il mercato per ciò che fa l’IA? La recente ondata di telefoni con intelligenza artificiale non ha esattamente arrestato il declino di lungo periodo degli smartphone, ad esempio.
Ad un certo punto, gli investitori cominceranno a chiedersi perché queste grandi aziende tecnologiche stanno sperperando enormi quantità di denaro in progetti senza prospettive e non lo restituiscono sotto forma di dividendi. Le perdite non possono essere sostenute all’infinito.
La grande differenza rispetto all’attuale ondata di denaro facile è che chi soffrirà quando si verificherà il crollo non saranno i soliti sospetti. I grandi operatori come Microsoft e Nvidia saranno ancora in circolazione, registreranno solo profitti più bassi man mano che l’entusiasmo per l’IA si esaurirà. Hanno attinto ai soldi facili, li hanno spesi per un progetto di prestigio e non dovranno affrontare le ripercussioni del fallimento. Probabilmente non si verificherà un crollo aziendale spettacolare come quello del 2009, ma si assisterà a licenziamenti sostanziali in uno spazio tecnologico precedentemente di prestigio e il crollo lascerà dietro di sé molte piccole startup fallite. In realtà, i licenziamenti sono già iniziati.
Naturalmente, potrei sempre sbagliarmi. Forse l’intelligenza artificiale è davvero legittima e nei prossimi cinque anni ci saranno 1,3 trilioni di dollari dei consumatori che andranno a caccia dei prodotti e dei servizi dell’intelligenza artificiale. Forse l’intelligenza artificiale finirà per avere successo dove i televisori 3D, le app per la consegna dei pasti a domicilio e gli occhiali AR hanno fallito.
Tuttavia, non sono molto ottimista. L’industria tecnologica è nel bel mezzo di una festa alimentata dal denaro facile. La mia prova? L’ultimo grande e dirompente gadget tecnologico che il mondo ha sperimentato, l’iPhone, ha compiuto 17 anni non molto tempo fa. Per tutto questo tempo, l’industria tecnologica ha inseguito il prossimo prodotto dirompente, senza trovare nulla. Senza i soldi facili, non avrebbe potuto continuare così a lungo.