Karen Hao nel suo ultimo libro “Empire of AI”, racconta che, come negli antichi imperi, quelli odierni delle AI si appropriano ed estraggono risorse preziose per alimentare la loro visione dell'intelligenza artificiale: il lavoro di artisti e scrittori; gli innumerevoli dati di individui che pubblicano le loro esperienze e osservazioni online; la terra, l'energia e l'acqua necessarie per ospitare e gestire enormi datacenter e supercomputer.
Sam Altman è nato il 22 aprile 1985 a Chicago, Illinois, da genitori ebrei e oggi, come probabilmente sapete tutti, è considerato una delle figure di maggior spicco nel panorama dell’intelligenza artificiale globale. Alla fama di bambino precoce ha dimostrato fin da subito un interesse per la tecnologia. A due anni sapeva usare un videoregistratore, addirittura lo riparava, e a otto programmava e smontava computer. Questa precocità si è tradotta in una competitività accentuata, visibile fin da bambino quando scelse di investire in azioni Apple.
Altman ha frequentato la John Burroughs School, dove eccelse sia a livello accademico sia sociale distinguendosi per la sua personalità estroversa e il suo umorismo. È stato in questi anni che rivelò di essere gay affrontando e superando le resistenze di un gruppo di studenti cristiani, un episodio che ha cambiato l’approccio al tema da parte della scuola.
Insomma, Altman ha un’ambizione inarrestabile e una sensibilità marcata. Dopo aver lasciato la Stanford University senza laurearsi per fondare la sua prima start-up, Loopt, nel 2005 Altman ha iniziato a perfezionare le sue abilità nel fare affari e costruire una vasta rete di contatti nella Silicon Valley. Sebbene Loopt non sia stato un grande successo finanziario in sé, ha rappresentato un trampolino di lancio fondamentale.
Già in questa fase però, sono emerse accuse di operare per il proprio tornaconto e distorcere la verità, critiche che lo accompagneranno anche in altre avventure imprenditoriali. La sua ascesa è stata fortemente influenzata da due persone, due mentori chiave: Paul Graham, cofondatore di Y Combinator1, che lo ha scelto come suo successore alla presidenza, e Peter Thiel, che ha investito in una delle sue prime iniziative d’investimento, Hydrazine Capital.
Da queste due persone Altman ha assorbito molte cose tra cui la filosofia della monopoly strategy e la convinzione che la crescita economica sia un bene morale, un’idea che ha poi guidato la sua carriera e i suoi investimenti. Altman ha metodicamente coltivato le relazioni, usando il suo tempo, i consigli e successivamente il suo capitale per espandere la sua influenza. Tanto da essere definito il Michael Jordan dell’ascolto o l’Usain Bolt del fundraising.
La sua carriera è stata caratterizzata da una costante ridefinizione del suo ruolo, da fondatore di start-up a presidente di Y Combinator, fino a diventare CEO di OpenAI.
Questa breve biografia di Altman ha molti elementi presenti in un libro uscito da poco che si chiama “Empire of AI” e l’ha scritto Karen Hao, una giornalista che ha lavorato per il MIT Technology Review e per The Conversation. Il suo libro non è solo su Altman ma parte da OpenAI per raccontare molte cose che accadono in quel mondo, specie dietro quel mondo.
E Karen Hao scrive che per raccontare questo tipo di aziende solo una metafora incapsulerebbe la natura di questi potenti attori dell’AI: gli imperi, spiega. Durante la lunga era del colonialismo europeo, gli imperi si appropriavano ed estraevano risorse che non erano loro e sfruttavano il lavoro delle popolazioni sottomesse per estrarre, coltivare e raffinare tali risorse per il proprio arricchimento.
Proiettavano idee razziste e disumanizzanti della propria superiorità e modernità per giustificare e perfino indurre i conquistati ad accettare l’invasione della sovranità, il furto e la sottomissione. Giustificavano la loro sete di potere con la necessità di competere con altri imperi, in una corsa agli armamenti in cui tutte le scommesse erano aperte.
Tutto ciò, in ultima analisi, serviva a consolidare il potere di ciascun impero e a guidarne l’espansione e il progresso. In termini più semplici gli imperi accumulavano ricchezza straordinaria nello spazio e nel tempo, imponendo un ordine mondiale coloniale a scapito di tutti gli altri.
Gli imperi dell’AI, scrive Karen Hao, non sono impegnati nella stessa violenza e brutalità manifeste che hanno caratterizzato questa storia, ma anch’essi si appropriano ed estraggono risorse preziose per alimentare la loro visione dell’intelligenza artificiale: il lavoro di artisti e scrittori; i dati di innumerevoli individui che pubblicano le loro esperienze e osservazioni online; la terra, l’energia e l’acqua necessarie per ospitare e gestire enormi data center e supercomputer.
Allo stesso modo i nuovi imperi sfruttano il lavoro delle persone a livello globale per pulire e preparare i dati da trasformare in lucrose tecnologie di intelligenza artificiale, proiettano idee seducenti di modernità e si atteggiano in modo aggressivo, giustificandosi con la necessità di sconfiggere altri imperi per coprire e alimentare invasioni della privacy, furti e l’automazione catastrofica di ampie fasce di opportunità economiche.
E quindi oggi, con l’aiuto di questo libro, faremo un giro in questo mondo imperiale, un mondo fatto di fede e tantissimo sfruttamento di persone e risorse, un mondo in cui gli imperi in questo momento sembrano fortissimi, in grande espansione, senza niente che sembra in grado di fermarli. Ma gli imperi, così come sorgono, dilagano, sottomettono, violentano, distruggono, devastano, alla fine crollano anche.
Cominciamo con un esempio. Tra la primavera del 2022 e la fine del 2023 OpenAI ha firmato contratti per circa 17 milioni di dollari con Scale AI. Questa collaborazione ha consolidato Scale AI come un fornitore di manodopera di riferimento per la rivoluzione delle AI generative.
Ok, ma che cos’è Scale AI? È un’azienda cofondata nel 2016 da Alexandr Wang, allora studente del MIT che aveva abbandonato gli studi e che è emersa nel tempo come un’azienda di successo nel settore dell’annotazione dei dati, sfruttando strategie che combinavano servizi specializzati di alta qualità con prezzi bassi.
Come ha spiegato a Karen Hao un ex dipendente di Scale che ha supervisionato l’espansione della forza lavoro, l’obiettivo era ottenere le persone migliori al minor costo possibile. L’azienda nel frattempo si era rapidamente assicurata clienti importanti come Apple, Toyota, Airbnb.
Ma come si espandeva la sua forza lavoro?
Scale AI ha reclutato lavoratori in paesi come Kenya e Filippine, ex colonie con persone istruite, con accesso a internet ma povere e disposte ad accettare salari molto bassi. Questa logica è stata riassunta dall’affermazione che se si può tirare un rischio o etichettare dati in un internet café con l’aria condizionata, quest’ultima opzione è sicuramente la migliore.
L’attenzione di Scale si è poi spostata sul Venezuela a partire dal 2016, a causa della sua grave crisi economica. La disperazione acuta di migliaia di venezuelani, afflitti da iperinflazione e disoccupazione, li ha resi disposti a lavorare per somme incredibilmente basse, permettendo a Scale di offrire prezzi estremamente bassi anche per i suoi servizi.
Molti di questi lavoratori si sono dedicati all’annotazione dei dati coinvolgendo spesso l’intera famiglia. Tuttavia, le promesse di Scale AI sono svanite una volta consolidata la sua posizione dominante. Il programma Remotasks Plus, che inizialmente prometteva guadagni maggiori, ha visto i compensi dei lavoratori diminuire drasticamente in poche settimane, arrivando a volte a pochi centesimi l’ora o a nulla.
Il programma poi è stato chiuso nella primavera 2021. E nonostante un portavoce di Scale AI abbia affermato che la maggior parte dei lavoratori ha continuato a utilizzare la piattaforma, molti di loro hanno lamentato paghe ancora più basse, con una media di circa 90 centesimi di dollaro all’ora per i venezuelani. I lavoratori che si lamentavano venivano spesso estromessi dalla piattaforma, riflettendo l’intenzione di spremere ogni utente il più possibile per poi liberarsene e portare nuovi utenti.
Karen Hao sottolinea come questa pratica di sfruttamento si sia ripetuta a mano a mano che Scale si espandeva in altri paesi con popolazioni in difficoltà economica durante la pandemia, offrendo inizialmente alti guadagni per attrarre lavoratori e poi riducendoli.
L’autrice osserva che le pratiche di pagamento di Scale, cronicamente sottodimensionate dai team di ingegneri negli Stati Uniti, erano anche piene di bug che spesso impedivano ai lavoratori di incassare. Un fatto ironico significativo è che nel tardo 2022, proprio mentre ChatGPT diventava virale, molti lavoratori di Remotasks in Kenya hanno iniziato a usare ChatGPT stesso per generare risposte e aumentare la produttività. Per Scale però questo era considerato una truffa punibile, anche se la stessa pratica sarebbe stata considerata lodevole per i lavoratori con il “colletto bianco” nel Nord del mondo.
Nel marzo 2024 Scale ha completamente bloccato il Kenya, la Nigeria e il Pakistan da Remotasks, citando problemi di truffe e qualità. Karen Hao conclude che le pratiche di Scale AI sono un’ulteriore chiara illustrazione della logica degli imperi delle AI: la promessa di aumento della produttività e nuove opportunità economiche spesso si traduce nel concentrare più ricchezza al vertice e nel devalorizzare il lavoro umano.
L’azienda poi ha spostato il suo focus sul reclutamento di lavoratori altamente qualificati negli Stati Uniti tramite una nuova piattaforma, per l’addestramento di modelli di AI generativa più complessi.
Per aggiornarvi su Scale AI, qualche mese fa Business Insider ha scritto che, settimane dopo che Meta ha investito 14,3 miliardi di dollari in Scale AI e assunto il suo fondatore Alexandr Wang, la start-up di intelligenza artificiale sta tagliando 200 dipendenti a tempo pieno, ovvero il 14% del suo staff.
Ora torniamo al libro di Karen Hao, Empire of AI, che ruota attorno proprio a OpenAI.
Attraverso le prove e le tribolazioni del suo CEO, Sam Altman, siamo introdotti in un mondo di inganni e manipolazioni machiavelliche – ha scritto Ben Wray su Jacobin – dove l’alta ambizione morale si scontra costantemente con le brutali realtà del potere aziendale. Altman, ad esempio, sopravvive alle varie tempeste che gli si presentano solo scartando tutto ciò in cui una volta affermava di credere.
L’articolo di Wray ci permette di esplorare il libro di Karen Hao, ma anche di allargare un po’ il campo, ad esempio valutando l’impatto sull’impero OpenAI di un altro impero, che arriva da tutt’altra parte.
Intanto cominciamo col ricordare che OpenAI è nata con la missione di creare una AGI, un’intelligenza artificiale generale, e quindi per questo nasce come organizzazione senza scopo di lucro, con l’intenzione di collaborare con altri, condividendo apertamente la sua ricerca senza sviluppare alcun prodotto commerciale. Questo obiettivo derivava dalle convinzioni di Altman e del primo grande mecenate di OpenAI, Elon Musk. Entrambi credevano che l’AI rappresentasse grandi rischi per il mondo se fosse stata sviluppata nel modo sbagliato. In particolare ce l’avevano con Google, odiavano Google.
Karen Hao, nel libro, raccoglie mail e messaggi tra i principali protagonisti di questa storia. E vi assicuro che, alla fine, per certi versi quello che sembra più sincero è proprio Elon Musk: davvero pensava a una cosa senza scopo di lucro, in grado di battere sul tempo Google, dato che era lui, in particolare, a temere che Google fosse un impero cattivo.
L’idea che muove OpenAI, invece, era quella di essere “i buoni” in questa storia. Una storia americana, senza vie di mezzo: i cattivi (Google) e i buoni (Altman, Musk e OpenAI).
Il fatto è che poi Altman in realtà trasforma tutto questo, perché finisce per creare un’azienda a scopo di lucro che produce software proprietario, basato su livelli estremi di segretezza aziendale, e con una determinazione feroce a superare i rivali nella velocità di commercializzazione dell’AI, indipendentemente dai rischi. È una testimonianza della sua capacità di adattarsi a qualsiasi cosa, se lo scopo finale è ricchezza e potere.
In realtà, la motivazione per il primo spostamento verso ciò che OpenAI sarebbe diventata alla fine deriva da considerazioni strategiche, legate a una dottrina di Altman sullo sviluppo dell’AI: lo scaling2.
Lo scaling, diciamolo subito, richiede un sacco di soldi. L’idea dietro questo concetto è che l’AI possa progredire a passi da gigante solo attraverso la forza bruta di un’enorme potenza di calcolo e dati. Questo riflette una fede devota nel cosiddetto connessionismo3, una scuola di sviluppo dell’AI molto più facile da commercializzare rispetto alla sua rivale, il simbolismo4.
Apriamo una parentesi. L’espressione “intelligenza artificiale” fu coniata nel 1956 da John McCarthy. McCarthy era un giovane matematico del Dartmouth College che doveva organizzare un evento, una conferenza estiva. Gli serviva un’espressione da mettere sul volantino, qualcosa che catturasse l’attenzione, e usò per la prima volta il termine “intelligenza artificiale”.
Quell’incontro riunì pionieri come Claude Shannon5, Marvin Minsky6 e Allen Newell7, e di fatto segna la nascita ufficiale di un campo destinato a rivoluzionare la tecnologia e la società. Ma già allora la comunità era divisa in due: simbolisti e connessionisti.
I simbolisti credevano che l’intelligenza derivasse dal sapere e dalla manipolazione di simboli logici. L’obiettivo era programmare le macchine con regole e conoscenze esplicite, creando sistemi esperti – come sarebbe avvenuto più tardi con IBM Watson. Tuttavia, la complessità di codificare manualmente tutta la conoscenza e la lentezza nella commercializzazione portarono i simbolisti a perdere progressivamente potere.
I connessionisti ritenevano invece che l’intelligenza emergesse dall’apprendimento, imitando il funzionamento del cervello umano attraverso reti neurali. Con l’aumento della potenza di calcolo e la disponibilità di grandi quantità di dati, i connessionisti sono tornati in auge. Il deep learning, forma attuale del connessionismo, è oggi alla base di tutta l’AI generativa.
OpenAI era, ed è, connessionista. Crede che avere a disposizione più nodi di elaborazione e più dati significhi posizionarsi all’avanguardia nello sviluppo dell’AI.
Il problema è che lo scaling richiede un’enorme quantità di capitali, molto più di quanto un’organizzazione no profit potesse raccogliere. Così, spinta dalla necessità di scalare, nel 2019 OpenAI ha creato un braccio a scopo di lucro per raccogliere fondi e costruire prodotti commerciali.
Ma, a causa delle origini dell’azienda, OpenAI si ritrova con una struttura di governance piuttosto bizzarra, che conferisce il controllo, a livello di consiglio, a un ramo no profit quasi irrilevante. Una pretesa ridicola, scrive Ben Wray, basata sull’idea che nonostante la motivazione al profitto, la missione di OpenAI fosse ancora “costruire un’AGI per l’umanità, a beneficio di tutti”.
Dall’altro lato, quattro mesi dopo il lancio della divisione for-profit, Altman piazza il colpo grosso: si assicura un investimento da un miliardo di dollari da Microsoft. A quel punto, però, bisogna dare soddisfazione a Microsoft, farle percepire un ritorno su quell’investimento. E così viene sviluppato ChatGPT.
In realtà, quelli di OpenAI si aspettavano un successo moderato. Ma con sorpresa di tutti, come sappiamo, in due mesi ChatGPT diventa l’app consumer a crescita più rapida della storia. È l’inizio dell’era dell’AI generativa.
Da quel momento in poi, OpenAI si concentra incessantemente sulla commercializzazione. Ma l’onda d’urto di ChatGPT si allarga a cerchi concentrici in tutto il settore: lo scaling diventa lo standard di riferimento. Alphabet e Meta iniziano a spendere somme colossali nello sviluppo dell’AI, somme che superano di gran lunga quelle mobilitate dai governi.
L’altro lato della medaglia è che lo scaling ha un costo ambientale enorme. L’enorme consumo di dati dell’AI generativa richiede giganteschi data center pieni di GPU energivore. Questi data center necessitano di vasti spazi di terreno su cui costruire e di enormi quantità di acqua per il raffreddamento.
Hao evidenzia statistiche impressionanti: ogni immagine generata da un’AI consuma energia equivalente alla ricarica di uno smartphone al 25%. Entro il 2030 le AI potrebbero consumare più energia dell’intera India, il terzo maggiore utilizzatore al mondo. E ci sono state molte proteste: lo Iowa, dopo due anni di siccità, ha visto Microsoft ingoiare 11,5 milioni di tonnellate di acqua potabile dello stato; in Uruguay, altro esempio, i data center di Google hanno suscitato manifestazioni di massa dopo che i tribunali hanno costretto il suo governo a rivelare l’entità di acqua potabile che i data center di Mountain View stavano utilizzando. Un murales a Montevideo recitava: “questa non è siccità, è saccheggio”.
Nonostante ciò, la logica dello scaling sembra inarrestabile. Persino Altman ha investito in una start-up di fusione nucleare, descritta da Hao come il suo “biglietto d’oro” per un’energia abbondante, quasi gratuita: un modo per scommettere su una soluzione miracolosa futura, mentre i problemi dello scaling sono già qui.
Ma a gennaio 2025 è arrivato il primo shock: il terremoto DeepSeek. Un chatbot cinese, open source, che ha superato ChatGPT come app più scaricata negli Stati Uniti. La cosa straordinaria è il come: è costato circa 6 milioni di dollari per l’addestramento – un cinquantesimo rispetto a ChatGPT – ed è risultato più efficiente del 90% in termini energetici, con performance competitive o superiori su diversi benchmark.
Il panico a Wall Street è stato immediato: in un solo giorno il calo della capitalizzazione di mercato dei titoli tecnologici è stato equivalente all’intero valore finanziario del Messico.
DeepSeek ha dimostrato che lo scaling implacabile non è l’unica via. Anzi, potrebbe essere un paradigma già obsoleto. Ma soprattutto ha mostrato che la Cina non solo è arrivata, ma può imporre nuove regole.
Karen Hao non ha potuto includerlo in Empire of AI, chiuso proprio nel gennaio 2025. Ma la domanda rimane: se non possiamo fidarci di imprese come OpenAI o Meta, come dovrebbero essere governate le AI?
Hao propone tre direzioni: redistribuire conoscenze, risorse e influenza. Finanziare ricerche alternative, rendere trasparenti dati, catene di approvvigionamento e impatti ambientali, sostenere sindacati e lavoratori dei dati, rafforzare l’istruzione pubblica per sfatare i miti dell’AI e renderne comprensibili i limiti.
E già questo sarebbe molto, considerando che viviamo in un’epoca in cui gli imperi tecnologici hanno più potere degli Stati: possono ricattarli, finanziarli, condizionarne le elezioni. Un legame che sembra inestricabile.
A meno che – conclude Hao – i sudditi non decidano di smettere di fare i sudditi.
- Y Combinator è un acceleratore di startup statunitense creato nel marzo 2005. Y Combinator ha dato vita a molte startup di successo ed è considerato uno dei migliori acceleratori negli Stati Uniti. ↩︎
- La dottrina secondo cui l’AI migliora soprattutto aumentando in modo massiccio i dati e la potenza di calcolo, affidandosi alla “forza bruta” delle risorse più che a nuove idee teoriche. È il principio alla base di ChatGPT, addestrato con miliardi di parametri grazie a enormi data center. Ma DeepSeek, ha dimostrato che non serve sempre questa scala: con costi inferiori e consumi energetici ridotti massicciamente, ha ottenuto prestazioni paragonabili o superiori, mettendo in crisi lo stesso paradigma dello scaling. ↩︎
- Approccio che imita il cervello umano con reti neurali artificiali, facendo emergere l’intelligenza dall’apprendimento su grandi quantità di dati, oggi alla base del deep learning. ↩︎
- Corrente storica dell’AI che puntava a programmare le macchine con regole esplicite e conoscenze codificate, creando sistemi esperti basati sulla manipolazione logica dei simboli. ↩︎
- Matematico e ingegnere, padre della teoria dell’informazione. ↩︎
- Informatico e scienziato cognitivo, tra i fondatori dell’AI al MIT. ↩︎
- Psicologo e informatico, pioniere dell’AI alla Carnegie Mellon, co-creatore dei primi sistemi di problem solving insieme a Herbert Simon. ↩︎
Rispondi