Analisi dell'inchiesta approfondita del New Yorker: Perché gli addetti ai lavori di OpenAI ritengono che Altman non sia affidabile?

By: rootdata|2026/04/08 15:10:01
0
Condividi
copy

Autore originale: Xiaobing, Shenchao TechFlow

Nell'autunno del 2023, Ilya Sutskever, capo ricercatore di OpenAI, era seduto davanti al suo computer e stava completando un documento di 70 pagine.

Il presente documento è stato redatto sulla base di registrazioni di messaggi su Slack, documenti relativi alle comunicazioni delle Risorse Umane e verbali di riunioni interne, al solo scopo di rispondere a una domanda: Ci si può fidare di Sam Altman, il responsabile di quella che potrebbe essere la tecnologia più pericolosa della storia dell'umanità?

La risposta fornita da Sutskever è riportata nella prima riga della prima pagina del documento, sotto il titolo "Sam mostra un modello di comportamento coerente..."

Il primo punto: Mentire.

Oggi, a distanza di due anni e mezzo, i giornalisti investigativi Ronan Farrow e Andrew Marantz hanno pubblicato un approfondito reportage investigativo sul *New Yorker*. Hanno intervistato oltre 100 persone, ottenuto promemoria interni finora inediti e più di 200 pagine di appunti personali lasciati dal fondatore di Anthropic, Dario Amodei, durante il periodo in cui ha lavorato presso OpenAI. Il quadro che emerge da questi documenti è ben più inquietante delle "intrighi di palazzo" del 2023: come OpenAI si sia trasformata da organizzazione senza scopo di lucro creata per garantire la sicurezza umana in una macchina commerciale, con quasi tutte le barriere di sicurezza smantellate dalla stessa persona.

La conclusione di Amodei nei suoi appunti è ancora più chiara: "Il problema di OpenAI è proprio Sam."

Il "peccato originale" di OpenAI

Per comprendere l'importanza di questo rapporto, occorre innanzitutto chiarire quanto sia speciale OpenAI come azienda.

Nel 2015, Altman e un gruppo di personalità di spicco della Silicon Valley did-133">hanno compiuto un passo quasi senza precedenti nella storia dell'imprenditoria: hanno utilizzato un'organizzazione senza scopo di lucro per sviluppare quella che potrebbe essere la tecnologia più potente della storia dell'umanità. Le responsabilità del consiglio di amministrazione erano state chiaramente definite: la sicurezza ha la precedenza sul successo dell'azienda, e persino sulla sua stessa sopravvivenza. In parole povere, se un giorno l'intelligenza artificiale di OpenAI dovesse diventare pericolosa, il consiglio di amministrazione avrebbe l'obbligo di chiudere l'azienda.

L'intera struttura si basa su un unico presupposto: il responsabile dell'AGI deve essere una persona di estrema onestà.

E se quell'ipotesi fosse sbagliata?

Il vero fulcro dello rapporto è quel documento di 70 pagine. Sutskever non si lascia coinvolgere dalle dinamiche interne all'ufficio; è uno dei massimi esperti mondiali di intelligenza artificiale. Ma nel 2023 si convinse sempre più di una cosa: Altman mentiva continuamente ai dirigenti e al consiglio di amministrazione.

Un esempio concreto: Nel dicembre 2022, durante una riunione, Altman ha assicurato al consiglio di amministrazione che diverse funzionalità del prossimo GPT-4 avevano superato le verifiche di sicurezza. Il membro del consiglio Toner ha chiesto di visionare i documenti di approvazione e ha scoperto che due delle funzionalità più controverse (la regolazione personalizzata da parte dell'utente e l'implementazione dell'assistente personale) non avevano ricevuto alcuna approvazione da parte del comitato per la sicurezza.

In India sono successe cose ancora più scandalose. Un dipendente ha segnalato a un altro membro del consiglio di amministrazione «quella violazione»: Microsoft ha lanciato una versione preliminare di ChatGPT in India senza aver completato le necessarie verifiche di sicurezza.

Sutskever ha riportato anche un altro episodio nel promemoria: Altman aveva detto all'ex direttrice tecnica Mira Murati che la procedura di approvazione in materia di sicurezza non era poi così importante, dato che il responsabile legale dell'azienda l'aveva già approvata. Murati è andato a chiedere conferma al responsabile dell'ufficio legale, il quale ha risposto: «Non so da dove Sam abbia tratto questa impressione».

Le 200 pagine di appunti personali di Amodei

Il documento di Sutskever sembra l'atto di accusa di un pubblico ministero. Le oltre 200 pagine di appunti di Amodei sembrano il diario scritto da un testimone sulla scena del crimine.

Durante gli anni in cui Amodei ha ricoperto il ruolo di responsabile della sicurezza presso OpenAI, ha assistito al fatto che l'azienda facesse marcia indietro a causa delle pressioni commerciali. Ha sottolineato un dettaglio fondamentale del piano di investimento di Microsoft del 2019: aveva inserito nello statuto di OpenAI una clausola di «fusione e assistenza», secondo la quale, qualora un'altra società avesse individuato un percorso più sicuro verso l'AGI, OpenAI avrebbe dovuto cessare di competere con essa e fornirle assistenza. Questa era la garanzia di sicurezza che apprezzava di più nell'intero accordo.

Proprio mentre l'accordo stava per essere firmato, Amodei scoprì una cosa: Microsoft aveva ottenuto il diritto di veto su questa clausola. Cosa significa? Anche se un giorno un concorrente trovasse una soluzione migliore, Microsoft potrebbe impedire a OpenAI di adempiere al proprio obbligo di fornire assistenza con una sola parola. La clausola era ancora sulla carta, ma dal giorno della firma era ormai priva di valore.

In seguito, Amodei ha lasciato OpenAI e ha fondato Anthropic. La rivalità tra le due aziende ruota essenzialmente attorno al disaccordo su «come dovrebbe essere sviluppata l'intelligenza artificiale».

Il 20% di impegno di calcolo che sta scomparendo

C'è un dettaglio nel rapporto che fa venire i brividi, riguardante il "super team di allineamento" di OpenAI.

A metà del 2023, Altman ha inviato un'e-mail a un dottorando che stava conducendo una ricerca sul "deceptive alignment" (un comportamento dell'IA apparentemente corretto durante la fase di test, ma che poi agisce a proprio piacimento una volta implementata), esprimendo la sua profonda preoccupazione riguardo alla questione e valutando la possibilità di istituire un premio di ricerca globale del valore di 1 miliardo di dollari. Il dottorando, incoraggiato, si è preso un periodo di aspettativa ed è entrato a far parte di OpenAI.

A quel punto Altman cambiò idea: niente premio esterno, ma istituì invece un "super team di allineamento" interno. L'azienda ha annunciato che avrebbe destinato "il 20% delle risorse di calcolo esistenti" a questo team, con un valore potenziale superiore a 1 miliardo di dollari. L'annuncio era estremamente grave e affermava che, se il problema dell'allineamento non fosse stato risolto, l'AGI avrebbe potuto portare alla «priva di potere degli esseri umani, o addirittura alla loro estinzione».

Jan Leike, nominato a capo di questo team, ha poi dichiarato ai giornalisti che l'impegno in sé costituiva uno «strumento di fidelizzazione dei talenti» molto efficace.

E la realtà? Quattro persone che lavoravano all'interno di questo team o a stretto contatto con esso hanno affermato che la potenza di calcolo effettivamente assegnata rappresentava solo l'1-2% della potenza totale dell'azienda e che si trattava dell'hardware più obsoleto. In seguito quella squadra fu sciolta e la sua missione rimase incompiuta.

Quando i giornalisti hanno chiesto di intervistare il personale di OpenAI responsabile della ricerca sulla "sicurezza esistenziale", la risposta dell'ufficio stampa dell'azienda è stata ridicola: "Ma quella non è... una cosa vera."

Altman stesso era tranquillo. Ha dichiarato ai giornalisti che la sua «intuizione non è in linea con molti dei tradizionali approcci alla sicurezza dell'IA», ma che OpenAI continuerà comunque a portare avanti «progetti sulla sicurezza, o almeno progetti legati alla sicurezza».

Prezzo di --

--

Il direttore finanziario emarginato e l'imminente offerta pubblica iniziale

L'articolo del New Yorker era solo metà delle brutte notizie di quel giorno. Lo stesso giorno, The Information ha pubblicato un'altra notizia di grande rilievo: Si è verificato un grave disaccordo tra Sarah Friar, direttore finanziario di OpenAI, e Altman.

Friar ha confidato ai colleghi di ritenere che OpenAI non fosse pronta per la quotazione in borsa quest'anno. Due motivi: il carico di lavoro procedurale e organizzativo da portare a termine era troppo ingente, e i rischi finanziari derivanti dalla spesa informatica di 600 miliardi di dollari promessa da Altman nell'arco di cinque anni erano troppo elevati. Non era nemmeno sicura che la crescita dei ricavi di OpenAI potesse sostenere tali impegni.

Ma Altman voleva affrettare l'ingresso in borsa nel quarto trimestre di quest'anno.

Cosa ancora più scandalosa, Friar non faceva più capo direttamente ad Altman. A partire dall'agosto 2025, ha iniziato a riferire a Fidji Simo (amministratore delegato della divisione applicazioni di OpenAI). E Simo aveva appena preso un congedo per malattia per motivi di salute. Immaginate questa situazione: un'azienda che sta correndo contro il tempo per quotarsi in borsa, con profondi disaccordi tra l'amministratore delegato e il direttore finanziario, quest'ultimo che non fa capo all'amministratore delegato e il superiore del direttore finanziario in congedo.

Persino i dirigenti di Microsoft non lo sopportavano più, affermando che Altman «distorce i fatti, non mantiene la parola data e viola costantemente gli accordi». Un dirigente di Microsoft ha persino osservato: «Credo che ci siano buone probabilità che alla fine venga ricordato come un truffatore al pari di Bernie Madoff o SBF».

Il ritratto "a doppia faccia" di Altman

Un ex membro del consiglio di amministrazione di OpenAI ha descritto ai giornalisti due caratteristiche di Altman. Questa descrizione potrebbe essere il ritratto più spietato di tutta la relazione.

Il membro del consiglio ha affermato che Altman possiede una combinazione di caratteristiche estremamente rara: in ogni interazione faccia a faccia, dimostra un forte desiderio di soddisfare gli altri e di piacergli. Allo stesso tempo, mostra un'indifferenza quasi sociopatica nei confronti delle conseguenze del proprio inganno.

È estremamente raro trovare entrambe queste caratteristiche in una sola persona. Ma per un venditore è il regalo perfetto.

Nel rapporto c'è una metafora che rende bene l'idea: Steve Jobs era famoso per il suo «campo di distorsione della realtà», grazie al quale riusciva a convincere il mondo a credere nella sua visione. Ma nemmeno Jobs ha mai detto ai clienti: «Se non comprate il mio lettore MP3, le persone che amate moriranno».

Altman ha espresso opinioni simili riguardo all'intelligenza artificiale.

Il problema caratteriale di un amministratore delegato: Perché è un rischio che riguarda tutti

Se Altman fosse solo l'amministratore delegato di una normale azienda tecnologica, queste accuse sarebbero al massimo un pettegolezzo aziendale piccante. Ma OpenAI non è un'azienda come le altre.

Secondo quanto afferma, sta sviluppando quella che potrebbe essere la tecnologia più potente della storia dell'umanità. Può rivoluzionare l'economia globale e il mercato del lavoro (la stessa OpenAI ha appena pubblicato un libro bianco sulle politiche relative al problema della disoccupazione causata dall'intelligenza artificiale) e può anche essere utilizzata per creare armi biologiche su larga scala o sferrare attacchi informatici.

Tutte le barriere di sicurezza hanno perso ogni significato. La missione senza scopo di lucro del fondatore ha lasciato il posto alla corsa alla quotazione in borsa. Sia l'ex responsabile scientifico che l'ex responsabile della sicurezza ritengono che l'amministratore delegato sia «inaffidabile». I partner paragonano l'amministratore delegato a SBF. In questo contesto, che diritto ha questo amministratore delegato di decidere unilateralmente quando rilasciare modelli di intelligenza artificiale che potrebbero cambiare il destino dell'umanità?

Gary Marcus (professore di intelligenza artificiale alla NYU e da tempo sostenitore della sicurezza dell'IA) ha scritto una frase dopo aver letto il rapporto: Se un futuro modello di OpenAI fosse in grado di creare armi biologiche su larga scala o di sferrare attacchi informatici catastrofici, ti sentiresti davvero a tuo agio nel lasciare che sia Altman a decidere da solo se renderlo pubblico?

La risposta di OpenAI al *New Yorker* è stata concisa: «La maggior parte del contenuto di questo articolo è una rivisitazione di fatti già riportati in precedenza, basata su dichiarazioni anonime e aneddoti selezionati in modo parziale, con fonti che hanno chiaramente interessi personali.»

In linea con lo stile tipico di Altman nel rispondere: non entra nel merito delle accuse specifiche, non nega l'autenticità del promemoria, ma si limita a mettere in discussione le motivazioni.

Un albero dei soldi che cresce sulle ceneri di un'organizzazione no profit

La storia decennale di OpenAI può essere riassunta come segue:

Un gruppo di idealisti preoccupati per i rischi legati all'intelligenza artificiale ha fondato un'organizzazione senza scopo di lucro orientata alla missione. L'organizzazione ha compiuto straordinari progressi tecnologici. Queste innovazioni hanno attirato ingenti investimenti. Il capitale esigeva rendimenti. La missione cominciò a vacillare. Il team addetto alla sicurezza è stato sciolto. I dissidenti furono eliminati. La struttura senza scopo di lucro è stata trasformata in un'entità a scopo di lucro. Il consiglio di amministrazione, che un tempo aveva il potere di sciogliere la società, è ora composto da alleati dell'amministratore delegato. L'azienda che un tempo aveva promesso di destinare il 20% delle proprie risorse di calcolo alla tutela della sicurezza delle persone ora vede i propri addetti alle pubbliche relazioni affermare: «Non è una cosa reale».

Il protagonista di questa storia è stato descritto in questo modo da oltre un centinaio di testimoni oculari: "Senza alcun vincolo alla verità."

Si sta preparando a quotare in borsa questa società, con una valutazione che supera gli 850 miliardi di dollari.

Questo articolo riassume le informazioni tratte da articoli pubblicati da The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information e altri media.

Potrebbe interessarti anche

Due mondi divisi: Approfondimenti dal New York Digital Asset Summit, la conferenza sulla blockchain più frequentata dagli operatori istituzionali

Wall Street "conquista" il Web3: DTCC è all'avanguardia nella scalabilità degli asset tradizionali su blockchain, mentre il settore delle criptovalute sta vivendo una storica "doppia svolta" di proporzioni epiche.

Le dieci rivelazioni del nuovo libro di CZ: Conoscenza anticipata di "94", la storia interna del cambiamento di proprietà di Huobi resa pubblica per la prima volta

Da una zona rurale del Jiangsu al re delle criptovalute, vendendo una casa per investire tutto in Bitcoin.

Il cessate il fuoco elimina la guerra premium durante la notte, tre linee di faglia e solo una sigillata | Riepilogo mattutino di Rewire News

Uno scambio di limiti di due settimane per una notte di avversione al rischio

Robinhood mette al sicuro l'«account di Trump»: Permettere a milioni di neonati di accedere al mercato azionario

La mossa elettorale di Trump in vista delle elezioni di medio termine ha fatto affluire miliardi a Robinhood.

Hai paura di aprire il vaso di Pandora? Il modello più potente mai realizzato da Anthropic non osa essere reso pubblico

Ciò a cui dovremo prestare attenzione nei prossimi mesi è quante delle vulnerabilità individuate nelle aziende presenti nella whitelist verranno risolte

Prezzi del petrolio in Iran dopo il cessate il fuoco: Perché il prezzo del greggio è sceso nell'aprile 2026

I prezzi del petrolio in Iran dopo il cessate il fuoco sono scesi bruscamente l'8 aprile 2026, poiché i commercianti hanno rimosso una parte del premio di guerra legato all'interruzione delle forniture nello Stretto di Hormuz.

Monete popolari

Ultime notizie crypto

Leggi di più