Ultraman non teme che la sua villa venga attaccata; ha una fortezza.

By: blockbeats|2026/04/13 13:25:06
0
Condividi
copy

Nel 2016, Sam Altman ha costruito un bunker sotterraneo nel Wyoming. 1.200 metri quadrati, struttura a tre livelli, 500 kg d'oro, 5.000 compresse di ioduro di potassio, 5 tonnellate di cibo liofilizzato, 100.000 proiettili. Nello stesso anno, OpenAI aveva appena festeggiato il suo primo anniversario.

Dieci anni dopo, il leader della più potente azienda di intelligenza artificiale al mondo è stato attaccato per due fine settimana consecutivi, prima con una bomba molotov, poi con colpi d'arma da fuoco. In un post sul suo blog, ha ammesso di aver sottovalutato gravemente il "potere della narrazione". A quale narrazione si riferiva, a quella di qualcun altro o alla sua?

48 ore, due attacchi

Alle 3:40 del mattino del 10 aprile, in Chestnut Street a San Francisco. Un ventenne, Daniel Moreno-Gama, ha lanciato una molotov contro il cancello metallico dell'appartamento di Sam Altman. L'incendio divampò vicino al cancello esterno, e lui fuggì. Circa un'ora dopo, la stessa persona è ricomparsa nei pressi della sede di OpenAI a San Francisco, continuando a minacciare di appiccare incendi, ed è stata successivamente arrestata. Le accuse includevano tentato omicidio e incendio doloso.

Ultraman non teme che la sua villa venga attaccata; ha una fortezza.

La residenza di Sam Altman a San Francisco e le riprese di sorveglianza del sospettato di incendio doloso

Due giorni dopo, all'1:40 del mattino del 12 aprile, una berlina Honda si è parcheggiata accanto alla residenza di Altman nella zona di Russian Hill. Un passeggero a bordo dell'auto ha sporto la mano fuori dal finestrino e ha sparato un colpo in direzione dell'abitazione. Le immagini delle telecamere di sorveglianza hanno ripreso la targa del veicolo, portando all'arresto di due persone: Amanda Tom (25) e Muhamad Tarik Hussein (23). Durante la perquisizione dell'abitazione sono state rinvenute tre pistole e due persone sono state accusate di aver sparato in modo imprudente con un'arma da fuoco.

Un fine settimana, due attacchi.

Il sospettato nel primo caso, Daniel Moreno-Gama, era un profeta di sventura basato sull'intelligenza artificiale. Sui social media ha citato temi relativi al conflitto tra uomo e macchina tratti da "Dune", ha scritto articoli in cui sosteneva che un eventuale fallimento dell'allineamento dell'IA rappresentasse un rischio esistenziale, ha criticato i leader del settore tecnologico per aver perseguito l'"iperumanesimo" e per aver "scommesso tutto sul destino dell'umanità".

Qual era la sua argomentazione?

Negli ultimi cinque anni, una delle strategie standard di OpenAI nella costruzione della narrativa sull'IA è stata quella di sottolineare ripetutamente la minaccia "esistenziale" rappresentata dall'intelligenza artificiale generale (AGI). Questo discorso persegue molteplici scopi: esortare i governi a prendere sul serio la regolamentazione, aiutare gli investitori a comprendere la posta in gioco e far capire all'intero settore che questa competizione è troppo importante per perderla. Questa narrazione assolve a una funzione precisa, posizionando OpenAI contemporaneamente in prima linea nella lotta al pericolo, come la più responsabile e, di conseguenza, come la legittima destinataria dei finanziamenti.

Tuttavia, una volta diffusa, la frase "questa è la tecnologia più pericolosa della storia umana" non rimarrà confinata agli ambienti tecnologici e degli investitori. Si diffonderà a cascata e per alcuni diventerà un vero e proprio invito all'azione. Moreno-Gama ha scritto in un post su Instagram: "Progresso esponenziale più disallineamento equivale a rischio esistenziale". La fonte originaria di questo quadro argomentativo è la letteratura principale sulla sicurezza dell'IA, gran parte della quale è finanziata o approvata da OpenAI.

Account social media di Daniel Moreno-Gama

Dopo il primo attacco, Ultraman ha scritto un post sul suo blog. Ha pubblicato una foto con suo figlio, dicendo di sperare che quell'immagine potesse dissuadere la prossima persona dal lanciare una molotov contro la sua casa. Ha riconosciuto la "legittima posizione morale" degli oppositori e ha auspicato un dibattito pubblico "con un po' meno esplosività, sia in senso letterale che metaforico".

Ha inoltre risposto a un'inchiesta approfondita del New Yorker . L'articolo, pubblicato pochi giorni prima dell'attacco, metteva apertamente in discussione la sua credibilità come massima autorità in materia di intelligenza artificiale. Ha scritto: "Ho sottovalutato gravemente il potere della narrazione e del discorso pubblico".

Due giorni dopo, la sua abitazione è stata bersagliata da colpi d'arma da fuoco.

La pianificazione del budget per la sicurezza è una dichiarazione; un bunker è un'altra

Il punto di partenza di questa traiettoria è un anno prima di quanto la maggior parte delle persone si renda conto.

4 dicembre 2024, New York. Brian Thompson, CEO di UnitedHealthcare, è stato colpito da colpi d'arma da fuoco fuori dall'hotel Hilton. Il sospettato Luigi Mangione, laureato in una prestigiosa università della Ivy League, ha lasciato una dichiarazione scritta a mano in cui criticava il settore delle assicurazioni sanitarie. Il caso ha scatenato un'ondata insolita di reazioni sui social media: un numero considerevole di utenti comuni ha espresso apertamente solidarietà al colpevole, trasformandolo persino in una sorta di simbolo di ribellione.

In quel momento, alcune porte furono socchiuse.

In seguito all'incidente di Thompson, la sicurezza dei dirigenti è passata dall'essere un "privilegio" a una "necessità di sopravvivenza". Secondo i dati di una ricerca citata dalla rivista Fortune , dal 2023 si è registrato un aumento del 225% degli attacchi violenti contro i dirigenti di alto livello delle aziende. Nel 2025, il 33,8% delle aziende incluse nell'indice S&P 500 ha riportato spese per la sicurezza dei dirigenti nei propri bilanci, rispetto al 23,3% del 2020. Le aziende che forniscono servizi di sicurezza hanno registrato un costo mediano di 130.000 dollari, con un aumento del 20% su base annua, raddoppiando in cinque anni.

Il settore dell'intelligenza artificiale è l'ultimo e più importante destinatario di questa tendenza. Nel 2024, la spesa totale per la sicurezza dei CEO delle dieci principali aziende tecnologiche ha superato i 45 milioni di dollari. Mark Zuckerberg da solo ha superato i 27 milioni di dollari, una cifra superiore alla somma delle spese per la sicurezza di altri quattro CEO, tra cui Apple e Google. Nel 2025 Jensen Huang di NVIDIA ha guadagnato 3,5 milioni di dollari, con un aumento del 59% rispetto all'anno precedente. Sundar Pichai di Google aveva 8,27 milioni di dollari, con un aumento del 22%.

Il settore dell'intelligenza artificiale possiede una caratteristica unica che pochi altri settori hanno: persino i suoi creatori credono che questa tecnologia potrebbe distruggere la civiltà. Nel 2025, il Pew Research Center ha intervistato 28.333 persone in tutto il mondo, e solo il 16% si è dichiarato entusiasta dello sviluppo dell'intelligenza artificiale, mentre il 34% ha espresso preoccupazione. Un risultato controintuitivo è stato che maggiore è il livello di istruzione e di reddito, maggiore è la preoccupazione che l'intelligenza artificiale possa sfuggire al controllo. I più informati sono anche i più timorosi.

Di recente, la casa del consigliere comunale di Indianapolis Ron Gibson è stata presa di mira da colpi d'arma da fuoco esplosi nel cuore della notte, con 13 spari che hanno svegliato il figlio di 8 anni. Sulla porta è stato lasciato un biglietto scritto a mano con la scritta: "Vietato l'accesso ai data center". L'FBI è intervenuta nelle indagini. Jordyn Abrams, ricercatrice presso il Programma sull'estremismo della George Washington University, ha sottolineato come i data center stiano diventando bersaglio di estremisti anti-tecnologia e anti-governativi.

Scena della sparatoria con Ron Gibson

Questa paura non è un segreto nel settore; semplicemente non se ne parla apertamente.

Ultraman ha costruito la fortezza nel Wyoming nel 2016. Quell'anno era appena stato annunciato OpenAI, che illustrava al mondo i vantaggi che l'intelligenza artificiale avrebbe apportato all'umanità. Entrambi gli eventi coincisero: scommise pubblicamente sul successo dell'intelligenza artificiale, mentre in privato accumulava munizioni a sufficienza per sostenere una milizia armata.

Si trattava di una doppia scommessa razionale: scommettere pubblicamente sul successo dell'IA e prepararsi privatamente all'eventualità che l'IA impazzisse.

Il boomerang di Ultraman

Il 27 febbraio di quest'anno, OpenAI ha firmato un contratto con il Dipartimento della Difesa degli Stati Uniti, che consente al Pentagono di implementare ChatGPT su una rete di difesa classificata per l'utilizzo in "qualsiasi scopo lecito". Lo stesso giorno, Ultraman ha anche appoggiato pubblicamente la posizione di Anthropic sui limiti per le applicazioni militari dell'intelligenza artificiale. Successivamente, il tasso di disinstallazione giornaliera di ChatGPT è aumentato del 295% e le recensioni a una stella sono cresciute del 775% entro 24 ore. Il movimento di boicottaggio QuitGPT avrebbe raccolto oltre 1,5 milioni di partecipanti.

Il 21 marzo, circa 200 manifestanti hanno sfilato a San Francisco, davanti alle sedi di Anthropic, OpenAI e xAI, chiedendo agli amministratori delegati delle tre aziende di impegnarsi a sospendere lo sviluppo di tecnologie di intelligenza artificiale all'avanguardia. Contemporaneamente, Londra ha assistito alla più grande protesta contro l'intelligenza artificiale fino ad oggi.

La roccaforte di Ultraman nel Wyoming e il suo servizio di sicurezza affrontano due rischi distinti: uno proveniente dall'esterno e uno da ciò che lui stesso sta costruendo. In privato prende sul serio entrambi i rischi, ma in pubblico ne riconosce solo uno.

Nella settimana del primo attacco, il New Yorker pubblicò un approfondimento su Ultraman. I giornalisti Ronan Farrow e Andrew Marantz hanno intervistato oltre 100 fonti, giungendo alla conclusione centrale in sole due parole: inaffidabili. L'articolo citava un ex membro del consiglio di amministrazione di OpenAI che definiva Ultraman una "personalità antisociale", "slegata dalla verità". Diversi ex colleghi hanno descritto i suoi repentini cambiamenti di posizione sulla sicurezza dell'IA, spesso con rimodellamenti delle strutture di potere a seconda delle necessità.

Nella sua risposta sul blog, Ultraman ha ammesso di avere una tendenza ad "evitare i conflitti". Aveva costruito una narrazione pubblica secondo cui "l'intelligenza artificiale rappresenta una minaccia esistenziale" come strumento per raccogliere fondi e manovrare a fini normativi. Di conseguenza, l'attrezzo gli è sfuggito di mano, ha fatto un giro completo ed è ricaduto rovinosamente sulla sua porta.

Prezzo di --

--

Potrebbe interessarti anche

Monete popolari

Ultime notizie crypto

Leggi di più