rotate-mobile
Domenica, 28 Aprile 2024

L'editoriale

Francesco Marino

Perché quello che è successo tra Sam Altman e OpenAI riguarda tutti

30 novembre 2022: OpenAI, un’azienda piuttosto sconosciuta al grande pubblico, lancia ChatGPT, un chatbot basato su intelligenza artficiale. È l’inizio di un anno particolare, in cui l’IA generativa sbarca, con prepotenza, al centro del dibattito pubblico mondiale, tra rischi e opportunità.

L’ambasciatore dell’azienda, e della tecnologia in senso più ampio, è Sam Altman. 38 anni, un passato nell’acceleratore di startup Y Combinator, Altman diventa il volto dell’intelligenza artificiale: incontra capi di stato (per citarne alcuni, Biden, Macron, Sunak…), rilascia interviste in tutto il mondo, lancia nuovi prodotti. È un po’ (perdonatemi la formula che ha un po’ un sapore di Boris) lo Steve Jobs dell’IA generativa, per impatto ed efficacia.

Altman licenziato da OpenAI: cos’è successo

Poi succede qualcosa. Tutto in un weekend: Altman viene licenziato dall’azienda che aveva fondato e cambia completamente lo scenario. Ma cos’è accaduto, esattamente? Prima di tutto, un riepilogo veloce.

  • Venerdì scorso, il 17 novembre, all’improvviso, Sam Altman e Greg Brockman, Ceo e Presidente, vengono licenziati da OpenAI, la compagnia di ChatGPT, il più importante prodotto di AI generativa al mondo. A prendere la decisione il consiglio di amministrazione, composto da Ilya Sutskever, chief scientist dell’azienda, Adam D’angelo, Ceo di Quora, Helen Toner, direttrice del Georgetown University's Center for Security and Emerging Technology, e Tasha McCauley, imprenditrice tech e membro della RAND Corporation. Ceo ad interim viene nominata Mira Murati, Cto dell’azienda.
  • Tra sabato 18 e domenica 19, dopo una serie di dimostrazioni di affetto espresse dai dipendenti dell’aziende tramite emoji di cuore via X (già Twitter), Altman è stato richiamato, ma non ha trovato un accordo per rientrare. A quel punto, è stato nominato nuovo Ceo Emmet Shear, ex numero uno di Twitch.
  • Lunedì 20 novembre, Satya Nadella, Ceo di Microsoft e partner di OpenAI, ha ribadito in un tweet l’impegno a continuare il lavoro sull’intelligenza artificiale, in collaborazione con Shear. Salvo poi, nella seconda parte del post, rivelare di aver assunto Altman e Brockman, per creare una nuova divisione IA interna a Microsoft.

  • Ancora nella giornata di lunedì, è uscita una lettera, riportata dai media statunitensi, che rivela che oltre 700 dipendenti di OpenAl, il 95% del totale, sarebbero pronti a seguire Altman e Brockman a Microsoft, che si è detta disponibile ad assumerli. Tra i firmatari del documento interno c'è Ilya Sutskever, inizialmente considerato il responsabile della cacciata di Altman. “Sono molto dispiaciuto – ha scritto Sutskever su X – per la mia partecipazione alle azioni del consiglio. Non ho mai avuto intenzione di danneggiare OpenAI. Amo tutto ciò che abbiamo costruito insieme e farò tutto il possibile per riunire l'azienda”.

  •  Nella notte italiana tra lunedì 20 e martedì 21, Satya Nadella, in un’intervista a Bloomberg, ha spiegato come l’accordo tra Microsoft e Altman non possa ancora considerarsi concluso. Secondo i media statunitensi, infatti, l’idea di Altman è ancora quella di tornare a OpenAI.

SUltim'ora: Sam Altman torna ad OpenAI, ma a vincere è Microsoft

Perché Altman è stato licenziato?

Questa la situazione, al momento in cui scriviamo. Ok, ma perché l’azienda leader del settore dell’IA generativa decide di licenziare il suo Ceo, proprio nel momento di massima espansione?

Ci sono almeno un paio di risposte. La prima è che OpenAI non è un’azienda. Nasce, in realtà, come una no-profit nel 2015, con l’obiettivo di “promuovere l’intelligenza artificiale nel modo che più probabilmente avvantaggerà l’umanità nel suo complesso, senza essere vincolata dalla necessità di generare ritorni finanziari”. Sull’organizzazione aleggia lo spettro dell’intelligenza artificiale generale (AGI): ovvero il momento in cui l’IA eguaglia o supera le capacità umane in una gamma piuttosto ampia di compiti.

Nel 2018, dopo un tentativo da parte di Elon Musk (uno dei fondatori) di prendere il controllo dell’organizzazione, Altman crea una divisione for profit, orientata alla commercializzazione dei prodotti e alla raccolta degli investimenti per finanziare. OpenAI LP, questo il nome, è controllata dalla no-profit e la sua missione è “garantire che l’intelligenza artificiale generale sicura venga sviluppata e porti benefici a tutta l’umanità”.

Nessuno sa esattamente cosa sia successo venerdì 17. Ma una lettura è che il Consiglio di amministrazione di OpenAI, la no-profit, possa aver ritenuto che la divisione orientata al profitto non stesse lavorando con l’obiettivo di avvantaggiare l’umanità. Magari che stesse correndo troppo, senza fare la dovuta attenzione alla sicurezza. Si tratta, secondo quanto racconta un articolo di Karen Hao e Charlie Warzel su The Atlantic, di un dibattito che va avanti da tempo all’interno dell’organizzazione, fin dai tempi del lancio di ChatGPT, e che sarebbe esploso negli ultimi giorni.

Sì perché il mondo dell’intelligenza artificiale nasce, alla radice, con una importante divisione al suo interno. Da un lato ci sono gli apocalittici, vicini a correnti di pensiero come l’Altruismo Efficace e il Lungotermismo, che ritengono che l’arrivo dell’intelligenza artificiale generale possa portare all’estinzione del genere umano. L’IA, dicono, diventerebbe talmente potente da trattare uomini e donne come noi trattiamo gli animali: certo, li rispettiamo, ma non esitiamo a disporne per i nostri scopi.

Dall’altro, invece, ci sono i tecno-ottimisti: insomma, quelli che più di ogni altra cosa credono nel profitto e nella possibilità di sviluppare prodotti che possano portare benefici agli esseri umani.

"Non possiamo fidarci delle aziende per autoregolamentare l’intelligenza artificiale"

Saga appassionante, senz’altro. Anche divertente, nella miglior tradizione dei drammi business americani, stile Billions o Succession. Il punto è che, in questo caso, non c’è molto di cui esser contenti.

Per quello che sappiamo oggi, l’intelligenza artificiale generale che distrugge l’umanità non è un rischio concreto, immediato. Conosciamo invece altri rischi, molto vicini: dalle fake news alla possibilità di creare deepfake e rovinare la vita a donne e ragazze molto giovani.

E in un momento in cui i governi faticano a regolare l’intelligenza artificiale, lasciare che decisioni fondamentali per il presente e per il futuro dell’umanità vengano prese in una manciata di uffici della Silicon Valley può essere molto rischioso. Gary Marcus, scienziato e tra i maggiori esperti di IA, ha scritto su X una breve lettera ai leader europei. L’AI Act, infatti, è in stallo: la sua ratifica è a rischio proprio a causa di disaccordi su come regolare i cosiddetti foundation model, ovvero i modelli come GPT- 4, alla base di prodotti come ChatGPT.

Scrive Marcus: “I recenti eventi di OpenAI porteranno probabilmente a un’instabilità considerevole e imprevedibile. Non possiamo davvero fidarci delle aziende per autoregolamentare l’intelligenza artificiale: anche la loro stessa governance interna può essere profondamente conflittuale. Per favore, non distruggete la legge europea sull'intelligenza artificiale; ne abbiamo bisogno ora più che mai”.

Perché quello che è successo tra Sam Altman e OpenAI riguarda tutti

Today è in caricamento