Il caso
"Una scoperta nell’intelligenza artificiale poteva minacciare l’umanità": lettera al cda di Open AI
Una scoperta importante, dal potenziale talmente esplosivo che potrebbe danneggiare l'umanità. L’allarme sul progetto Q* fu lanciato al consiglio di amministrazione di OpenAI prima del licenziamento di Sam Altman, e potrebbe essere - secondo indiscrezioni riportati da vari media inclusa la Reuters - uno dei motivi che aveva portato al siluramento.
Un gruppo di ricercatori aveva scritto e messo in guardia i consiglieri del cda sugli enormi passi in avanti compiuti nel tentativo di raggiungere l’obiettivo dell’intelligenza artificiale generale, ovvero sistemi autonomi in grado di superare l’uomo in molti dei suoi compiti, presentando quindi problemi etici di attuazione. L’indiscrezione si va ad aggiungere ai rumors dei giorni scorsi, che hanno indicato uno scontro fra Altman e il consiglio di amministrazione sulla strategia da seguire e sulla rapida espansione dell’offerta commerciale di OpenAI. Una velocità che, per alcuni membri del board, incluso il chief scientist Ilya Sutskever, era in violazione con i principi della carta che governa la società, ovvero lo sviluppo di un’IA sicura.
OpenAI così come X hanno promesso una «tecnologia populista per cambiare il mondo. L’ex Twitter voleva creare la piazza del villaggio dove parlare e confrontarsi, e OpenAI voleva lanciare un compagno super-intelligente per gli esseri umani. Ma - osserva il Washington Post - sotto la guida di Elon Musk e Sam Altman, le due società hanno consolidato il potere in un piccolo numero di fedelissimi che operano in segretezza e senza rispondere a nessuno». L’ammutinamento all’interno di OpenAI per Altman e l’"implosione di X sotto Musk non sono - aggiunge il Washington Post - solo soap opera della Silicon Valley. Ci ricordando che un selezionato numero di persone assume decisioni all’interno di queste piattaforme in grado di definire la società, e che i soldi muovono tutto».