Stando a quanto riportato da Reuters che cita due fonti anonime “a conoscenza della questione”, nei giorni precedenti il temporaneo licenziamento di Altman, un gruppo di ricercatori aveva mandato una lettera al consiglio di amministrazione per avvertirli di una potenziale svolta nell’intelligenza generale artificiale (Agi).

Nella lettera questo progetto di intelligenza artificiale chiamato Q* (pronunciato Q-Star) veniva descritto nel dettaglio come un sistema autonomo, che mira a superare le capacità umane in compiti economicamente preziosi.

Visto che l’intelligenza artificiale generativa ha già eccelso nei lavori legati al linguaggio, la conquista della capacità di eseguire calcoli matematici complessi suggerisce una capacità di ragionamento più simile a quella umana.

L’intelligenza artificiale generativa è attualmente efficace nella scrittura e nella traduzione linguistica. La novità starebbe nel fatto che i nuovi modelli avrebbero la capacità di risolvere problemi di matematica in cui esiste una sola risposta corretta, e questo indicherebbe che l’intelligenza artificiale è in grado di raggiungere un livello vicino all’intelligenza umana.

Questa competenza dell’algoritmo nel risolvere problemi matematici complessi ha suscitato ottimismo riguardo nuovi successi futuri e sulla possibilità di ridefinire il panorama dello sviluppo dell’intelligenza artificiale. I ricercatori hanno quindi previsto delle applicazioni di Q* nella nuova ricerca scientifica, immaginando un’intelligenza artificiale in grado di generalizzare, apprendere e comprendere in un modo che ricorda l’intelligenza umana, per potersi poi sostituire a essa.

Uno scenario che, portato alle conseguenze estreme e senza la piena comprensione degli sviluppi potenziali, può sfociare in un campo pericoloso in cui le tre famose leggi della robotica codificate da Asimov agli inizi degli anni ’40, e che tutt’ora sono alla base degli studi di robotica, potrebbero essere cancellate.

Lo scopo delle tre leggi era quello di poter rispettare la necessità di sicurezza (Prima Legge), servizio (Seconda Legge) e autoconservazione (Terza Legge) di macchine dotate di intelligenza artificiale, e a questi tre principi si sono continuati ad ispirare i ricercatori.

Le apprensioni del consiglio di amministrazioni di OpenAI relative a Q* non sono state l’unico fattore a portare al licenziamento di Altman. Diverse sarebbero le preoccupazioni, incentrate principalmente sui potenziali rischi associati alla commercializzazione dei progressi dell’intelligenza artificiale senza una comprensione completa delle loro conseguenze. Sempre stando a quanto riporta Reuters, le ansie del cda e il contenuto della lettera hanno avuto un ruolo fondamentale nella decisione improvvisa di separarsi da Altman.

La notizia va presa con le pinze, visti gli spazi grigi di questa storia: Reuters non è stata in grado di vedere una copia della lettera, lo staff che l’ha scritto non ha risposto alle richieste di commento, e dopo essere stata contattata, anche OpenAI ha rifiutato di commentare, pur riconoscendo l’esistenza di un messaggio interno allo staff riguardante un progetto chiamato Q* e di una lettera diretta al consiglio di amministrazione arrivata poco prima degli eventi del fine settimana.

* Fonte/autore: Marina Catucci , il manifesto