GPT-5 in Arrivo ? OpenAI Raddoppia gli Sforzi

il

OpenAI ha recentemente annunciato la formazione di un nuovo “Comitato per la Sicurezza e la Sicurezza” per supervisionare la gestione dei rischi dei suoi progetti e operazioni.

Questo annuncio arriva mentre l’azienda afferma di aver “recentemente iniziato” l’addestramento del suo prossimo modello di frontiera, che si prevede porterà la compagnia più vicino al suo obiettivo di raggiungere l’intelligenza artificiale generale (AGI).

Tuttavia, alcuni critici sostengono che l’AGI sia ancora lontana dall’essere realizzata. Questo annuncio segue due settimane difficili per l’azienda dal punto di vista mediatico.

Difesa di OpenAI dopo Diversi Inciampi PR

Non è ancora chiaro se il nuovo modello di frontiera sarà GPT-5 o un passo ulteriore.

Nel settore dell’IA, il termine “modello di frontiera” si riferisce a un nuovo sistema di intelligenza artificiale progettato per spingere i confini delle capacità attuali. L'”AGI” si riferisce a un ipotetico sistema di IA con abilità a livello umano per svolgere compiti nuovi e generali oltre i dati di addestramento, a differenza dell’IA ristretta, che è addestrata per compiti specifici.

Nel frattempo, il nuovo Comitato per la Sicurezza e la Sicurezza, guidato dai direttori di OpenAI Bret Taylor (presidente), Adam D’Angelo, Nicole Seligman e Sam Altman (CEO), sarà responsabile di fornire raccomandazioni sulla sicurezza dell’IA al consiglio di amministrazione dell’azienda. In questo contesto, “sicurezza” significa in parte “non permetteremo all’IA di prendere il controllo del mondo,” ma include anche un insieme più ampio di “processi e salvaguardie” che l’azienda ha delineato in un aggiornamento sulla sicurezza del 21 maggio.

Questo aggiornamento riguarda la ricerca sull’allineamento, la protezione dei bambini, il mantenimento dell’integrità elettorale, la valutazione degli impatti sociali e l’implementazione di misure di sicurezza.

Il Ruolo del Comitato

Il primo compito del comitato sarà valutare e sviluppare ulteriormente questi processi e salvaguardie nei prossimi 90 giorni. Al termine di questo periodo, il comitato condividerà le sue raccomandazioni con il consiglio di amministrazione, e OpenAI pubblicherà un aggiornamento sulle raccomandazioni adottate.

Diverse figure tecniche e politiche, tra cui Aleksander Madry (responsabile della preparazione), Lilian Weng (responsabile dei sistemi di sicurezza), John Schulman (responsabile della scienza dell’allineamento), Matt Knight (responsabile della sicurezza) e Jakub Pachocki (scienziato capo), faranno parte del nuovo comitato.

Un Annuncio Significativo

Questo annuncio è significativo per diversi motivi. In primo luogo, è una reazione alla cattiva stampa derivante dalle dimissioni dei membri del team di Superallineamento di OpenAI, Ilya Sutskever e Jan Leike, avvenute due settimane fa. Quel team era incaricato di “guidare e controllare i sistemi di IA molto più intelligenti di noi,” e la loro partenza ha portato a critiche da parte di alcuni all’interno della comunità dell’IA (e dello stesso Leike) che OpenAI manca di un impegno per sviluppare IA altamente capaci in modo sicuro. Altri critici, come il capo scienziato dell’IA di Meta Yann LeCun, ritengono che l’azienda sia lontana dallo sviluppare AGI, quindi la preoccupazione per la mancanza di sicurezza per l’IA superintelligente potrebbe essere esagerata.

In secondo luogo, ci sono stati persistenti rumors che il progresso nei modelli di linguaggio di grandi dimensioni (LLM) abbia recentemente raggiunto un plateau con capacità simili a GPT-4. Due modelli concorrenti principali, Claude Opus di Anthropic e Gemini 1.5 Pro di Google, sono grosso modo equivalenti alla famiglia GPT-4 in termini di capacità, nonostante ogni incentivo competitivo a superarlo. Recentemente, quando molti si aspettavano che OpenAI rilasciasse un nuovo modello di IA che superasse chiaramente GPT-4 Turbo, ha invece rilasciato GPT-4o, che è grosso modo equivalente in abilità ma più veloce. Durante quel lancio, l’azienda ha puntato su una nuova interfaccia conversazionale piuttosto che su un importante aggiornamento sotto il cofano.

Il Futuro di GPT-5

In precedenza, avevamo riportato un rumor secondo cui GPT-5 potrebbe arrivare quest’estate, ma con questo recente annuncio, sembra che i rumors potessero riferirsi a GPT-4o.

È molto probabile che OpenAI non sia ancora vicina al rilascio di un modello che possa superare significativamente GPT-4.

Ma con l’azienda che rimane silenziosa sui dettagli, dovremo aspettare e vedere.

Lascia un commento