Technology

L'intelligenza artificiale è davvero lontana da quella umana? OpenAI lancia la sfida, ma poi ritira la mano


Sono ore convulse per il settore dell'intelligenza artificiale e, di riflesso, per il mondo in generale (non ce ne voglia Trump): dopo aver ventilato l'idea di aver raggiunto l'AGI, Sam Altman di OpenAI invito tutti”alla calma“.

E che calma: nonostante abbia fatto”cose molto interessanti“, tutti noi dobbiamo abbassare le nostre aspettative di “almeno 100 volte“, secondo il geniale manager. Ma allora qual è il risultato ottenuto da OpenAI?

Il Santo Graal dell'IA: l'AGI

Il motivo di tutta questa agitazione ed entusiasmo è semplice: ogni volta che si parla di AGI (Intelligenza artificiale generale, o forte, da intelligenza artificiale generale) Sono un fan della tecnologia sì entusiasmano, i pessimisti fanno il segno della croce e, soprattutto, gli investitori staccano assegni.

Cos'è l'AGI

L'AGI è, semplificando, l'obiettivo di aziende come OpenAI, la realizzazione di un sogno nato con la matematica Ada Lovelace (Figlia di Byron). Ovvero la capacità di un'IA di”essere senziente” e “avere una coscienza”.

Usiamo tutte le virgolette del caso, perché non è semplice neanche stabilire il significato di queste parole.

Da definizione, l'AGI è un tipo di intelligenza artificiale almeno alla pari delle capacità cognitive umane (o superiore), almeno da quanto stabilito attraverso una serie di test cognitivi. Questo contrasto con l'IA ristretta (IA stretta o IA debole), che è limitata a compiti specifici ed è quella che usiamo per creare un'immagine, riassumere un testo o scriverci un'email (Gemelli, ChatGPT e gli altri, per intenderci).

A cosa serve l'AGI

L'AGI è un pericolo, certo, e non solo per gli scenari da Fantascienza, ma anche per una domanda semplicemente economico: le aziende ei privati ​​che la gestiscono diventeranno ancora più potenti e ricchi.

I vantaggi di una tecnologia di questo tipo accessibile a tutti sarebbero però notevoli. L'AGI consentirà a chiunque di apprendere qualsiasi contenuto: sarebbe un tutor sempre a disposizione, il che potrebbe contribuire a ridurre le diseguaglianze sociali causata dall'accesso all'istruzione.

E che dire della sanità? Un'IA di questo tipo sarebbe una medico virtuale sempre a disposizione, in grado di complementare (non sostituire) il medico di base o lo specialista. E pensate inoltre alle app: con un assistente AGI sparirebbero. Chiunque potrebbe programmare qualsiasi cosa, basterebbe chiedere.

I modelli o3 hanno ottenuto un buon punteggio, ma l'essere umano è lontano

La realtà attuale però è ben diversa: OpenAI ha dichiarato che i suoi modelli o3 hanno superato il punto di riferimento ARC-AGIil che rappresenta un passo importante verso la tecnologia. Per un motivo semplice: dimostra che è possibilema non è la prova di AGI, in quanto vuole solo stimolare la ricerca verso i problemi irrisolti dell'IA.

Cos'è il benchmark ARC-AGI-1

Il punto di riferimento ARC-AGI-1 (Abstraction and Reasoning Corpus for Artificial General Intelligence) misura la capacità di un modello di intelligenza artificiale di ragionare e risolvere nuovi problemi che richiedono adattabilità.

Il punto fondamentale è che per superarlo (cosa mai avvenuta dalla sua creazione nel 2019) è necessario usare “caratteristiche umane” Venire logica, ragionamento e deduzione, e non informazioni visualizzate in precedenza.

Non può essere risolto aumentando la potenza brutacome si fa ad aumentare il numero di parametri di un LLM (Large Language Model, modello linguistico di grandi dimensioni come i modelli attualmente in uso).

Per farlo bisogna sviluppare un'architettura diversa, in grado di “uscire” dai parametri di addestramento. Il test è disponibile sul sito Premio Arcche annuncia orgogliosamente come “rimasto imbattuto“.

Ma ci si sta avvicinando, ed è qui che intervengono i modello o3.

I risultati di o3

A fine dicembre 2024 i modelli di OpenAI, hanno raggiunto un risultato eccezionale: il 75,7% con un limite di costo di 10.000 dollari (quindi ad alta efficienza), el'87,5% nella configurazione o3 ad elevata capacità di calcolo (172x, con più risorse computazionali a disposizione).

La differenza è notevole: il modello più efficiente costa 20 dollari per attività, che è già troppo costoso per l'uso quotidiano, mentre il secondo costa migliaia di dollari per attività.

I test sono stati effettuati su set di dati dovutouno semi-privato (100 task) e uno pubblico (400 task), e potete trovarli a questo indirizzo. Come abbiamo detto, però, non è possibile stabilire se o3 sia AGI o meno tramite questi test.

Perché non si può stabilire se o3 sia AGI con il test, e perché o3 non è AGI

I modelli o3 sono già stati sottoposti anche al prossimo benchmark, ARC-AGI-2, che rappresenta una sfida ancora maggiore, ei risultati consigliano a più miti proiezioni.

o3 ha raggiunto il risultato, nella modalità ad alta capacità di calcolo, del 30%contro un punteggio tipico di un umano intelligente superiore al 95%.

o3 però ha ottenuto un punteggio molto migliore rispetto a o1 (con un risultato intorno al 21%), che aveva a sua volta ottenuto un punteggio molto migliore rispetto a GPT-4o (5%) e che a sua volta aveva migliorato GPT-4 (vicino allo 0%).

Una crescita esponenziale nel giro di pochi mesi.

Come funziona o3

Gli sviluppatori di IA stanno intraprendendo strade nuove, lo abbiamo visto con i Titano di Google: non più aumentare le dimensioni ma per assurdo ridurle, un processo chiamato La seconda sera delle leggi di ridimensionamento.

Con o3 il meccanismo principale è la ricerca e l'esecuzione del programma nel linguaggio naturale all'interno dello spazio dei gettonicercando possibili catene di pensiero (CoT) e descrivendo i passaggi necessari per risolvere il compito (una strada che abbiamo già visto con Gemini 2.0 Pensiero Flash).

Cosa significa? Semplificando, che mentre un modello LLM classico si scontra con le novità, o3 le utilizza per generare le catene di pensiero, valutando le soluzioni prima di rispondere.

Il processo si basa sull'inferenza, in quanto il modello applica le sue conoscenze apprese a dati nuovi e non visti per fare previsioni, decisioni o risolvere compiti in tempo reale.

Ma o3 aggiunge anche le capacità di ragionamento dinamico per affrontare problemi complessi e generare risultati attuabili. Qualcosa che potrebbe sfociare nell'”intuizione” (e infatti su ArcPrize si spiega come la ricerca in fase di test guidato dall'intuizione sullo spazio del programma è una strada vincente per consentire di adattarsi a compiti arbitrari).

Infine, o3 è più sicuro, in quanto incorpora una funzione chiamata Allineamento deliberativoche consente di valutare criticamente le risposte rispetto ai protocolli di sicurezzariducendo i rischi di uscita dannosi o di parte.

Hype e invita alla calma: un gioco a cui ormai dovremmo essere abituati

Torniamo all'AGI e agli annunci. Negli ultimi mesi Sam Altmann ci ha abituato a forti dichiarazioni, poi prontamente ridimensionate, e puntualmente è intervenuto per calmare gli animi.

In questo caso, il 5gennaio ha pubblicato un post dichiarando che la singolarità è vicina (la singolarità è il momento in cui l'intelligenza artificiale supera quella degli esseri umani), poi pochi giorni dopo che l'AGI è lontana dobbiamo abbassare le nostre aspettative.

L'entusiasmo di Altman è comprensibile, l'IA è costosissima, e l'idea di raggiungere l'AGI spinge gli investitori a fare quello che sanno fare meglio, investire.

Ma non è questo il punto: stiamo indubbiamente entrando in una nuova era dell'IA, e se lo scetticismo è comprensibile, le proiezioni per la realizzazione dell'AGI guardano a un futuro lontano che si sta avvicinando a ritmi vertiginosi.

Nel 2020 Ajeya Cotra, che lavora per l'organizzazione no-profit Open Philanthropy, ha pubblicato uno studio dettagliato sull'arrivo dell'AGI. Il risultato (scenario medio) è che c'è una probabilità del 50% che un sistema di intelligenza artificiale trasformativo diventi possibile e conveniente entro il 2050.

Nel 2022 Cotra ah aggiornato le sue previsioni e accorciato la sua cronologia mediana di dieci anni.

Infine una parola sulle “novità” annunciate da Altman: ancora non si sa nulla, ma gli esperti ipotizzano l'arrivo di un molto più dimesso agente IA.

Approfondimenti sull'IA

L'IA è un campo estremamente complesso, e sarete scusati se siete arrivati ​​alla fine dell'articolo, sarete più confusi di quando avete iniziato.

Ecco una serie di approfondimenti che vi permetteranno di orientarvi in ​​questo mondo enorme.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *