Quanti anni mancano alla realizzazione di una AGI - Intelligenza Artificiale Generale - che esprima in linguaggio umano soluzioni di problemi logici, matematici, gestionali, umani che siano più avanzate, efficaci e intelligenti di quelle ottenibili da esperti umani di grande classe?
Alcuni esperti rispondono: “entro il 2100”. Altri: “entro pochi decenni”. Altri: “la previsione non è ancora fattibile” o “mai”.
Il numero degli ottimisti è cresciuto dopo che, pochi anni fa, sono apparse versioni sempre migliori di LLM (Large Language Models = grandi modelli linguistici) dotati di immani memorie elettroniche che, incidentalmente, necessitano di forniture molto elevate di energia elettrica.
Gli LLM risolvono molti problemi, ma - appena accediamo a essi - ci cautelano a non fidarsi ciecamente di loro. Ci esortano anche a controllare che le loro risposte non siano affette da “allucinazoni”, cioè da errori, cattive interpretazioni, grafici assurdi.
Malgrado questo è noto e molto ampiamente diffuso il ricorso da parte di impiegati, pubblicisti, studenti, etc. a grandi modelli di linguaggi che note aziende rendono disponibili gratuitamente in Rete.
Sam Altman, il fondatore presidente di OPENAI, sostiene che CHAT-GPT5, il suo ultimo modello di LLM, sia in dirittura d’arrivo verso una AGI efficacissima, anche se continua a riportare i messaggi prudenziali citati sopra e sebbene il Prof. Gary Marcus [già di New York University] sostenga che i grandi modelli linguistici, incluso GPT5; “non siano niente di più che elaborate “rigurgitazioni” statistiche mancanti di adeguata razionalità e, quindi, spesso incapaci a individuare verità e realtà”.
Molti esperti suggeriscono di astenersi dal classificare come “intelligenza artificiale” troppe procedure informatiche pure occasionalmente utili, e dal descriverne i pregi quasi implicandone l’infallibilità.
Intanto altri lavorano attualmente a migliorare le prestazioni delle AGI a cui lavorano, ricorrendo a ulteriori grossi incrementi delle loro dimensioni di memoria, della loro velocità di funzionamento e del software dei loro programmi. Questi interventi, però, non sono il risultato della applicazione di leggi fisiche, ma ragionevoli ipotesi ispirate dall’analisi di trend storici in corso.
È probabile che progressi più notevoli si otterranno utilizzando algoritmi non basati sulla ricerca sperimentale di statistiche, ma su processi razionali astratti e su procedure decisionali laboriose. Queste, secondo Daniel Kahneman (autore di “Pensieri lenti e veloci”), sono quelle usate dagli esseri umani quando ricorrono al pensiero “lento” che processa l’informazione ispirandosi a quanto si ottiene utilizzando la logica, la matematica, la teoria delle decisioni e le procedure di costruzione dei programmi di computer.
Sarà anche necessario riformulare politiche governative e di investimento.
Finora mancano ancora conferme che si realizzino le attese molto positive, preannunciate, ad esempio, per le innovazioni ottenibili con Grok 4 - il sistema AI di Elon Musk - e con Llama 4 - il modello di Meta.
I LLM sono utili come supporto alla redazione di testi e di software e alla stimolazione di idee creative. Essi, però, utilizzano processi simili al pensiero lento secondo Kahneman e non dispongono di modelli del mondo che incorporino concetti base (tempo, spazio, causalità) e che si possano considerare fedeli e significativi.
Sono proprio questi che andranno creati e quindi sfruttati per evitare elaborazioni erronee che conducano a conclusioni insoddisfacenti o assurde.

Nessun commento:
Posta un commento
Ogni commento costruttivo è gradito, ovviamente tutto quello che, a nostro insindacabile giudizio, verrà ritenuto non in linea col dovuto rispetto per gli altri, sarà eliminato.