L’intelligenza artificiale ci sta rendendo meno intelligenti? 

Molti di noi si rivolgono a ChatGPT per scrivere un'email, riassumere un report o anche solo per fare brainstorming. Ma così facendo, non stiamo esternalizzando solo i nostri compiti, ma anche il nostro pensiero? Affidarsi all'IA ci rende forse meno intelligenti? 

I modelli linguistici di grandi dimensioni (LLM) ci rendono stupidi?

Due studi recenti hanno analizzato gli effetti dei modelli linguistici di grandi dimensioni (LLM) sul nostro comportamento cognitivo, e i risultati sono affascinanti. Non solo tendiamo a scegliere un linguaggio generato dall'intelligenza artificiale, ma sembriamo anche impegnare meno il nostro cervello, diventando cognitivamente più pigri.

Nell'articolo scientifico "Your Brain on ChatGPT" del MIT Media Lab, sono stati studiati gli effetti cognitivi, neurali e comportamentali dell'uso di ChatGPT nella scrittura di saggi didattici. I partecipanti sono stati divisi in tre gruppi: un gruppo ha utilizzato solo ChatGPT, un altro gruppo ha utilizzato il motore di ricerca Google e il terzo gruppo non ha utilizzato alcuno strumento. Quest'ultimo gruppo, basato solo sul cervello, ha mostrato il più alto coinvolgimento cognitivo, la più alta capacità di memorizzazione e la maggiore originalità tra i tre. Spicca un forte coinvolgimento neurocognitivo. Il gruppo "LLM", che si basava fortemente sull'intelligenza artificiale, ha mostrato la più bassa attività cerebrale e una scarsa capacità di richiamo mnemonico. I loro saggi erano ben rifiniti, ma generici e privi di creatività. Il gruppo che utilizzava Google si è posizionato a metà tra gli altri due.

Quando i partecipanti si sono scambiati i ruoli, coloro che avevano precedentemente scritto senza l’IA, usando solo la propria testa hanno mostrato un aumento significativo della connettività cerebrale quando hanno iniziato a utilizzare un LLM, suggerendo che l'uso strategico dell'IA in una fase avanzata può migliorare il coinvolgimento e le prestazioni cognitive. Al contrario, i partecipanti che si erano affidati agli LLM nelle sessioni precedenti hanno mostrato una ridotta attività neurale e prestazioni peggiori quando è stato chiesto loro di scrivere senza IA, indicando che la dipendenza precoce dall'intelligenza artificiale può ostacolare lo sviluppo di competenze cognitive essenziali.

In un altro studio recentemente condotto dal Max-Planck-Institut für Umwelt (Istituto Max-Planck per lo Sviluppo Umano), gli autori hanno scoperto che gli esseri umani imitano sempre più lo stile linguistico dell’intelligenza artificiale nella comunicazione orale. Ciò probabilmente porta a una riduzione della diversità linguistica. Dopo aver esaminato 280.000 video in lingua inglese provenienti da oltre 20.000 canali YouTube accademici, lo studio ha rilevato un aumento significativo nell'uso di parole comunemente presenti nei testi modificati con ChatGPT, come "delve", "realm" o "meticulous". Gli autori suggeriscono che questa tendenza rifletta un circolo che si autoalimenta, in cui gli esseri umani non solo plasmano i modelli di machine learning, ma ne sono anche plasmati a propria volta, attraverso l'esposizione a contenuti generati dalle macchine.

Dovremmo quindi smettere di affidarci all'IA per migliorare il nostro lavoro? Come spesso accade, la verità sta probabilmente nel mezzo. Se permettiamo alla GenAI di pensare per noi, non sorprende che la nostra capacità di pensare in modo indipendente diminuisca e che rischiamo di diventare più simili a copie degli LLM piuttosto che il contrario. Pertanto, invece di diventare più simili agli LLM, dovremmo concentrarci sull'usarli per amplificare, non sostituire, i nostri punti di forza umani: curiosità, pensiero critico e creatività. In caso contrario rischiamo di trovarci nello scenario descritto dalla citazione virale di Joanna Maciejewska: "Voglio che l'IA faccia il bucato e i piatti così che io possa dedicarmi all'arte e alla scrittura, non che l'IA faccia la mia arte e la mia scrittura così che io possa fare il bucato e i piatti".

L'illusione del pensiero: anche i modelli di intelligenza artificiale sono stupidi?

Non sono solo gli esseri umani a diventare meno intelligenti. I modelli di intelligenza artificiale potrebbero essere meno intelligenti di quanto appaiano?

Gli LLM si sono evoluti in Large Reasoning Models (LRM), modelli capaci di operazioni logiche, risoluzioni di problemi in più fasi, processi decisionali strutturati e autoriflessione. Uno studio di Apple intitolato "The Illusion of Thinking" mette in discussione le capacità di ragionamento di questi modelli, suggerendo che gli attuali LRM simulano il ragionamento anziché comprenderlo o generalizzarlo realmente, creando così "l'illusione del pensiero". Sebbene gli LRM eccellano in situazioni di moderata complessità grazie alle loro estese capacità di ragionamento, spesso rimuginano eccessivamente sui problemi semplici, faticano ad autocorreggersi in quelli più complessi e, in definitiva, falliscono nel risolvere i compiti più complessi. In breve, gli LRM odierni possono sembrare intelligenti, ma sembrano ancora in gran parte basati su supposizioni, non su ragionamenti.

In definitiva, ci domandiamo se i modelli di IA sono capaci solo quanto i programmatori umani che li hanno sviluppati. E se ​​i nostri timori di una super IA che potrebbe annientarci sono infondati? La risposta di CoPilot? "Sì, almeno per ora. Gli attuali modelli di IA sono potenti, ma non autonomi. Sono strumenti, non agenti. L'idea di un'IA superintelligente che potrebbe annientarci è, al momento, fantascienza. Le vere sfide risiedono nello sviluppo, nella regolamentazione e nell'applicazione responsabile dell'IA da parte di noi umani."

Insomma, pare per ora non dovremmo preoccuparci troppo dell’IA generativa… o forse sì?

Disclaimer di Contenuto
Questa pubblicazione è stata preparata da ING esclusivamente a scopo informativo, indipendentemente dai mezzi, dalla situazione finanziaria o dagli obiettivi di investimento di un particolare utente. Le informazioni non costituiscono una raccomandazione di investimento e non sono consigli di investimento, legali o fiscali né un'offerta o una sollecitazione all'acquisto o alla vendita di alcun strumento finanziario. Leggi di più