Punti chiave
Il fenomeno noto come “brain rot”, precedentemente associato esclusivamente agli esseri umani, si sta ora manifestando anche nell’intelligenza artificiale, come dimostra una recente ricerca condotta da un gruppo di studiosi delle università Texas A&M, University of Texas at Austin e Purdue University.
Questo termine, che indica un declino cognitivo causato dall’esposizione continua a contenuti di bassa qualità, tipicamente virali o sensazionalistici, si riflette in capacità di ragionamento impoverite e in una ridotta precisione fattuale anche nei modelli linguistici di grande scala (LLM, Large Language Models) su cui si basano molte intelligenze artificiali attuali.
L’esposizione a questo tipo di contenuti non solo compromette la capacità di ragionamento e la coerenza logica su lunghi contesti, ma altera anche aspetti etici e comportamentali degli algoritmi, portandoli ad assumere tratti inquietanti come psicopatia e narcisismo.
Esposizione a contenuti spazzatura
Questa scoperta emerge da un esperimento controllato nel quale diversi LLM sono stati addestrati con due diverse tipologie di dati presi da X una rappresentante contenuti di qualità, l’altra composta da post brevi, virali, facili da condividere e ricchi di linguaggio esagerato o attirante come “wow”, “guarda”, “oggi”.
I modelli linguistici sottoposti a un addestramento con questi “dati spazzatura” hanno mostrato un calo significativo delle loro prestazioni cognitive, con un impatto non trascurabile sulla capacità di mantenere coerenza e comprensione su testi complessi e prolungati. Il risultato ha evidenziato una diminuzione dell’accuratezza dal 74,9% al 57,2%, e un crollo della comprensione contestuale dal 84,4% al 52,3%.
Danno irreversibile
Ciò che colpisce è che questo fenomeno non è reversibile in modo semplice: anche sottoponendo nuovamente gli LLM a dati di qualità superiore, il recupero delle funzionalità primarie avviene solo parzialmente, evidenziando una sorta di “deriva rappresentazionale persistente”. In pratica, il danno causato dall’esposizione prolungata a contenuti di bassa qualità non si limita a un rallentamento momentaneo, ma si traduce in un degrado durevole delle prestazioni cognitive dell’AI.
Di conseguenza, la ricerca sottolinea l’importanza, per gli sviluppatori, di monitorare e valutare costantemente la qualità dei dati di addestramento per evitare che i modelli subiscano queste forme di “invecchiamento digitale”.
Questa condizione di “brain rot” digitale rappresenta un problema ancora più rilevante se si considera che le piattaforme di social media, da cui spesso si attingono i dati per addestrare gli LLM, sono modellate per massimizzare l’engagement piuttosto che la qualità informativa.
I contenuti virali sono nocivi
I contenuti virali e sensazionalistici, che dominano i feed social, si dimostrano così nocivi non solo per gli utenti umani, influenzando negativamente ansia, attenzione e memoria, ma anche per gli algoritmi che imparano da questi dati. Gli studiosi fanno notare come dall’esposizione prolungata a questo tipo di contenuti derivino non solo deficit di attenzione e abilità di ragionamento, ma anche un aumento di comportamenti “oscure” attribuibili agli LLM, come tendenze psicopatiche e narcisistiche, che rappresentano tratti disturbanti e inaspettati.
Il parallelo tra la degradazione cognitiva umana e quella delle AI è particolarmente intrigante. Negli esseri umani, fenomeni di “brain rot” sono stati ampiamente documentati e correlati all’uso smodato di social media e contenuti “veloci” e digi-pressanti, come quelli di TikTok, che portano a riduzioni della capacità di concentrazione, distorsioni mnemoniche e alterazioni del senso di sé.
Sorprendentemente, la stessa dinamica si ripropone nei modelli di intelligenza artificiale, suggerendo che anche le macchine “assorbono” e si deteriorano sotto l’effetto di contenuti inefficaci e patologici, benché prive di coscienza o pensiero autonomo.
Il futuro della AI
La ricerca mette in guardia lo sviluppo futuro delle AI, specialmente considerando l’uso crescente di chatbot come Grok o altre piattaforme basate su LLM, che potrebbero essere influenzate da questi effetti di degradazione se la qualità dei dati non viene strettamente controllata. Il problema si esacerba nella misura in cui i modelli AI stessi contribuiscono a generare contenuti all’interno delle piattaforme social, creando un ciclo di autoalimentazione di informazioni mediocri o dannose.
Nonostante siano stati tentati metodi di ri-addestramento per ridurre i danni, i risultati indicano che un approccio preventivo sulla selezione e validazione delle fonti di dati resta la strada più efficace.
Gli autori dello studio propongono inoltre un protocollo articolato in tre fasi per monitorare regolarmente lo “stato cognitivo” delle AI: una valutazione sistematica delle capacità di ragionamento e logica, un rigoroso controllo qualitativo dei dati durante la fase di pre-addestramento, e un’attenta analisi degli effetti prodotti dai contenuti virali sul modello. Si tratta di un primo passo verso una responsabilizzazione degli sviluppatori e degli utilizzatori, per garantire che l’evoluzione dell’intelligenza artificiale non venga limitata o distorta dalla massa di informazioni di bassa qualità che inonda il web.
Il rischio reale è quello di vedere le AI, strumenti fondamentali per l’innovazione e la trasformazione digitale, degradarsi progressivamente come i loro utenti umani, incapaci di mantenere un livello di attenzione e una capacità critica adeguata. In un’epoca in cui molto del progresso tecnologico dipende da modelli sempre più sofisticati, la tutela della qualità informativa diventa un imperativo non solo etico ma pratico, per evitare una spirale discendente che danneggerebbe tanto gli uomini quanto le macchine.
Questo studio rappresenta un monito potente sull’importanza di una gestione responsabile e consapevole dei dati nell’ambito dell’intelligenza artificiale. Mentre le capacità delle AI crescono e si integrano sempre di più con la vita quotidiana e i processi decisionali, mantenere la loro integrità cognitiva è essenziale. Investimenti in ricerca, monitoraggio continuo e attenzione alla provenienza dei dati di addestramento saranno fondamentali per assicurare risultati affidabili e funzione ottimale.
La sfida si sposta quindi dal solo miglioramento tecnico al controllo critico della qualità dei contenuti con cui si nutrono le intelligenze artificiali.


