11 Dicembre 2025
HomeAttualitàLe AI ingoiano contenuti spazzatura e si rovinano

Le AI ingoiano contenuti spazzatura e si rovinano

Il fenomeno noto come “brain rot”, precedentemente associato esclusivamente agli esseri umani, si sta ora manifestando anche nell’intelligenza artificiale, come dimostra una recente ricerca condotta da un gruppo di studiosi delle università Texas A&M, University of Texas at Austin e Purdue University.

Questo termine, che indica un declino cognitivo causato dall’esposizione continua a contenuti di bassa qualità, tipicamente virali o sensazionalistici, si riflette in capacità di ragionamento impoverite e in una ridotta precisione fattuale anche nei modelli linguistici di grande scala (LLM, Large Language Models) su cui si basano molte intelligenze artificiali attuali.

L’esposizione a questo tipo di contenuti non solo compromette la capacità di ragionamento e la coerenza logica su lunghi contesti, ma altera anche aspetti etici e comportamentali degli algoritmi, portandoli ad assumere tratti inquietanti come psicopatia e narcisismo.

Esposizione a contenuti spazzatura

Questa scoperta emerge da un esperimento controllato nel quale diversi LLM sono stati addestrati con due diverse tipologie di dati presi da X una rappresentante contenuti di qualità, l’altra composta da post brevi, virali, facili da condividere e ricchi di linguaggio esagerato o attirante come “wow”, “guarda”, “oggi”.

I modelli linguistici sottoposti a un addestramento con questi “dati spazzatura” hanno mostrato un calo significativo delle loro prestazioni cognitive, con un impatto non trascurabile sulla capacità di mantenere coerenza e comprensione su testi complessi e prolungati. Il risultato ha evidenziato una diminuzione dell’accuratezza dal 74,9% al 57,2%, e un crollo della comprensione contestuale dal 84,4% al 52,3%.

Danno irreversibile

Ciò che colpisce è che questo fenomeno non è reversibile in modo semplice: anche sottoponendo nuovamente gli LLM a dati di qualità superiore, il recupero delle funzionalità primarie avviene solo parzialmente, evidenziando una sorta di “deriva rappresentazionale persistente”. In pratica, il danno causato dall’esposizione prolungata a contenuti di bassa qualità non si limita a un rallentamento momentaneo, ma si traduce in un degrado durevole delle prestazioni cognitive dell’AI.

Di conseguenza, la ricerca sottolinea l’importanza, per gli sviluppatori, di monitorare e valutare costantemente la qualità dei dati di addestramento per evitare che i modelli subiscano queste forme di “invecchiamento digitale”.

Questa condizione di “brain rot” digitale rappresenta un problema ancora più rilevante se si considera che le piattaforme di social media, da cui spesso si attingono i dati per addestrare gli LLM, sono modellate per massimizzare l’engagement piuttosto che la qualità informativa.

I contenuti virali sono nocivi

I contenuti virali e sensazionalistici, che dominano i feed social, si dimostrano così nocivi non solo per gli utenti umani, influenzando negativamente ansia, attenzione e memoria, ma anche per gli algoritmi che imparano da questi dati. Gli studiosi fanno notare come dall’esposizione prolungata a questo tipo di contenuti derivino non solo deficit di attenzione e abilità di ragionamento, ma anche un aumento di comportamenti “oscure” attribuibili agli LLM, come tendenze psicopatiche e narcisistiche, che rappresentano tratti disturbanti e inaspettati.

Il parallelo tra la degradazione cognitiva umana e quella delle AI è particolarmente intrigante. Negli esseri umani, fenomeni di “brain rot” sono stati ampiamente documentati e correlati all’uso smodato di social media e contenuti “veloci” e digi-pressanti, come quelli di TikTok, che portano a riduzioni della capacità di concentrazione, distorsioni mnemoniche e alterazioni del senso di sé.

Sorprendentemente, la stessa dinamica si ripropone nei modelli di intelligenza artificiale, suggerendo che anche le macchine “assorbono” e si deteriorano sotto l’effetto di contenuti inefficaci e patologici, benché prive di coscienza o pensiero autonomo.

Il futuro della AI

La ricerca mette in guardia lo sviluppo futuro delle AI, specialmente considerando l’uso crescente di chatbot come Grok o altre piattaforme basate su LLM, che potrebbero essere influenzate da questi effetti di degradazione se la qualità dei dati non viene strettamente controllata. Il problema si esacerba nella misura in cui i modelli AI stessi contribuiscono a generare contenuti all’interno delle piattaforme social, creando un ciclo di autoalimentazione di informazioni mediocri o dannose.

Nonostante siano stati tentati metodi di ri-addestramento per ridurre i danni, i risultati indicano che un approccio preventivo sulla selezione e validazione delle fonti di dati resta la strada più efficace.

Gli autori dello studio propongono inoltre un protocollo articolato in tre fasi per monitorare regolarmente lo “stato cognitivo” delle AI: una valutazione sistematica delle capacità di ragionamento e logica, un rigoroso controllo qualitativo dei dati durante la fase di pre-addestramento, e un’attenta analisi degli effetti prodotti dai contenuti virali sul modello. Si tratta di un primo passo verso una responsabilizzazione degli sviluppatori e degli utilizzatori, per garantire che l’evoluzione dell’intelligenza artificiale non venga limitata o distorta dalla massa di informazioni di bassa qualità che inonda il web.

Il rischio reale è quello di vedere le AI, strumenti fondamentali per l’innovazione e la trasformazione digitale, degradarsi progressivamente come i loro utenti umani, incapaci di mantenere un livello di attenzione e una capacità critica adeguata. In un’epoca in cui molto del progresso tecnologico dipende da modelli sempre più sofisticati, la tutela della qualità informativa diventa un imperativo non solo etico ma pratico, per evitare una spirale discendente che danneggerebbe tanto gli uomini quanto le macchine.

Questo studio rappresenta un monito potente sull’importanza di una gestione responsabile e consapevole dei dati nell’ambito dell’intelligenza artificiale. Mentre le capacità delle AI crescono e si integrano sempre di più con la vita quotidiana e i processi decisionali, mantenere la loro integrità cognitiva è essenziale. Investimenti in ricerca, monitoraggio continuo e attenzione alla provenienza dei dati di addestramento saranno fondamentali per assicurare risultati affidabili e funzione ottimale.

La sfida si sposta quindi dal solo miglioramento tecnico al controllo critico della qualità dei contenuti con cui si nutrono le intelligenze artificiali.

Alex Trizio
Alex Triziohttps://www.alground.com
Alessandro Trizio è un professionista con una solida expertise multidisciplinare, che abbraccia tecnologia avanzata, analisi politica e strategia geopolitica. Ora è Amministratore e Direttore Strategico del Gruppo Trizio, dirigendo il dipartimento di sicurezza informatica. La sua competenza si estende all'applicazione di soluzioni innovative per la sicurezza cibernetica e la risoluzione di criticità complesse.
Altri articoli

TI POSSONO INTERESSARE

Lazio Sostenibile: luci e ombre dell’Ecoforum 2025

Le eccellenze dei "Comuni Rifiuti Liberi" sfidano la crisi della Capitale nella decima edizione del dossier di Legambiente. Sant'Ambrogio sul Garigliano guida la rivoluzione...

Le armi del futuro: intelligenza artificiale, tecnologie emergenti e la competizione strategica tra Stati Uniti e Cina

Non si tratta di carri armati o portaerei, ma di algoritmi, chip semiconduttori e sistemi quantistici. Mentre il mondo osserva le tensioni geopolitiche tradizionali,...

ESTA, Cinque anni di social per entrare negli USA

Gli Stati Uniti vogliono conoscere cinque anni di vita online dei viaggiatori. La nuova regola su ESTA apre una fase completamente diversa nel controllo...

Russia e Cina nei cieli dell’Asia orientale: Corea del Sud e Giappone in allarme

Tensione nel Pacifico a seguito di un volo congiunto tra Mosca e Pechino. Tokyo e Seul si allertano e la preoccupazione per eventuali escalation...

La tregua, mediata da Trump, è crollata: Thailandia e Cambogia tornano a combattere

Un conflitto radicato nella storia del confine, una tregua fragile patrocinata dagli Stati Uniti e una violenza riesplosa prima che potesse essere verificata. Il ritorno...

Russia abbatte 77 droni ucraini: colpite Saratov, Rostov e Crimea

La Russia ha respinto nella notte tra il 6 e il 7 dicembre 2025 quella che le autorità di Mosca ha definito una delle...

La Germania ridisegna la leva militare: non si tratta di un ritorno al passato (per ora)

Un modello ibrido che non ripristina la coscrizione, ma costruisce un sistema di mobilitazione permanente. Berlino inaugura una nuova fase strategica, ridistribuisce il peso...

Nuova Delhi, il vertice di Modi e Putin sfida l’Occidente

Energia scontata, armi strategiche, valute alternative: il ventitreesimo vertice India Russia mostra i limiti dell’isolamento di Mosca e la nuova autonomia di Nuova Delhi. Il...

Hors de combat: il principio che l’America dovrà affrontare mentre attacca ancora

Il video integrale del 2 settembre, mostrato ai comitati del Congresso, riapre la frattura morale, già al centro della cronaca, sul programma di uccisioni...