26 Febbraio 2026
HomeAttualitàLe AI ingoiano contenuti spazzatura e si rovinano

Le AI ingoiano contenuti spazzatura e si rovinano

Il fenomeno noto come “brain rot”, precedentemente associato esclusivamente agli esseri umani, si sta ora manifestando anche nell’intelligenza artificiale, come dimostra una recente ricerca condotta da un gruppo di studiosi delle università Texas A&M, University of Texas at Austin e Purdue University.

Questo termine, che indica un declino cognitivo causato dall’esposizione continua a contenuti di bassa qualità, tipicamente virali o sensazionalistici, si riflette in capacità di ragionamento impoverite e in una ridotta precisione fattuale anche nei modelli linguistici di grande scala (LLM, Large Language Models) su cui si basano molte intelligenze artificiali attuali.

L’esposizione a questo tipo di contenuti non solo compromette la capacità di ragionamento e la coerenza logica su lunghi contesti, ma altera anche aspetti etici e comportamentali degli algoritmi, portandoli ad assumere tratti inquietanti come psicopatia e narcisismo.

Esposizione a contenuti spazzatura

Questa scoperta emerge da un esperimento controllato nel quale diversi LLM sono stati addestrati con due diverse tipologie di dati presi da X una rappresentante contenuti di qualità, l’altra composta da post brevi, virali, facili da condividere e ricchi di linguaggio esagerato o attirante come “wow”, “guarda”, “oggi”.

I modelli linguistici sottoposti a un addestramento con questi “dati spazzatura” hanno mostrato un calo significativo delle loro prestazioni cognitive, con un impatto non trascurabile sulla capacità di mantenere coerenza e comprensione su testi complessi e prolungati. Il risultato ha evidenziato una diminuzione dell’accuratezza dal 74,9% al 57,2%, e un crollo della comprensione contestuale dal 84,4% al 52,3%.

Danno irreversibile

Ciò che colpisce è che questo fenomeno non è reversibile in modo semplice: anche sottoponendo nuovamente gli LLM a dati di qualità superiore, il recupero delle funzionalità primarie avviene solo parzialmente, evidenziando una sorta di “deriva rappresentazionale persistente”. In pratica, il danno causato dall’esposizione prolungata a contenuti di bassa qualità non si limita a un rallentamento momentaneo, ma si traduce in un degrado durevole delle prestazioni cognitive dell’AI.

Di conseguenza, la ricerca sottolinea l’importanza, per gli sviluppatori, di monitorare e valutare costantemente la qualità dei dati di addestramento per evitare che i modelli subiscano queste forme di “invecchiamento digitale”.

Questa condizione di “brain rot” digitale rappresenta un problema ancora più rilevante se si considera che le piattaforme di social media, da cui spesso si attingono i dati per addestrare gli LLM, sono modellate per massimizzare l’engagement piuttosto che la qualità informativa.

I contenuti virali sono nocivi

I contenuti virali e sensazionalistici, che dominano i feed social, si dimostrano così nocivi non solo per gli utenti umani, influenzando negativamente ansia, attenzione e memoria, ma anche per gli algoritmi che imparano da questi dati. Gli studiosi fanno notare come dall’esposizione prolungata a questo tipo di contenuti derivino non solo deficit di attenzione e abilità di ragionamento, ma anche un aumento di comportamenti “oscure” attribuibili agli LLM, come tendenze psicopatiche e narcisistiche, che rappresentano tratti disturbanti e inaspettati.

Il parallelo tra la degradazione cognitiva umana e quella delle AI è particolarmente intrigante. Negli esseri umani, fenomeni di “brain rot” sono stati ampiamente documentati e correlati all’uso smodato di social media e contenuti “veloci” e digi-pressanti, come quelli di TikTok, che portano a riduzioni della capacità di concentrazione, distorsioni mnemoniche e alterazioni del senso di sé.

Sorprendentemente, la stessa dinamica si ripropone nei modelli di intelligenza artificiale, suggerendo che anche le macchine “assorbono” e si deteriorano sotto l’effetto di contenuti inefficaci e patologici, benché prive di coscienza o pensiero autonomo.

Il futuro della AI

La ricerca mette in guardia lo sviluppo futuro delle AI, specialmente considerando l’uso crescente di chatbot come Grok o altre piattaforme basate su LLM, che potrebbero essere influenzate da questi effetti di degradazione se la qualità dei dati non viene strettamente controllata. Il problema si esacerba nella misura in cui i modelli AI stessi contribuiscono a generare contenuti all’interno delle piattaforme social, creando un ciclo di autoalimentazione di informazioni mediocri o dannose.

Nonostante siano stati tentati metodi di ri-addestramento per ridurre i danni, i risultati indicano che un approccio preventivo sulla selezione e validazione delle fonti di dati resta la strada più efficace.

Gli autori dello studio propongono inoltre un protocollo articolato in tre fasi per monitorare regolarmente lo “stato cognitivo” delle AI: una valutazione sistematica delle capacità di ragionamento e logica, un rigoroso controllo qualitativo dei dati durante la fase di pre-addestramento, e un’attenta analisi degli effetti prodotti dai contenuti virali sul modello. Si tratta di un primo passo verso una responsabilizzazione degli sviluppatori e degli utilizzatori, per garantire che l’evoluzione dell’intelligenza artificiale non venga limitata o distorta dalla massa di informazioni di bassa qualità che inonda il web.

Il rischio reale è quello di vedere le AI, strumenti fondamentali per l’innovazione e la trasformazione digitale, degradarsi progressivamente come i loro utenti umani, incapaci di mantenere un livello di attenzione e una capacità critica adeguata. In un’epoca in cui molto del progresso tecnologico dipende da modelli sempre più sofisticati, la tutela della qualità informativa diventa un imperativo non solo etico ma pratico, per evitare una spirale discendente che danneggerebbe tanto gli uomini quanto le macchine.

Questo studio rappresenta un monito potente sull’importanza di una gestione responsabile e consapevole dei dati nell’ambito dell’intelligenza artificiale. Mentre le capacità delle AI crescono e si integrano sempre di più con la vita quotidiana e i processi decisionali, mantenere la loro integrità cognitiva è essenziale. Investimenti in ricerca, monitoraggio continuo e attenzione alla provenienza dei dati di addestramento saranno fondamentali per assicurare risultati affidabili e funzione ottimale.

La sfida si sposta quindi dal solo miglioramento tecnico al controllo critico della qualità dei contenuti con cui si nutrono le intelligenze artificiali.

Alex Trizio
Alex Triziohttps://www.alground.com
Alessandro Trizio è un professionista con una solida expertise multidisciplinare, che abbraccia tecnologia avanzata, analisi politica e strategia geopolitica. Ora è Amministratore e Direttore Strategico del Gruppo Trizio, dirigendo il dipartimento di sicurezza informatica. La sua competenza si estende all'applicazione di soluzioni innovative per la sicurezza cibernetica e la risoluzione di criticità complesse.
Altri articoli

TI POSSONO INTERESSARE

Ucraina. La guerra che Putin non riesce a vincere

La guerra in Ucraina entra nel quarto anno: perché la vittoria russa non è affatto scontata  Il 24 febbraio 2026 segna il quarto anniversario dell'invasione...

Il Messico all’indomani di “El Mencho”: tra assedio dei cartelli e pressione degli Stati Uniti

Un’operazione “storica” che apre una nuova fase L’uccisione di Nemesio Rubén Oseguera Cervantes, noto come “El Mencho”, segna uno spartiacque nella guerra messicana contro i...

USA-Iran, la macchina da guerra americana si prepara alle porte dell’Iran

Gli Stati Uniti hanno schierato oltre 50 caccia, due portaerei, sottomarini e sistemi antimissile in Medio Oriente. È il più grande ammassamento di forza...

Israele sta ridisegnando la Cisgiordania

Tra l’8 e il 19 febbraio 2026 Israele ha approvato un pacchetto di misure su terre, acqua, siti archeologici e luoghi sacri in Cisgiordania....

Come il furto dei dati di 5.000 agenti Digos aggrava il fronte tra Italia e Cina

Nel silenzio dei data center governativi, tra il 2024 e il 2025, qualcuno è entrato nelle reti del Viminale senza farsi notare. Non ha...

Chrome sotto assedio: oltre 300 estensioni malevole spiano 37 milioni di utenti

Più di 300 estensioni Chrome usate per spiare gli utenti. È l’immagine che emerge da una nuova indagine di sicurezza: add‑on apparentemente innocui, spesso...

Cina, Iran, Russia e Corea del Nord stanno assediando il cuore dell’industria della difesa globale

Secondo una nuova ricostruzione di Google Threat Intelligence Group, l’industria della difesa globale è sottoposta a un assedio silenzioso ma costante da parte di...

Gli Stati Uniti accusano la Cina di un test nucleare segreto

Pechino nega e rilancia le critiche a Washington. Sullo sfondo, la promessa di Donald Trump di riportare gli Stati Uniti all’era delle prove atomiche...

Trump disse che avrebbe fermato Putin in una settimana, e invece.

Donald Trump ha promesso più volte di poter mettere fine alla guerra in Ucraina «in 24 ore». Da quando è tornato alla Casa Bianca,...