Intelligenza Artificiale: il rischio dell’auto formazione

Comprendiamo tutti il ​​concetto di “consanguineità” in termini umani – dove persone che sono geneticamente troppo simili si riproducono, dando origine a prole con deformità. Con ogni generazione consanguinea, il pool genetico diventa sempre meno diversificato.

Ma come potrebbe tutto ciò tradursi in un’intelligenza artificiale generativa? E perché dovremmo preoccuparci della consanguineità generativa dell’IA?

Cos’è la consanguineità in relazione all’intelligenza artificiale generativa?

Il termine si riferisce al modo in cui vengono addestrati i sistemi di intelligenza artificiale generativa. I primi modelli linguistici di grandi dimensioni (LLM) venivano addestrati su enormi quantità di testi, contenuti visivi e audio, in genere recuperati da Internet. Stiamo parlando di libri, articoli, opere d’arte e altri contenuti disponibili online, contenuti che sono stati, in generale, creati da esseri umani.

Ora, però, disponiamo di una miriade di strumenti di intelligenza artificiale generativa che inondano Internet con contenuti generati dall’intelligenza artificiale, dai post di blog e articoli di notizie, alle opere d’arte basate sull’intelligenza artificiale. Ciò significa che i futuri strumenti di intelligenza artificiale verranno addestrati su set di dati che contengono sempre più contenuti generati dalla stessa intelligenza artificiale.

Contenuto che non è stato creato da esseri umani, ma simula l’output umano. E man mano che i nuovi sistemi imparano da questi contenuti simulati e creano i propri contenuti basati su di essi, il rischio è che i contenuti diventino progressivamente peggiori. Come fare la fotocopia di una fotocopia di una fotocopia.

Non è quindi dissimile dalla consanguineità tra esseri umani. Il “pool genetico” – in questo caso, il contenuto utilizzato per addestrare i sistemi di intelligenza artificiale generativa – diventa meno diversificato. Meno interessante. Più distorto. Meno rappresentativo del reale contenuto umano.

Cosa significherebbe questo per i sistemi di intelligenza artificiale generativa?

La consanguineità potrebbe rappresentare un problema significativo per i futuri sistemi di intelligenza artificiale generativa, rendendoli sempre meno capaci di simulare accuratamente il linguaggio e la creatività umana. Uno studio ha confermato come la consanguineità porti a una minore efficacia delle IA generative, scoprendo che “senza dati reali sufficienti in ogni generazione… i futuri modelli generativi sono condannati a vedere la loro qualità o diversità diminuire progressivamente ”.

In altre parole, le IA hanno bisogno di dati nuovi (generati dall’uomo) per migliorare sempre di più nel tempo. Se i dati su cui vengono addestrati vengono sempre più generati da altre IA, si finisce con quello che viene chiamato “ collasso del modello ”. Che è un modo elegante per dire che le IA diventano più stupide. Ciò può accadere con qualsiasi tipo di output di intelligenza artificiale generativa, non solo testo ma anche immagini.

Immaginatelo in termini di un chatbot del servizio clienti che peggiora progressivamente, producendo risposte sempre più goffe, robotiche o addirittura prive di senso. Questo è il pericolo per i sistemi di intelligenza artificiale generativa: la consanguineità potrebbe, in teoria, renderli inutili. In primo luogo, vanifica lo scopo di utilizzare l’intelligenza artificiale generativa. Vogliamo che questi sistemi facciano un buon lavoro nel rappresentare il linguaggio e la creatività umana, e non peggiorino progressivamente. Vogliamo che i sistemi di intelligenza artificiale generativa diventino più intelligenti e migliori nel rispondere alle nostre richieste nel tempo. Se non possono farlo, che senso hanno?

Cosa significa tutto questo per gli esseri umani?

Abbiamo tutti visto le immagini esilaranti e strane create dall’intelligenza artificiale generativa. Mani che escono da posti in cui non dovrebbero, facce da incubo e cose simili. Possiamo ridere di queste distorsioni perché ovviamente non sono create da artisti umani.

Ma consideriamo un futuro in cui sempre più contenuti che consumiamo saranno creati da sistemi di intelligenza artificiale generativa. Sempre più contenuti distorti o, per lo meno, del tutto insipidi. Contenuti poco rappresentativi della reale creatività umana. La nostra cultura collettiva è sempre più informata da contenuti generati dall’intelligenza artificiale anziché da contenuti generati dall’uomo. Ci ritroviamo bloccati in una “ blanda camera di eco dell’IA ”. Cosa significherebbe questo per la cultura umana? È questa la strada che vogliamo percorrere?

Ci sono soluzioni?

Una via da seguire è progettare i futuri sistemi di intelligenza artificiale in modo che possano distinguere i contenuti generati dall’intelligenza artificiale da quelli generati dagli esseri umani e, quindi, dare priorità a questi ultimi a fini di formazione. Ma è più facile a dirsi che a farsi perché le IA trovano sorprendentemente difficile distinguere tra i due!

Dobbiamo anche evitare di fare eccessivo affidamento sui sistemi di intelligenza artificiale generativa e continuare a dare priorità ad attributi molto umani come il pensiero critico e il pensiero creativo. Dobbiamo ricordare che l’intelligenza artificiale generativa è uno strumento – uno strumento estremamente prezioso – ma non può sostituire la creatività e la cultura umana.