L’antropomorfizzazione dell’intelligenza artificiale: fenomeno, implicazioni e rischi

Gli esseri umani hanno una naturale tendenza ad attribuire caratteristiche, emozioni e intenzioni umane a entità non umane, incluse le tecnologie di intelligenza artificiale. Questo fenomeno, noto come antropomorfizzazione, influisce profondamente sul modo in cui interagiamo con i sistemi di AI. La ricerca dimostra che l’antropomorfizzazione dell’AI può manifestarsi in vari gradi, dalla semplice cortesia all’attribuzione di capacità cognitive complesse. Questo fenomeno ha radici storiche che risalgono ai primi esperimenti di intelligenza artificiale, in particolare con ELIZA negli anni ’60, e continua ad essere rilevante oggi con chatbot avanzati e assistenti virtuali. Le implicazioni di questa tendenza sollevano importanti questioni riguardo alla fiducia eccessiva nei sistemi AI, alla possibile manipolazione degli utenti e alla comprensione distorta delle reali capacità di questi sistemi.

L’effetto ELIZA

L’antropomorfizzazione dell’intelligenza artificiale ha radici profonde che affondano fin dagli albori dell’informatica. Un esempio emblematico risale al 1966, quando Joseph Weizenbaum, ricercatore del MIT, sviluppò ELIZA, un programma oggi considerato il primo chatbot della storia. ELIZA era progettata per simulare un terapeuta rogeriano, ossia uno psicoterapeuta ispirato all’approccio umanistico di Carl Rogers. Questo tipo di terapeuta si basa su tre principi fondamentali: ascolto empatico, accettazione incondizionata e autenticità, evitando giudizi o interpretazioni e lasciando che sia la persona a guidare il dialogo.

ELIZA imitava questo stile limitandosi a riflettere le frasi degli utenti sotto forma di domande, una tecnica che dava l’impressione di ascolto e comprensione, pur basandosi su semplici regole di corrispondenza tra parole chiave e risposte predefinite. Nonostante la sua estrema semplicità, il programma riuscì a suscitare in molti utenti l’illusione di una vera interazione empatica, segnando un momento cruciale nella storia dell’interfaccia uomo-macchina e nel modo in cui attribuiamo qualità umane alle tecnologie artificiali.

Ciò che sorprese lo stesso Weizenbaum fu la reazione delle persone che interagivano con ELIZA: “Non avevo realizzato… che esposizioni estremamente brevi a un programma informatico relativamente semplice potessero indurre un potente pensiero delirante in persone del tutto normali“. Questo fenomeno è diventato noto come “effetto ELIZA”, che descrive la tendenza delle persone ad attribuire comprensione umana ai computer basandosi esclusivamente su comportamenti superficiali.

L’effetto ELIZA evidenzia come le persone proiettino inconsciamente qualità umane sui sistemi tecnologici, anche quando sono consapevoli della natura meccanica di tali sistemi. Gli utenti che interagivano con ELIZA spesso si sentivano compresi e supportati, rivelando informazioni personali ed emotive, credendo che il programma stesse rispondendo in modo riflessivo, mentre in realtà seguiva semplicemente schemi predefiniti senza alcuna vera comprensione.

I gradi e le dimensioni dell’antropomorfizzazione

La ricerca contemporanea ha identificato diversi livelli di antropomorfizzazione nelle interazioni umane con l’intelligenza artificiale. Secondo studi recenti, esistono quattro gradi principali di antropomorfizzazione dell’AI:

  1. Cortesia (FriendlyBot): Includere espressioni come “per favore” e “grazie” nelle richieste all’AI. Questo comportamento rappresenta un riconoscimento superficiale dell’entità simulata, simile a come ci si riferisce a un cane usando pronomi umani come “lui” invece di “esso”.
  2. Rinforzo (KudosBot): Una forma più avanzata di interazione in cui gli utenti offrono feedback per guidare il comportamento dell’AI, come dire “Buon lavoro!” con la speranza che l’AI faccia più spesso ciò per cui viene lodata.
  3. Gioco di ruolo (CosplayBot): In questo livello, gli utenti chiedono all’AI di assumere persone specifiche, come uno chef pasticcere parigino, per migliorare la qualità e la rilevanza delle risposte.
  4. Compagnia: Il livello più profondo di antropomorfizzazione, dove gli utenti sviluppano un senso di connessione emotiva con l’AI1.

Questi gradi non sono mutuamente esclusivi e variano in termini di connessione emotiva e funzionalità. La ricerca mostra che i comportamenti antropomorfici hanno sia un ruolo funzionale (gli utenti presumono che l’AI funzionerà meglio) sia un ruolo di connessione, volto a creare un’esperienza più piacevole.

Le motivazioni psicologiche dell’antropomorfizzazione

Le persone antropomorfizzano l’intelligenza artificiale per diverse ragioni psicologiche fondamentali. Secondo Epley, Waytz e Cacioppo (2007), la tendenza ad antropomorfizzare agenti non umani è determinata principalmente da tre fattori, due dei quali sono particolarmente rilevanti: la motivazione sociale e la motivazione di efficacia.

La motivazione sociale si riferisce al desiderio umano di connessione sociale. Le persone che si sentono sole (motivazione sociale) sono più propense ad antropomorfizzare entità non umane, inclusi animali domestici. Questo fenomeno è stato documentato in uno studio che ha mostrato come le persone con disposizione alla solitudine tendessero maggiormente all’antropomorfizzazione.

La motivazione di efficacia riguarda invece il bisogno di comprendere, prevedere e controllare l’ambiente. Le persone che hanno un forte bisogno di controllo sono più propense ad antropomorfizzare animali e oggetti apparentemente imprevedibili. Questo comportamento serve come meccanismo cognitivo che aiuta a dare un senso al comportamento di entità che altrimenti sembrano caotiche o incomprensibili.

L’antropomorfizzazione serve quindi come “ponte cognitivo”, aiutando gli utenti a comprendere l’AI attraverso metafore umane. Attribuendo qualità umane all’AI, gli utenti possono interagire con sistemi complessi in modi che sembrano più intuitivi e meno intimidatori.

L’antropomorfizzazione dell’intelligenza artificiale ha importanti implicazioni per la progettazione, l’uso e la percezione dei sistemi AI. Queste implicazioni possono essere sia positive che negative.

Effetti sulla fiducia e sull’interazione

La ricerca ha dimostrato che la fiducia in un robot sociale con caratteristiche fisiche antropomorfe differisce sia dalla fiducia in un agente AI che dalla fiducia in un essere umano. In uno studio sperimentale, è emerso che la fiducia nel robot sociale si collocava in una posizione intermedia tra quella in un agente AI e quella in un essere umano. Questo suggerisce che manipolare le caratteristiche antropomorfe potrebbe aiutare gli utenti a calibrare in modo appropriato la fiducia in un agente.

L’antropomorfizzazione gioca un ruolo complesso nel plasmare l’attuale valutazione dell’AI. Le caratteristiche umanoidi sono note per influenzare positivamente le percezioni di calore e competenza, che a loro volta influenzano l’accettazione da parte degli utenti e l’intenzione di continuare a utilizzare i sistemi AI. Tuttavia, questa tendenza può distorcere il giudizio, portando a una fiducia mal riposta nelle capacità dell’AI, alla manipolazione da parte di sistemi progettati per sfruttare il ragionamento antropomorfico e a valutazioni errate dello status morale dell’AI.

Rischi etici e pratici

L’antropomorfizzazione può oscurare i rischi esistenziali dell’AI avanzata creando quello che alcuni ricercatori chiamano “lo specchio antropomorfico” una potente lente cognitiva e culturale che riflette la nostra psicologia, le nostre limitazioni e i nostri valori quando cerchiamo di immaginare l’intelligenza artificiale super intelligente (ASI). Questo specchio ostacola la nostra capacità di concepire forme di intelligenza fondamentalmente diverse con obiettivi e modalità operative non umane.

L’antropomorfizzazione può anche ostacolare la ricerca e lo sviluppo sulla sicurezza, orientando sottilmente le priorità di ricerca lontano dalle questioni di sicurezza più critiche. Inoltre, può portare a richieste premature di diritti o status per l’AI basate su una sofisticata imitazione piuttosto che sulla reale natura sottostante dell’AI, o allo sviluppo di una fiducia mal riposta molto prima, o persino in assenza, dell’emergere di una genuina intelligenza o sensibilità simile a quella umana.

Oltre il paradigma antropomorfico

Alcuni ricercatori suggeriscono che pensare oltre il paradigma antropomorfico potrebbe apportare benefici significativi alla ricerca sull’AI. L’antropomorfismo, o l’attribuzione di tratti umani alla tecnologia, è una risposta automatica e inconscia che si verifica anche in persone con competenze tecniche avanzate.

L’analisi di centinaia di migliaia di articoli di ricerca in informatica dell’ultimo decennio ha rivelato prove empiriche della prevalenza e della crescita della terminologia antropomorfica nella ricerca sui modelli linguistici di grandi dimensioni (LLM). Questa terminologia riflette concettualizzazioni antropomorfiche più profonde che influenzano il modo in cui pensiamo e conduciamo la ricerca sugli LLM.

Sfidare queste concettualizzazioni antropomorfiche potrebbe aprire nuove vie per comprendere e migliorare gli LLM oltre le analogie umane. Ad esempio, i ricercatori hanno identificato e analizzato cinque presupposti antropomorfici fondamentali che plasmano metodologie prominenti nell’intero ciclo di sviluppo degli LLM, dall’assunzione che i modelli debbano usare il linguaggio naturale per i compiti di ragionamento all’assunzione che le capacità del modello debbano essere valutate attraverso benchmark incentrati sull’uomo.

La ricerca dimostra che questo fenomeno è guidato da motivazioni psicologiche fondamentali e si manifesta in vari gradi, dalla semplice cortesia alla percezione di connessione emotiva profonda. Mentre l’antropomorfizzazione può facilitare l’interazione uomo-macchina rendendo i sistemi AI più accessibili e intuitivi, porta con sé anche rischi significativi, tra cui fiducia mal riposta, valutazioni errate delle capacità dell’AI e possibili distorsioni nella ricerca e nello sviluppo dell’AI.

Per il futuro, è fondamentale trovare un equilibrio tra lo sfruttamento dei benefici dell’antropomorfizzazione e la mitigazione dei suoi rischi. Ciò potrebbe richiedere lo sviluppo di nuovi quadri concettuali che ci permettano di pensare all’AI in termini non antropomorfici, consentendoci di apprezzare meglio la sua natura unica e le sue capacità senza le limitazioni imposte dal paradigma antropomorfico.