12 Novembre 2025
Home Blog Pagina 29

La curiosità nell’Intelligenza Artificiale

Chiariamo subito, la curiosità nell’Intelligenza Artificiale non ha la stessa valenza che ha in noi esseri umani, non è un sentimento, come alcuni vorrebbero far credere, ma un modo di approcciare ai problemi. Vediamo insieme cos’è.

L’intelligenza artificiale (IA) è stata per molto tempo sinonimo di algoritmi e sistemi capaci di eseguire compiti in modo efficiente e spesso superiore agli esseri umani. Tuttavia, una nuova direzione si sta delineando nel campo dell’IA: la curiosità artificiale, o Curiosity AI. Questa forma di IA si prefigge di simulare la curiosità umana all’interno di sistemi di intelligenza artificiale, offrendo un potenziale incredibile per l’apprendimento automatico autodiretto. Questo tipo di IA è conosciuto anche come curiosità artificiale, AI curiosa, algoritmo curioso o curiosità algoritmica.

La curiosità è uno dei principali motori dell’apprendimento autodiretto negli esseri umani. Quando ci imbattiamo in una lacuna nella nostra conoscenza, il nostro interesse può essere stimolato, creando il desiderio di cercare le informazioni mancanti. Emulando il comportamento di un essere umano curioso in un algoritmo, si potrebbe migliorare il potenziale per l’apprendimento automatico autodiretto, in modo che un sistema IA sia spinto a cercare o sviluppare soluzioni a problemi non familiari.

L’Intelligenza artificiale stretta vs. Intelligenza Artificiale curiosa

Per comprendere appieno il potenziale della Intelligenza Artificiale curiosa è utile fare un confronto con l’intelligenza artificiale stretta, o Narrow AI. I sistemi Narrow AI sono in grado di svolgere specifici compiti, spesso con prestazioni superiori a quelle umane. Ad esempio, ROSS, un sistema esperto talvolta definito come un “avvocato IA”, è in grado di analizzare dati da circa un miliardo di documenti di testo, fornendo risposte precise a domande complesse in meno di tre secondi. Tuttavia, i sistemi Narrow AI sono limitati dal fatto che richiedono istruzioni specifiche e non hanno la capacità umana di sviluppare autonomamente nuovi approcci ai problemi nuovi.

La Intelligenza Artificiale curiosa, d’altra parte, può aiutare i sistemi IA a comportarsi più come esseri umani in nuove situazioni, incorporando comportamenti associati alla curiosità nei modelli algoritmici. Un sistema di Intelligenza Artificiale curiosa potrebbe, ad esempio, dare priorità all’esplorazione rafforzando comportamenti che hanno prodotto nuove informazioni sull’ambiente. I comportamenti che supportano la capacità di esplorare possono essere rafforzati, mentre quelli che impediscono o limitano l’esplorazione possono essere penalizzati.

Come funziona l’Intelligenza Artificiale curiosa?

La Intelligenza Artificiale curiosa utilizza un approccio chiamato Reinforcement Learning (RL) che motiva l’IA a eseguire comportamenti desiderati e la “punisce” per quelli indesiderati. L’RL richiede una grande quantità di feedback per funzionare correttamente, ma quando ha poco feedback su cui lavorare, fatica.

L’Intelligenza Artificiale curiosa mira a risolvere questo problema, mantenendo l’IA in cerca di soluzioni anche quando non ci sono segnali chiari su cosa fare. Funziona bene in situazioni in cui non viene dato molto feedback all’IA sui suoi progressi, il che rispecchia molte situazioni del mondo reale.

Un esempio che può aiutare a capire il concetto è una persona che cammina in un supermercato alla ricerca di pomodori. Ad ogni passo, la persona passa diversi corridoi che non mostrano alcuna indicazione della presenza dei pomodori. Se la persona operasse secondo una logica di reinforcement learning, camminerebbe in cerchio osservando lo stesso insieme di corridoi, basandosi esclusivamente sulla memoria e non arrivando da nessuna parte.

Introducendo la curiosità nel modo di pensare, essa è spinta a riconoscere che sta camminando in cerchio e sceglie arbitrariamente una nuova direzione che potrebbe fornire un’indicazione di dove si trovano i pomodori. Allo stesso modo, un’IA curiosa ha la capacità di riconoscere un pattern ridondante e trovare un nuovo percorso che avrà stimoli diversi e forse una via per raggiungere l’obiettivo desiderato.

Per far sì che l’IA sperimenti cose nuove nel suo ambiente e sia curiosa, l’algoritmo RL viene modificato per lavorare in questo modo:

  1. L’algoritmo aggiunge osservazioni alla memoria.
  2. L’algoritmo calcola una ricompensa basata su quanto l’osservazione corrente sia distante dalla memoria più simile che possiede.
  3. L’algoritmo ottiene una ricompensa maggiore per osservare cose che non sono ancora rappresentate nella memoria.

Strutturando l’algoritmo in questo modo, si evita che rimanga intrappolato in un ciclo di feedback, in cui tutti gli input sono ugualmente legati all’obiettivo e l’algoritmo non può differenziare tra di loro. L’Intelligenza Artificiale curiosa ottiene due tipi di ricompense:

  1. Osservazioni legate all’obiettivo. Viene ricompensata quando può confrontare le osservazioni correnti con la memoria e trovare stimoli legati all’obiettivo, come un RL classico.
  2. Osservazioni nuove. Viene ricompensata di più per trovare cose che non sono ancora rappresentate nella memoria.

Implicazioni e prospettive future

L’Intelligenza Artificiale curiosa rappresenta un enorme passo avanti nel campo dell’intelligenza artificiale. Attraverso l’emulazione della curiosità umana, (non parliamo di sentimenti ma di metodi) i sistemi IA possono adattarsi e apprendere in modo più dinamico, spingendosi oltre i limiti degli algoritmi predefiniti. Questo ha implicazioni significative in una vasta gamma di settori, tra cui la robotica, la medicina, l’istruzione e molti altri.

Immagina un robot che, invece di seguire solo istruzioni programmate, esplora attivamente il suo ambiente per apprendere nuove abilità. Oppure un sistema IA in medicina che non si limita a diagnosticare malattie basandosi su dati noti, ma esplora attivamente nuovi modelli e correlazioni per scoprire trattamenti innovativi. La curiosità artificiale potrebbe rivoluzionare il modo in cui utilizziamo e interagiamo con l’intelligenza artificiale.

Inoltre, l’Intelligenza Artificiale curiosa può essere vista come un passo verso il raggiungimento di una vera Intelligenza Artificiale Generale (AGI), che è in grado di eseguire qualsiasi compito intellettuale che un essere umano può fare. Mentre la Narrow AI è specializzata in compiti specifici, l’AGI e l’Intelligenza Artificiale curiosa si avvicinano di più all’intelligenza umana in termini di capacità di apprendimento e adattamento.

Tuttavia, come con qualsiasi progresso tecnologico, vi sono sfide e considerazioni etiche da tenere a mente. La capacità di un sistema IA di esplorare e apprendere autonomamente potrebbe portare a comportamenti imprevisti e non intenzionali. È essenziale che vengano sviluppate misure di sicurezza e linee guida etiche per garantire che l’Intelligenza Artificiale curiosa sia utilizzata in modo responsabile e benefico per l’umanità.

L’Intelligenza Artificiale curiosa rappresenta un affascinante sviluppo nel campo dell’intelligenza artificiale, che potrebbe portare a rivoluzionarie scoperte e innovazioni. Emulando la curiosità umana, queste IA sono in grado di spingersi oltre i confini tradizionali e di adattarsi in modo più dinamico ai problemi e alle sfide. Mentre continuiamo a esplorare le potenzialità di questa tecnologia, è cruciale procedere con cautela e riflessione, garantendo che i progressi siano guidati da un impegno nei confronti dell’etica e del beneficio dell’umanità.

Machine Learning: il mondo degli algoritmi

L’apprendimento automatico è un campo dedicato alla comprensione e alla costruzione di metodi che consentono alle macchine di “imparare”, ovvero metodi che sfruttano i dati per migliorare le prestazioni del computer su una serie di attività.

Gli algoritmi di apprendimento automatico costruiscono un modello basato su dati campione, noti come dati di addestramento, per fare previsioni o prendere decisioni senza essere esplicitamente programmati per farlo.

Gli algoritmi di apprendimento automatico sono utilizzati in un’ampia varietà di applicazioni, come in medicina, filtraggio della posta elettronica, riconoscimento vocale, agricoltura e visione artificiale, dove è difficile o irrealizzabile sviluppare algoritmi convenzionali per eseguire le attività necessarie.

Un sottoinsieme dell’apprendimento automatico è strettamente correlato alla statistica computazionale, che si concentra sull’elaborazione di previsioni utilizzando i computer, ma non tutto l’apprendimento automatico è apprendimento statistico. Lo studio dell’ottimizzazione matematica fornisce metodi, teoria e domini applicativi al campo dell’apprendimento automatico. Il data mining è un campo di studio correlato, incentrato sull’analisi esplorativa dei dati attraverso l’apprendimento senza supervisione.

Alcune implementazioni dell’apprendimento automatico utilizzano dati e reti neurali in un modo che imita il funzionamento di un cervello biologico.

Nella sua applicazione ai problemi aziendali, l’apprendimento automatico viene anche definito analisi predittiva.

Storia e relazioni con altri campi 

Le strategie, gli algoritmi e le deduzioni che hanno dimostrato di funzionare bene in passato sono alla base del funzionamento degli algoritmi di apprendimento. A volte queste deduzioni possono essere ovvie, come nel caso del sole che sorge ogni mattina, ma altre volte possono essere più sottili, come la probabilità di esistenza di cigni neri non scoperti basata sulla presenza di specie geograficamente separate con varianti di colore.

I programmi di apprendimento automatico consentono ai computer di eseguire compiti senza essere esplicitamente programmati per farlo. Questo avviene attraverso l’apprendimento dai dati forniti al computer per svolgere specifiche attività. Mentre per compiti semplici è possibile programmare algoritmi che guidano la macchina passo dopo passo, per compiti più complessi può risultare difficile per gli esseri umani creare manualmente gli algoritmi necessari. Pertanto, risulta spesso più efficace consentire alla macchina di sviluppare il proprio algoritmo, anziché specificare ogni passo tramite programmatori umani.

Nell’ambito dell’apprendimento automatico, vengono utilizzati vari approcci per insegnare ai computer a svolgere compiti quando non esiste un algoritmo completamente soddisfacente. Uno di questi approcci consiste nel considerare alcune delle risposte corrette come valide in casi in cui ci sono molte possibili risposte. Questi dati di addestramento vengono poi utilizzati per migliorare gli algoritmi utilizzati dal computer per determinare le risposte corrette. Ad esempio, per addestrare un sistema di riconoscimento dei caratteri, è stato spesso utilizzato il set di dati MNIST, che contiene cifre scritte a mano.

L’uso dell’Intelligenza Artificiale

L’apprendimento automatico ha origine nella ricerca sull’intelligenza artificiale (AI) come disciplina scientifica. Inizialmente, alcuni ricercatori si interessarono alla possibilità di far imparare alle macchine dai dati. Furono esplorati vari approcci simbolici e reti neurali, che si rivelarono essere reinvenzioni di modelli lineari generalizzati della statistica. Anche il ragionamento probabilistico fu impiegato, in particolare nell’ambito della diagnosi medica automatizzata.

Tuttavia, si sviluppò una separazione tra l’intelligenza artificiale e l’apprendimento automatico a causa dell’enfasi crescente sull’approccio logico e basato sulla conoscenza. I sistemi probabilistici incontravano problemi teorici e pratici nell’acquisizione e rappresentazione dei dati. Negli anni ’80, i sistemi esperti dominarono il campo dell’intelligenza artificiale, mentre la statistica cadde in disgrazia. Il lavoro sull’apprendimento simbolico/basato sulla conoscenza continuò nell’ambito dell’intelligenza artificiale, dando origine alla programmazione logica induttiva. Allo stesso tempo, la ricerca più orientata alla statistica si spostò verso il riconoscimento di schemi e il recupero di informazioni, al di fuori del campo dell’intelligenza artificiale.

La ricerca sulle reti neurali fu abbandonata sia nell’ambito dell’intelligenza artificiale che dell’informatica. Tuttavia, questa linea di ricerca fu portata avanti da studiosi di altre discipline, tra cui Hopfield, Rumelhart e Hinton. Nel corso degli anni ’80, raggiunsero un successo significativo con la reinvenzione della retropropagazione.

Negli anni ’90, l’apprendimento automatico fu riorganizzato e riconosciuto come un campo autonomo. L’obiettivo si spostò dall’intelligenza artificiale alla risoluzione di problemi pratici. L’attenzione si spostò dagli approcci simbolici ereditati dall’intelligenza artificiale a metodi e modelli tratti dalla statistica, dalla logica fuzzy e dalla teoria della probabilità.

Il data mining

L’apprendimento automatico e il data mining sono due discipline che spesso utilizzano metodi simili e si sovrappongono in diversi ambiti. Tuttavia, hanno obiettivi leggermente diversi. L’apprendimento automatico si concentra sulla previsione, utilizzando proprietà conosciute apprese dai dati di addestramento, mentre il data mining si concentra sulla scoperta di proprietà precedentemente sconosciute nei dati, durante la fase di analisi della scoperta della conoscenza nei database.

Il data mining utilizza molti dei metodi dell’apprendimento automatico, ma con un obiettivo diverso. Allo stesso modo, l’apprendimento automatico può utilizzare metodi di data mining, come l’apprendimento non supervisionato o come fase di pre-elaborazione per migliorare l’accuratezza del modello. La confusione tra queste due comunità di ricerca, che spesso hanno conferenze e riviste separate, deriva dai diversi presupposti con cui lavorano. Nell’apprendimento automatico, le prestazioni vengono valutate principalmente in base alla capacità di riprodurre la conoscenza nota, mentre nel data mining e nella scoperta della conoscenza, il focus principale è sulla scoperta di conoscenze precedentemente sconosciute.

L’apprendimento automatico ha anche legami stretti con l’ottimizzazione, poiché molti problemi di apprendimento vengono formulati come la minimizzazione di funzioni di perdita su un insieme di esempi di addestramento. Le funzioni di perdita misurano la discrepanza tra le previsioni del modello addestrato e le istanze effettive del problema. Ad esempio, nella classificazione, l’obiettivo è assegnare correttamente le etichette alle istanze e i modelli vengono addestrati per prevedere con precisione le etichette predefinite di un insieme di esempi.

I metodi di Machine Learning

I metodi di apprendimento automatico sono tradizionalmente suddivisi in tre grandi categorie, che corrispondono ai paradigmi di apprendimento, in base alla natura del “segnale” o del “feedback” disponibile per il sistema di apprendimento:

  1. Apprendimento supervisionato: in questo approccio, al computer vengono forniti input di esempio insieme agli output desiderati, che vengono forniti da un “insegnante” o un supervisore. L’obiettivo è apprendere una regola generale che mappa gli input agli output, in modo da poter fare previsioni o classificazioni su nuovi dati.
  2. Apprendimento non supervisionato: in questo caso, all’algoritmo di apprendimento non vengono fornite etichette o output desiderati. L’algoritmo deve lavorare autonomamente per trovare la struttura o i modelli nascosti all’interno dei dati di input. L’apprendimento non supervisionato può essere un obiettivo in sé, cercando di scoprire modelli o cluster nei dati, oppure può essere utilizzato come un passaggio preliminare per l’estrazione di caratteristiche o altre analisi dei dati.
  3. Apprendimento per rinforzo: in questo paradigma, un programma per computer interagisce con un ambiente dinamico in cui deve raggiungere un obiettivo specifico. Durante l’interazione con l’ambiente, il programma riceve feedback sotto forma di ricompense o punizioni, che cerca di massimizzare nel corso del tempo. L’apprendimento per rinforzo è spesso utilizzato per problemi di decisione sequenziale, come il controllo di robot o i giochi.

È importante notare che ogni categoria ha i suoi vantaggi e limiti, e non esiste un singolo algoritmo che funzioni per tutti i tipi di problemi. La scelta dell’approccio dipende dalla natura dei dati, dall’obiettivo dell’apprendimento e dalle risorse disponibili.

La riduzione della dimensionalità

La riduzione della dimensionalità è un processo che mira a ridurre il numero di variabili casuali o caratteristiche in un set di dati, ottenendo un insieme più piccolo di variabili principali. Questo processo può essere considerato come un’eliminazione o un’estrazione di caratteristiche. Uno dei metodi popolari per la riduzione della dimensionalità è l’analisi delle componenti principali (PCA), che consente di rappresentare dati ad alta dimensionalità in uno spazio di dimensione inferiore, preservando al contempo la maggior parte delle informazioni. Ad esempio, la PCA può ridurre dati tridimensionali (3D) a un’immagine bidimensionale (2D) senza alterare i dati originali.

Un’ipotesi comune nella riduzione della dimensionalità è che i dati ad alta dimensionalità siano distribuiti lungo varietà o strutture di dimensione inferiore. Molte tecniche di riduzione della dimensionalità si basano su questa ipotesi, aprendo la strada all’apprendimento molteplice e alla regolarizzazione molteplice.

L’obiettivo finale della riduzione della dimensionalità è semplificare e comprimere i dati, eliminando ridondanze o rumore e consentendo una rappresentazione più efficiente del set di dati originale. Questo può essere utile per migliorare le prestazioni dei modelli di apprendimento automatico, ridurre il costo computazionale o facilitare l’interpretazione dei dati.

I modelli di Machine Learning

I modelli di machine learning richiedono generalmente una grande quantità di dati affidabili per poter effettuare previsioni accurate. Durante il processo di addestramento di un modello di machine learning, gli ingegneri devono individuare e raccogliere un campione di dati rappresentativo e ampio. Questi dati possono assumere forme diverse, come un corpus di testo, una collezione di immagini, dati di sensori o dati raccolti dagli utenti di un servizio.

L’overfitting è un fenomeno che richiede attenzione durante l’addestramento dei modelli di machine learning. I modelli addestrati su dati distorti o non rappresentativi possono generare previsioni distorte o indesiderate. I modelli con bias possono portare a risultati dannosi, favorendo impatti negativi sulla società o sugli obiettivi stessi. Il bias algoritmico è un possibile risultato di dati che non sono stati adeguatamente preparati per l’addestramento. L’etica dell’apprendimento automatico sta diventando un campo di studio a sé stante e deve essere integrata all’interno dei team di ingegneri di machine learning.

Un approccio che viene utilizzato per affrontare alcune di queste sfide è l’apprendimento federato. Si tratta di una forma adattata di intelligenza artificiale distribuita che permette di addestrare modelli di machine learning in modo decentralizzato, mantenendo la privacy degli utenti senza dover inviare i loro dati a un server centralizzato. Questo approccio aumenta anche l’efficienza, distribuendo il processo di addestramento su molti dispositivi. Ad esempio, Gboard utilizza l’apprendimento federato per addestrare i modelli di previsione delle query di ricerca sui telefoni cellulari degli utenti senza dover inviare le ricerche individuali a Google.

Le limitazioni del Machine Learning

Nonostante l’apprendimento automatico abbia portato trasformazioni significative in diversi campi, spesso i programmi di machine learning non riescono a raggiungere i risultati desiderati. Ci sono diverse ragioni a ciò: mancanza di dati adeguati, limitato accesso ai dati, distorsione dei dati, problemi di privacy, selezione inappropriata di compiti e algoritmi, errori umani, mancanza di risorse e sfide nella valutazione dei modelli.

Un esempio di insuccesso nell’apprendimento automatico è stato l’incidente del 2018 che ha coinvolto un’auto a guida autonoma di Uber, che non è stata in grado di rilevare un pedone, causando una tragica collisione mortale. Inoltre, i tentativi di utilizzare l’apprendimento automatico nel settore sanitario, come ad esempio con il sistema IBM Watson, non hanno fornito i risultati attesi nonostante gli investimenti di tempo e risorse considerevoli.

Nel campo della ricerca scientifica, l’apprendimento automatico è stato utilizzato come strategia per affrontare il crescente carico di lavoro correlato all’aumento della letteratura biomedica. Tuttavia, anche se ci sono stati miglioramenti grazie all’utilizzo di set di dati di addestramento, l’apprendimento automatico non è ancora stato sufficientemente sviluppato per ridurre il carico di lavoro senza compromettere la sensibilità necessaria per la ricerca e l’analisi dei risultati stessi.

È importante riconoscere le limitazioni dell’apprendimento automatico e lavorare per affrontare le sfide che ne derivano, come l’acquisizione di dati di qualità, la selezione adeguata degli algoritmi e la valutazione rigorosa dei modelli, al fine di ottenere risultati affidabili e raggiungere gli obiettivi desiderati.

Etica nel Machine Learning

L’apprendimento automatico solleva una serie di questioni etiche. I sistemi addestrati su set di dati che riflettono pregiudizi possono mostrare tali pregiudizi durante l’utilizzo, contribuendo a una forma di bias algoritmico che perpetua i pregiudizi culturali. Ad esempio, nel caso della St. George’s Medical School nel Regno Unito nel 1988, un programma di apprendimento automatico addestrato su dati di ammissione precedenti ha escluso erroneamente quasi 60 candidati che erano donne o avevano nomi non europei.

L’utilizzo di dati sulle assunzioni passate di un’azienda con politiche di assunzione razziste può portare a un sistema di apprendimento automatico che riproduce quei pregiudizi assegnando punteggi ai candidati in base alla somiglianza con i candidati di successo precedenti. Pertanto, la raccolta responsabile dei dati e la documentazione delle regole algoritmiche utilizzate sono fondamentali nell’apprendimento automatico.

Inoltre, l’intelligenza artificiale può essere ben attrezzata per prendere decisioni in campi tecnici che si basano su dati e informazioni storiche. Tuttavia, poiché le lingue umane contengono pregiudizi, le macchine addestrate su sistemi linguistici inevitabilmente imparano anche tali pregiudizi.

Al di là dei pregiudizi personali, ci sono anche altre sfide etiche nell’uso dell’apprendimento automatico, soprattutto nel campo dell’assistenza sanitaria. Vi è preoccupazione tra gli operatori sanitari che questi sistemi potrebbero essere progettati non nell’interesse del pubblico, ma come strumenti per generare profitto.

Ad esempio, gli algoritmi potrebbero essere progettati per prescrivere test o farmaci non necessari in cui i proprietari dell’algoritmo hanno interessi finanziari. Sebbene l’apprendimento automatico possa offrire agli operatori sanitari uno strumento aggiuntivo per diagnosticare, curare e pianificare il recupero dei pazienti, è fondamentale mitigare tali preoccupazioni etiche al fine di garantire che l’uso dei modelli sia in linea con gli interessi e il benessere dei pazienti.

Xi Jinping a Bill Gates: Usa, siete i benvenuti

Il Presidente cinese Xi Jinping, in un recente incontro con Bill Gates, ha espresso il suo benvenuto alle aziende tecnologiche statunitensi, inclusa Microsoft, per l’introduzione della loro tecnologia AI in Cina. Questa dichiarazione arriva nonostante le tensioni tra Stati Uniti e Cina siano attualmente al loro punto più basso in decenni, con l’IA che rappresenta un punto critico nel conflitto.

Nel corso dell’incontro, svoltosi a Pechino, Xi ha discusso dello sviluppo del business di Microsoft in Cina. Gates, che ha cofondato Microsoft e si è ritirato dal consiglio di amministrazione dell’azienda nel 2020 per concentrarsi su opere filantropiche legate alla salute globale, all’istruzione e al cambiamento climatico, non ha rilasciato commenti sull’incontro.

L’incontro tra Xi e Gates giunge in un momento in cui le relazioni tra Stati Uniti e Cina sono estremamente tese. Gli Stati Uniti hanno varato una serie di controlli all’esportazione mirati a limitare lo sviluppo dell’IA in Cina, mentre la Cina ha creato preoccupazione nella comunità imprenditoriale estera con una stretta sulle consulenze e un divieto di alcune vendite in Cina da parte del produttore di chip statunitense Micron.

Microsoft, che sostiene OpenAI e il suo chatbot ChatGPT, ha una presenza significativa in Cina da oltre 30 anni e possiede un grande centro di ricerca nel Paese. Il suo portale Bing è l’unico motore di ricerca straniero accessibile dalla Cina, sebbene i risultati di ricerca su argomenti sensibili siano censurati.

Nonostante ciò, Microsoft ha affrontato problemi in Cina negli ultimi anni a causa del crescente controllo del Paese sul settore di Internet. Nel 2021, l’azienda ha ritirato LinkedIn China, sostituendolo con una versione semplificata focalizzata esclusivamente sui lavori. Ha inoltre annunciato a maggio che avrebbe chiuso anche quest’app in Cina, citando una feroce concorrenza e sfide macroeconomiche, ma ha dichiarato che manterrà una presenza nel Paese.

Pak-Da. Il bombardiere invisibile russo

Il 7 giugno 2023, l’onorevole James Heappey, Ministro di Stato per le Forze Armate del Regno Unito, ha inviato una lettera a Tobias Ellwood, Presidente del Comitato Selezionato per la Difesa, offrendo approfondimenti sulla flotta di bombardieri pesanti russi e sul suo arsenale nucleare.

Nella sua missiva, Heappey ha posto l’accento sulla prontezza dei bombardieri russi, sostenendo che la Russia mantiene un certo numero di aeromobili da bombardamento in costante prontezza operativa in diverse basi aeree sparse per il paese. Ha inoltre sottolineato che, nonostante alcuni di questi bombardieri siano impegnati nel conflitto in corso in Ucraina, è “altamente improbabile che ciò influenzi significativamente la prontezza nucleare o le capacità di risposta della Russia”.

Interrogato sulle cifre, Heappey ha indicato che la Russia dispone di circa 80 aerei, per lo più Tu-95 BEAR e Tu-22 BACKFIRE, sotto il comando dell’Aviazione a Lungo Raggio (LRA). Ha inoltre rivelato: “La Russia ha anche circa 10 ciascuno di Tu-160 BLACKJACK e MiG-31 FOXHOUND“. In particolare, il MiG-31 FOXHOUND è incaricato di trasportare il missile balistico ipersonico AS-24 KILLJOY lanciato da aria, uno delle cosiddette armi “invincibili” annunciate dal presidente Putin nel 2018.

Heappey ha affrontato anche la questione della nuova produzione e modernizzazione degli aerei da bombardamento. Ha affermato che la Russia probabilmente nutre l’intenzione di “costruire nuovi e modernizzare i correnti telai TU-160 BLACKJACK“. Tuttavia, ha avvertito che a causa di problemi economici e di approvvigionamento derivanti dal conflitto in Ucraina, qualsiasi progetto di modernizzazione potrebbe subire ritardi.

Per quanto riguarda lo sviluppo di un bombardiere stealth, Heappey ha rivelato: “La Russia ha annunciato la sua intenzione di produrre un bombardiere stealth, chiamato PAK-DA“. Ha paragonato il design al bombardiere strategico B-2 degli Stati Uniti e ha suggerito che un prototipo potrebbe essere vicino al completamento. Tuttavia, Heappey ha mantenuto un tono cauto, affermando che c’è “poco a corroborare ciò” e che le sanzioni e gli eventi militari in corso in Ucraina potrebbero imporre ulteriori ritardi.

Israele e le demolizioni delle case per ritorsione. Ma serve davvero?

I soldati israeliani hanno raso al suolo la casa di Eslam Froukh, un palestinese accusato di aver compiuto un paio di attentati mortali alla fermata dell’autobus di Gerusalemme l’anno scorso. Subito dopo che sono scoppiate le esplosioni in questo quartiere normalmente tranquillo del centro di Ramallah, sono scoppiati scontri tra palestinesi e soldati israeliani.

GUARDA IL VIDEO DELL’ESPLOSIONE DELLA CASA

Israele ha demolito 27 case di sospetti e condannati terroristi dall’inizio del 2022 di cui 10 già quest’anno. Al ritmo attuale, sarebbe il maggior numero di demolizioni dal 2016, la fine del l'”intifada dei coltelli”, quando i palestinesi compirono attacchi mortali usando coltelli, automobili e altre armi non convenzionali.

Israele afferma che le demolizioni di case servono a una più ampia strategia di deterrenza, in un momento in cui gli attacchi terroristici sono di nuovo in aumento.

I palestinesi hanno ucciso almeno 48 persone in Israele e in Cisgiordania nell’ultimo anno e mezzo. Ma alcuni esperti di sicurezza affermano che la strategia è controproducente, in quanto alimenta il ciclo della violenza piuttosto che contenerlo. E i difensori dei diritti umani condannano la pratica come una punizione collettiva e una violazione del diritto internazionale.

Le demolizioni delle case hanno ispirato la rabbia tra i palestinesi, e hanno aumentato le adesioni ad Hamas, Jihad islamica e altri gruppi armati, che spesso si presentano alla porta di famiglie rimaste senza casa, offrendo di pagare per la ricostruzione e ottenere sostegno politico.

L’ex giudice della Corte Suprema israeliana Menachem Mazuz ha affermato che lo scopo della tattica era “placare l’opinione pubblica”, anche se “la leadership è anche consapevole che questo non è ciò che impedirà il prossimo atto di terrore”. Il Dipartimento di Stato americano lo ha definito “controproducente per la causa della pace”.

Mentre il governo israeliano di estrema destra promette di espandere e intensificare la pratica, molti critici affermano che il suo vero scopo non è l’antiterrorismo, ma la demagogia politica, intesa a soddisfare i collegi elettorali che chiedono qualcosa – qualsiasi cosa – in risposta a letali, brutali, attacchi spesso scioccanti.

Danny Yotam, l’ex capo del Mossad, l’agenzia di intelligence israeliana, ha affermato che il paese fa affidamento sull’intelligence, piuttosto che sulla deterrenza, per prevenire futuri attacchi. E mentre è un sostenitore delle demolizioni di case, ha affermato che affinché la pratica funzioni, deve essere applicata con “proporzionalità” – un concetto che secondo lui è assente dall’attuale governo israeliano.

L’opinione

Tutte le situazioni di guerra sono complesse da analizzare, è difficile dire cosa è giusto fare o cosa non è giusto, certo è che bisogna anche analizzare i risultati delle azioni che si portano avanti. Israele, se vuole diminuire gli attacchi da parte delle organizzazioni armate deve anche abbandonare l’idea che la vendetta sia la via giusta.

Da sempre si è vista la veridicità della frase “violenza chiama violenza”.
E’ questo quello a cui dovrebbe pensare Israele, capire che così non si arriva da nessuna parte e che il terrorismo non si fa fermare da azioni di rivalsa.
Il governo israeliano dovrebbe ragionare su questo punto.

I governatorati: cosa sono e come sono nati

I governatorati sono delle suddivisioni amministrative che si trovano in alcuni paesi del mondo, soprattutto in Medio Oriente e in Africa. Il termine governatorato indica sia la carica di governatore, ovvero la durata del mandato stesso, sia il territorio sottoposto alla sua giurisdizione. In genere, i governatori sono nominati dal governo centrale o dal capo dello stato e hanno il compito di rappresentare l’autorità centrale nel territorio assegnato, oltre che di gestire gli affari locali.

La storia dei governatorati risale al periodo coloniale, quando le potenze europee stabilirono delle entità amministrative per controllare i territori conquistati o protetti. Ad esempio, il Governatorato Generale era il nome dato alle colonie francesi in Africa e in Asia. Anche l’Italia usò il termine governatorato per le sue colonie in Africa, come il governatorato della Libia o il governatorato della Somalia.

Dopo la fine del colonialismo, alcuni paesi hanno mantenuto o adottato il sistema dei governatorati per organizzare il proprio territorio. Tra questi, possiamo citare l’Egitto, la Giordania, l’Iraq, il Kuwait, il Qatar, l’Oman, la Siria, lo Stato di Palestina, la Tunisia e lo Yemen. In questi paesi, i governatorati sono il primo livello dei cinque livelli previsti dalla organizzazione dello stato. Un governatorato può essere definito urbano, o misto urbano e rurale³.

I governatorati sono il ramo esecutivo del governo: hanno la responsabilità dello sviluppo locale, controllano i fondi forniti dal governo centrale, gestiscono i piani di sviluppo quinquennali ed anche alcuni fondi di sviluppo locale. Inoltre, i governatorati hanno delle competenze in materia di sicurezza, sanità, istruzione, cultura, ambiente e servizi pubblici. I governatori devono rendere conto al governo centrale delle loro attività e possono essere sostituiti in qualsiasi momento.

I governatorati sono quindi delle realtà importanti per la vita politica e sociale dei paesi che li adottano. Essi rappresentano un punto di equilibrio tra il potere centrale e le esigenze locali, ma anche una fonte di possibili conflitti e tensioni. Infatti, i governatorati possono essere visti come degli intermediari tra il governo e la popolazione, ma anche come degli agenti del governo che impongono le sue decisioni. Inoltre, i governatorati possono essere influenzati da fattori come l’etnia, la religione, la cultura e le risorse naturali presenti nel territorio.

In conclusione, i governatorati sono delle istituzioni che hanno una lunga storia e una grande rilevanza nel mondo contemporaneo. Essi riflettono le dinamiche politiche ed economiche dei paesi che li adottano e possono essere fonte di sviluppo o di instabilità a seconda dei casi.

I maggiori governatorati moderni

  • Governatorati dell’Egitto: sono 27 e si dividono in quattro regioni: Basso Egitto, Alto Egitto, Deserto Occidentale e Penisola del Sinai. Il Cairo è il governatorato più popoloso e più importante dal punto di vista politico ed economico.
  • Governatorati della Giordania: sono 12 e si suddividono in tre regioni: Nord, Centro e Sud. Amman è il governatorato più popoloso e la capitale del paese.
  • Governatorati dell’Iraq: sono 19 e si estendono dal confine con la Turchia a quello con l’Arabia Saudita. Baghdad è il governatorato più popoloso e la capitale del paese.
  • Governatorati del Kuwait: sono 6 e si trovano lungo la costa del Golfo Persico. Al Asimah è il governatorato più popoloso e comprende la città di Kuwait City, la capitale del paese.
  • Governatorati del Qatar: sono 8 e si distribuiscono nella penisola omonima. Ad Dawhah è il governatorato più popoloso e comprende la città di Doha, la capitale del paese.
  • Governatorati dell’Oman: sono 11 e si estendono dalla costa del Golfo di Oman a quella del Mar Arabico. Masqaṭ è il governatorato più popoloso e comprende la città di Muscat, la capitale del paese.
  • Governatorati della Siria: sono 14 e si dividono in due regioni: Siria occidentale e Siria orientale. Damasco è il governatorato più popoloso e la capitale del paese.
  • Governatorati dello Stato di Palestina: sono 16 e si suddividono in due aree: Cisgiordania e Striscia di Gaza. Ramallah e al-Bireh è il governatorato più popoloso della Cisgiordania, mentre Gaza è il governatorato più popoloso della Striscia di Gaza.
  • Governatorati della Tunisia: sono 24 e si distribuiscono lungo la costa mediterranea e nell’entroterra. Tunisi è il governatorato più popoloso e la capitale del paese.
  • Governatorati dello Yemen: sono 22 e si estendono dalla costa del Mar Rosso a quella del Golfo di Aden. Sanʿāʾ è il governatorato più popoloso e la capitale del paese.

Iran. La situazione secondo l’ISW

L’Institute for the Study of War (ISW) è un’organizzazione di ricerca e analisi senza scopo di lucro con sede negli Stati Uniti, fondata nel 2007. Il suo obiettivo principale è condurre ricerche approfondite e analisi sulle questioni relative alla sicurezza nazionale degli Stati Uniti e ai conflitti internazionali.

L’organizzazione pubblica regolarmente rapporti, pubblicazioni e briefing che sono ampiamente letti e utilizzati dai responsabili politici, dai militari, dagli analisti di sicurezza e dai media per comprendere meglio le dinamiche e le implicazioni delle crisi internazionali.

Apertura verso i negoziati

Secondo fonti ufficiali, alti funzionari iraniani stanno attivamente promuovendo la possibilità di riprendere i negoziati sul nucleare con gli Stati Uniti. Si spera che un accordo possa portare benefici economici significativi all’Iran, che ha subito pesanti sanzioni internazionali a causa delle sue attività nucleari. La ripresa dei negoziati potrebbe aprire la strada alla revoca delle sanzioni e a maggiori opportunità commerciali per l’economia iraniana.

Tuttavia, nel frattempo, le forze di sicurezza iraniane stanno intensificando i loro sforzi per scoraggiare i cittadini dal tenere cerimonie di commemorazione per Mahsa Amini, una giovane donna che è stata uccisa durante le proteste antigovernative dello scorso anno. L’uso della violenza da parte delle forze di sicurezza contro i cittadini innocenti potrebbe innescare ulteriori tensioni e riacendere le proteste contro il regime.

Attività iraniane in Iraq

L’11 giugno il Parlamento iracheno ha votato il bilancio federale 2023-2025. Il Parlamento ha tenuto quattro sessioni tra l’8 e l’11 giugno per votare gli articoli del bilancio proposto. I notiziari iracheni non hanno ancora comunicato quale sia l’intero budget.

Il CTP (Critical Threats Project) ha valutato in precedenza che le Forze di mobilitazione popolare (PMF) sono pronte a ottenere un aumento significativo dei fondi, probabilmente consentendo ai suoi membri di rafforzare lo status del PMF come istituzione di sicurezza parallela ai servizi di sicurezza dello stato iracheno. Una bozza del bilancio dell’aprile 2023 ha mostrato che il PMF e i ministeri affiliati dovrebbero ricevere alcuni dei maggiori aumenti di bilancio nel bilancio 2023-2025. La bozza indica che il budget totale del PMF aumenterebbe di circa 458 milioni di dollari e quasi raddoppierebbe il numero di dipendenti sotto il PMF da 122.000 a 238.075 dipendenti.

Affari interni iraniani

I funzionari iraniani stanno promuovendo rapporti sulla ripresa dei negoziati sul nucleare con gli Stati Uniti che potrebbero generare benefici a breve termine per l’economia iraniana. Il leader supremo Ali Khamenei ha espresso sostegno a un accordo nucleare che preservi le capacità nucleari iraniane in un discorso pubblicizzato l’11 giugno.

Il portavoce del ministero degli Esteri Nasser Kanani e Mohammad Marandi, un consigliere della squadra di negoziazione nucleare dell’amministrazione Raisi, hanno separatamente amplificato questi rapporti confermando il 12 giugno che gli Stati Uniti e l’Iran si sono impegnati in negoziati nucleari indiretti in Oman nelle ultime settimane.

Il valore del rial iraniano è aumentato del cinque per cento negli ultimi sei giorni, una linea di tendenza che i media iraniani hanno inquadrato come risposta alle notizie sulla ripresa dei colloqui sul nucleare. I media occidentali, israeliani e iraniani hanno sempre più riferito che gli Stati Uniti e l’Iran stanno discutendo un accordo provvisorio che include lo sblocco dei beni iraniani.

Le forze di sicurezza iraniane stanno tentando di scoraggiare i cittadini dal tenere cerimonie di commemorazione per i manifestanti di Mahsa Amini che sono stati uccisi, il che sottolinea la preoccupazione del regime che queste cerimonie possano innescare rinnovati disordini anti-regime. Gli utenti dei social media hanno accusato le forze di sicurezza di aver profanato le tombe di tre manifestanti di Mahsa Amini l’8 e il 10 giugno. Il fratello di Mahsa Amini, Ashkan Amini, aveva precedentemente suggerito che il regime avesse profanato la tomba di sua sorella il 23 maggio. Le forze di sicurezza hanno arrestato separatamente almeno 30 persone che si erano radunate presso il cimitero di Aichi a Saghez, nella provincia del Kurdistan, il 9 giugno per protestare contro i presunti tentativi del comune di Saghez di “nascondere la tomba di Mahsa Amini”.

La rinnovata violenza delle forze di sicurezza contro cittadini innocenti potrebbe rilanciare le proteste contro il regime. Le forze di sicurezza hanno sparato e ucciso un bambino di nove anni dopo che suo padre aveva rubato un’auto a Shoushtar, nella provincia del Khuzestan, il 10 giugno.

La violenza indiscriminata del regime nei confronti dei suoi cittadini, bambini in particolare, potrebbe ravvivare gli appelli alla protesta. Una giovane donna della provincia di Semnan ha recentemente dichiarato alla BBC che “negli ultimi mesi sono state perse troppe giovani vite per poter tornare a come erano le cose prima“, dimostrando i persistenti sentimenti anti-regime tra i giovani iraniani. Il regime ha inoltre fallito nell’offrire concessioni politiche e socioculturali all’indomani del movimento Mahsa Amini, rappresentando un’altra possibile scintilla per rinnovati disordini.

I cittadini iraniani hanno precedentemente dimostrato che le tattiche repressive del regime non riescono a reprimere in modo permanente i sentimenti anti-regime.

Apple Vision Pro. Stupisce e impaurisce

Apple Vision Pro è l’introduzione mondiale alla computer vision spaziale. È un dispositivo progettato ed estremamente potente, che supera di gran lunga qualsiasi altro dispositivo VR o di realtà aumentata.

Quando provi effettivamente il visore, lo supera di gran lunga.

Ma sembra che il Vision Pro possa avere un rovescio della medaglia quando si parla di prezzi. Apple dichiara che costa a partire da 3.499 dollari. Sembra molto e in effetti è più di quanto si fosse ipotizzato prima del lancio. Anche se è decisamente costoso, probabilmente è un buon investimento, data la sua potenza ed efficacia.

In altre parole, deve essere considerato come un computer, non come il visore VR che le altre aziende stanno producendo. Un problema non da poco è la mancanza di spazio per indossare gli occhiali da vista sotto il visore, quindi chi porta gli occhiali dovrà trovare un modo diverso per vedere i display microOLED con una chiarezza perfetta.

Ciò si ottiene attraverso lenti a contatto correttive che però molti non sopportano. Apple ha detto che si attaccano magneticamente al Vision Pro, ma non ha dato alcun indizio sui prezzi.

Il prezzo del Vision Pro potrebbe superare i 4.000 dollari, anche prima di aggiungere altri accessori o memoria aggiuntiva (se tale personalizzazione fosse possibile).

La paura della realtà aumentata

La paura della realtà aumentata (RA) e della sua potenziale estraneazione dalla realtà che molti stanno esternando sui social può essere compresa considerando diversi fattori psicologici, sociali e tecnologici.

Ecco alcune ragioni comuni per cui alcune persone possono provare questa paura:

1. Perdita del contatto con la realtà: La realtà aumentata sovrappone elementi digitali al mondo reale, creando un’esperienza ibrida. Alcune persone possono temere che questa sovrapposizione possa distorcere la loro percezione della realtà e creare una sorta di disconnessione con il mondo reale. Questa preoccupazione si basa sulla paura che la realtà aumentata possa creare una sorta di “realtà virtuale” in cui sia difficile distinguere tra ciò che è reale e ciò che è falso.

2. Dipendenza dalla tecnologia: L’avanzamento delle tecnologie come la realtà aumentata può portare a una maggiore dipendenza dagli strumenti digitali. Alcune persone temono che l’uso eccessivo della realtà aumentata possa distogliere l’attenzione dalla vita reale, creando una sorta di dipendenza o alienazione da ciò che sta accadendo attorno a loro.

3. Privacy e sicurezza: La realtà aumentata coinvolge la raccolta di dati personali, inclusa la localizzazione e le preferenze personali. Alcune persone possono temere che l’uso diffuso della realtà aumentata possa minare la loro privacy e la sicurezza dei dati personali. La possibilità di essere costantemente monitorati o di avere informazioni personali accessibili può generare preoccupazioni legittime.

4. Impatto sociale: L’introduzione diffusa della realtà aumentata potrebbe portare a cambiamenti significativi nella vita quotidiana e nelle interazioni sociali. Alcune persone potrebbero preoccuparsi che l’uso eccessivo della realtà aumentata possa isolare le persone e compromettere le connessioni sociali reali. L’interazione faccia a faccia potrebbe diminuire, creando una società in cui le persone preferiscono l’interazione digitale a quella reale.

5. Effetti sulla salute mentale: L’uso eccessivo della realtà aumentata potrebbe anche avere un impatto sulla salute mentale. Alcune persone potrebbero temere che l’immersione costante in un mondo digitale possa portare a problemi come l’ansia, la depressione o l’isolamento sociale.

È importante notare che queste paure possono variare da persona a persona e che l’accettazione o il rifiuto della realtà aumentata dipende da fattori individuali e culturali. Mentre alcune persone possono essere preoccupate per queste ragioni, altre possono invece abbracciare la realtà aumentata come una forma di innovazione e miglioramento delle esperienze umane.

Quanto queste paure intaccheranno il successo del nuovo visore?

Adversarial AI. Cos’è e come agisce

L’adversarial machine learning è lo studio degli attacchi agli algoritmi di machine learning e delle difese contro tali attacchi.

Per capire cos’è l’Adversarial AI, è importante notare che la maggior parte delle tecniche di apprendimento automatico sono progettate principalmente per funzionare su set di problemi specifici, assumendo che i dati di addestramento e di test siano generati dalla stessa distribuzione statistica (IID). Tuttavia, questo presupposto viene spesso pericolosamente violato nelle applicazioni pratiche ad alto rischio, in cui gli utenti possono intenzionalmente fornire dati che violano il presupposto statistico.

Alcuni degli attacchi più comuni nell’apprendimento automatico adversarial includono attacchi di evasione, attacchi di avvelenamento dei dati, attacchi bizantini ed estrazione di modelli.

Primi passi dell’Adversarial Ai

Nel 2004, Nilesh Dalvi e altri hanno notato che i classificatori lineari utilizzati nei filtri antispam potevano essere elusi da semplici “attacchi di evasione”, in quanto gli spammer inserivano “parole autorizzate” nelle loro e-mail di spam. Nel 2006, Marco Barreno e altri hanno pubblicato “Can Machine Learning Be Secure?”, in cui delineavano una vasta tassonomia di attacchi. Nel 2012, le reti neurali profonde hanno iniziato a dominare i problemi di visione artificiale, ma nel 2014 è stato dimostrato che anche le reti neurali profonde potevano essere ingannate dagli avversari utilizzando attacchi basati sul gradiente per creare perturbazioni avverse.

Recentemente, è stato osservato che gli attacchi contraddittori sono più difficili da produrre nel mondo reale a causa dei diversi vincoli ambientali che annullano l’effetto. Ad esempio, anche una piccola rotazione o una leggera variazione nell’illuminazione di un’immagine può rendere inefficace l’attacco. Alcuni ricercatori ritengono che sia più facile far mancare i segnali di stop alle auto a guida autonoma fisicamente, anziché creare esempi contraddittori. Suggeriscono che sia necessario esplorare un nuovo approccio all’apprendimento automatico, lavorando su reti neurali con caratteristiche più simili alla percezione umana.

Sebbene l’adversarial machine learning sia ancora ampiamente radicato nel mondo accademico, importanti aziende tecnologiche come Google, Microsoft e IBM hanno iniziato a fornire documentazione e basi di codice open source per consentire ad altri di valutare concretamente la solidità dei modelli di machine learning e ridurre al minimo il rischio di attacchi.

Esempi di uso

Gli esempi includono attacchi al filtro antispam, in cui i messaggi spam vengono offuscati attraverso l’ortografia errata di parole “cattive” o l’inserimento di parole “buone”. Attacchi alla sicurezza informatica, come l’offuscamento del codice malware all’interno dei pacchetti di rete o la modifica delle caratteristiche di un flusso di rete per ingannare la rilevazione delle intrusioni, attacchi al riconoscimento biometrico, in cui falsi tratti biometrici possono essere utilizzati per impersonare un utente legittimo o compromettere i modelli di riconoscimento biometrico degli utenti.

I ricercatori hanno dimostrato che modificando anche solo un singolo pixel era possibile ingannare gli algoritmi di deep learning. Altri esperimenti hanno coinvolto la stampa 3D di una tartaruga giocattolo con una texture progettata per farla classificare come un fucile dagli algoritmi di rilevamento degli oggetti di Google, indipendentemente dall’angolazione da cui veniva osservata la tartaruga. La creazione di tale tartaruga richiedeva solo una stampante 3D economica disponibile in commercio.

È stato dimostrato che un’immagine di un cane “ottimizzata” dall’algoritmo può sembrare un gatto sia per i computer che per gli esseri umani. Uno studio del 2019 ha rilevato che le persone possono indovinare come le macchine classificheranno le immagini contraddittorie. I ricercatori hanno scoperto metodi per confondere l’aspetto di un segnale di stop in modo che un veicolo autonomo lo classifichi come un segnale di limite di velocità.

Un attacco contro il sistema Mobileye di Tesla ha indotto l’auto a guidare a 80 Km orari oltre il limite di velocità, semplicemente aggiungendo una striscia di nastro nero da due pollici a un segnale di limite di velocità. Modelli contraddittori su occhiali o abbigliamento progettati per ingannare i sistemi di riconoscimento facciale o i lettori di targhe hanno portato all’emergere di un’industria di “stealth streetwear”.

Un attacco su una rete neurale può consentire a un utente malintenzionato di iniettare algoritmi nel sistema di destinazione. I ricercatori possono anche creare input audio contraddittori per mascherare comandi agli assistenti intelligenti in un audio apparentemente innocuo, esiste una ricerca parallela sull’impatto di tali stimoli sulla percezione umana.

Gli algoritmi di clustering sono utilizzati nelle applicazioni di sicurezza per analizzare malware e virus informatici, al fine di identificare le famiglie di malware e generare firme di rilevamento specifiche.

Modalità di attacco con l’Adversarial Ai

Tassonomia

Gli attacchi contro gli algoritmi di apprendimento automatico supervisionato possono essere classificati lungo tre assi principali: influenza sul classificatore, violazione della sicurezza e specificità.

L’influenza sul classificatore si riferisce alla capacità di un attacco di interrompere la fase di classificazione del modello. Prima di eseguire l’attacco, potrebbe essere necessaria una fase di esplorazione per identificare le vulnerabilità del sistema. Tuttavia, l’aggressore potrebbe essere limitato da vincoli che impediscono la manipolazione completa dei dati.

La violazione della sicurezza si verifica quando un attacco introduce dati dannosi che vengono erroneamente classificati come legittimi. Ad esempio, durante la fase di addestramento, l’introduzione di dati dannosi può portare al rifiuto di dati legittimi dopo l’addestramento.

La specificità di un attacco indica se l’obiettivo dell’attaccante è una specifica intrusione o interruzione del sistema, oppure se si mira a creare un caos generale senza un obiettivo specifico.

Questa tassonomia è stata estesa in un modello di minaccia più completo che considera l’obiettivo dell’avversario, la conoscenza del sistema attaccato, la capacità di manipolare i dati di input o i componenti del sistema e la strategia di attacco.

Inoltre, questa tassonomia è stata ulteriormente sviluppata per includere le dimensioni delle strategie di difesa contro gli attacchi avversari.

Avvelenamento dei dati

L’avvelenamento da dati si riferisce all’atto di contaminare intenzionalmente il set di dati di addestramento con dati dannosi o manipolati al fine di compromettere le prestazioni degli algoritmi di apprendimento automatico. Poiché gli algoritmi di apprendimento si basano sui dati di addestramento per creare i loro modelli, l’avvelenamento può influenzare in modo significativo il comportamento degli algoritmi e potenzialmente riprogrammarli con intenti dannosi.

Ci sono preoccupazioni particolari riguardo ai dati di addestramento generati dagli utenti, ad esempio nei sistemi di raccomandazione di contenuti o nei modelli di linguaggio naturale. L’ampia presenza di account falsi sui social media offre molte opportunità per l’avvelenamento dei dati. Ad esempio, Facebook ha comunicato che rimuove circa 7 miliardi di account falsi ogni anno. L’avvelenamento dei dati è stato identificato come una delle principali preoccupazioni nelle applicazioni industriali.

Nel contesto dei social media, le campagne di disinformazione mirano a influenzare gli algoritmi di raccomandazione e moderazione per favorire determinati contenuti rispetto ad altri.

Un caso particolare di avvelenamento dei dati è rappresentato dall’attacco backdoor, che mira ad addestrare un algoritmo in modo che mostri un comportamento specifico solo quando si presenta un determinato trigger, come un piccolo difetto in immagini, suoni, video o testi.

Ad esempio, nei sistemi di rilevamento delle intrusioni, che vengono spesso addestrati utilizzando dati raccolti, un utente malintenzionato può avvelenare i dati inserendo campioni dannosi durante l’operazione che successivamente interrompono il processo di riaddestramento degli algoritmi.

Attacchi bizantini

Negli scenari in cui l’apprendimento automatico viene distribuito su più computer, come nel caso dell’apprendimento collaborativo, i dispositivi perimetrali collaborano inviando gradienti o parametri del modello a un server centrale. Tuttavia, alcuni di questi dispositivi possono deviare dal comportamento previsto e agire in modo malevolo al fine di danneggiare il modello del server centrale o influenzare gli algoritmi verso comportamenti indesiderati, come l’amplificazione di contenuti disinformativi.

D’altro canto, se l’addestramento viene eseguito su una singola macchina, questa diventa un punto di vulnerabilità critico in caso di guasto o attacco. In effetti, il proprietario della macchina potrebbe anche inserire un backdoor che è difficilmente rilevabile.

Attualmente, le soluzioni principali per rendere gli algoritmi di apprendimento (distribuiti) resilienti contro una minoranza di partecipanti malevoli, noti come partecipanti bizantini, si basano su robuste regole di aggregazione del gradiente. Tuttavia, queste regole di aggregazione non sempre funzionano, specialmente quando i dati tra i partecipanti non hanno una distribuzione indipendente e identicamente distribuita. Inoltre, nel contesto di partecipanti onesti ma eterogenei, come utenti con diverse abitudini di consumo per gli algoritmi di raccomandazione o stili di scrittura per i modelli linguistici, esistono teoremi di impossibilità dimostrabili che stabiliscono limiti su ciò che qualsiasi algoritmo di apprendimento può garantire.

Evasione

Gli attacchi di evasione consistono nell’utilizzare le imperfezioni di un modello addestrato per eludere il suo funzionamento. Ad esempio, gli spammer e gli hacker spesso cercano di eludere i sistemi di rilevamento offuscando il contenuto delle e-mail di spam e del malware. Vengono apportate modifiche ai campioni in modo che vengano classificati come legittimi, senza influenzare i dati di addestramento. Un esempio chiaro di evasione è lo spam basato su immagini, in cui il contenuto dello spam è incorporato in un’immagine allegata per evitare l’analisi testuale da parte dei filtri antispam. Un altro esempio di evasione è rappresentato dagli attacchi di spoofing ai sistemi di verifica biometrica.

Gli attacchi di evasione possono essere generalmente suddivisi in due categorie: attacchi scatola nera e attacchi scatola bianca (black box e white box in inglese, nome usato più comunemente). Gli attacchi scatola nera si basano solo sull’output del modello senza avere conoscenza interna sul suo funzionamento interno. Gli attacchi scatola bianca, invece, presuppongono una conoscenza completa del modello, inclusi i suoi parametri interni e le sue strutture.

Estrazione del modello

L’estrazione del modello si riferisce all’azione in cui un avversario sonda un sistema di apprendimento automatico a scatola nera per ottenere informazioni sui dati su cui è stato addestrato il modello. Questo può diventare problematico quando i dati di addestramento o il modello stesso sono sensibili e riservati. Ad esempio, l’estrazione del modello potrebbe essere utilizzata per ottenere un modello di trading azionario proprietario che l’avversario potrebbe successivamente utilizzare a proprio vantaggio finanziario.

In casi estremi, l’estrazione del modello può portare al cosiddetto “model stealing” (rubare il modello), che comporta l’estrazione di una quantità sufficiente di dati dal modello per consentire la sua completa ricostruzione.

D’altra parte, l’inferenza dell’appartenenza è un attacco mirato di estrazione del modello che tenta di dedurre il proprietario di un punto dati, spesso sfruttando l’overfitting causato da pratiche di machine learning non corrette. Questo attacco può essere realizzato anche senza la conoscenza o l’accesso ai parametri del modello target, sollevando preoccupazioni sulla sicurezza dei modelli addestrati su dati sensibili, come ad esempio le cartelle cliniche o le informazioni personali identificabili. Con l’aumento del transfer learning e dell’accessibilità pubblica di molti modelli di machine learning all’avanguardia, le aziende tecnologiche sono sempre più interessate a creare modelli basati su quelli pubblici, fornendo agli aggressori informazioni liberamente accessibili sulla struttura e il tipo di modello utilizzato.

Apprendimento per rinforzo profondo contraddittorio

L’apprendimento per rinforzo profondo contraddittorio è un’area di ricerca attiva nell’ambito dell’apprendimento per rinforzo che si concentra sulle vulnerabilità delle politiche apprese. Studi iniziali hanno dimostrato che le politiche apprese nell’apprendimento per rinforzo possono essere soggette a manipolazioni contraddittorie impercettibili. Nonostante siano stati proposti alcuni metodi per affrontare queste vulnerabilità, ricerche più recenti hanno evidenziato che le soluzioni proposte sono lontane dall’offrire una rappresentazione accurata delle attuali vulnerabilità delle politiche di apprendimento profondo per rinforzo. La ricerca in questo campo è in corso per comprendere meglio e affrontare le sfide legate alle vulnerabilità delle politiche apprese nell’apprendimento per rinforzo profondo.

Difese all’Adversarial Ai

I ricercatori hanno proposto un approccio in più fasi per proteggere l’apprendimento automatico dalle minacce avverse. Questo approccio comprende i seguenti passaggi:

  1. Modellazione delle minacce: consiste nel formalizzare gli obiettivi e le capacità degli aggressori rispetto al sistema bersaglio. Si tratta di identificare e comprendere le possibili minacce che potrebbero essere rivolte al sistema di apprendimento automatico.
  2. Simulazione di attacco: in questa fase si formalizza il problema di ottimizzazione che l’aggressore cerca di risolvere, considerando le possibili strategie di attacco che potrebbero essere adottate. Questo aiuta a valutare la robustezza del sistema di apprendimento automatico rispetto a diverse minacce.
  3. Valutazione dell’impatto dell’attacco: si analizza l’impatto che un attacco potrebbe avere sul sistema di apprendimento automatico, valutando le possibili conseguenze in termini di prestazioni e affidabilità.
  4. Progettazione di contromisure: in questa fase si sviluppano strategie e tecniche di difesa per mitigare le minacce identificate. Queste contromisure possono includere l’implementazione di algoritmi di apprendimento, la verifica dell’integrità dei dati di addestramento, la rilevazione degli attacchi e altre tecniche di sicurezza.
  5. Rilevamento del rumore (per attacchi basati sull’evasione): quando si affrontano attacchi di evasione, è possibile utilizzare metodi di rilevamento del rumore per identificare le modifiche apportate ai dati di input al fine di eludere il sistema di apprendimento automatico.
  6. Riciclaggio di informazioni (per attacchi di furto di modelli): quando si affrontano attacchi di furto di modelli, si possono adottare strategie per alterare le informazioni ricevute dagli avversari, in modo che non siano in grado di ottenere una replica esatta del modello originale.

Questo approccio in più fasi mira a migliorare la sicurezza e la robustezza del sistema di apprendimento automatico contro le minacce avverse.

Regno Unito. Stop alle telecamere di sorveglianza cinesi

Il governo del Regno Unito fisserà una scadenza per la rimozione delle telecamere di sorveglianza made in China dai “siti sensibili”.

La notizia della scadenza non molto imminente è arrivata con la pubblicazione degli emendamenti proposti al Procurement Bill – legislazione che riformerà molti aspetti delle pratiche del governo britannico per l’acquisto di beni.

Gli emendamenti proposti includono una clausola che richiede la “rimozione dalla catena di approvvigionamento di apparecchiature di sorveglianza fisica prodotte da società soggette alla legge sull’intelligence nazionale della Repubblica popolare cinese”.

Entro sei mesi dall’approvazione del disegno di legge il Segretario di Stato britannico è tenuto a informare il Parlamento di una tempistica per la rimozione del kit incriminato.

Gli emendamenti proposti al disegno di legge includono l’istituzione di una “Unità di sicurezza nazionale per gli appalti”. Con sede presso l’Ufficio di Gabinetto che “indagherà sui fornitori che potrebbero rappresentare un rischio per la sicurezza nazionale e valuterà se le aziende debbano essere escluse dagli appalti pubblici”.

L’ annuncio del Gabinetto dice: “Il team di specialisti lavorerà attraverso il governo, anche collaborando strettamente con le nostre agenzie di intelligence”.

L’unità esaminerà in modo proattivo il panorama dei fornitori “e raccomanderà ai ministri quali fornitori dovrebbero essere indagati per l’esclusione”. Se un ministro raccomanda l’interdizione, i relativi fornitori verranno inseriti in una lista che indica che non devono essere presi in considerazione per alcuni contratti governativi.

Tale processo è delineato in un secondo provvedimento aggiunto al disegno di legge, che creerebbe “Nuovi poteri per interdire i fornitori di settori specifici, come le aree relative alla difesa e alla sicurezza nazionale, consentendo loro di continuare ad aggiudicarsi appalti in aree non sensibili. “

Altri elementi del disegno di legge che probabilmente manterranno occupati i tecnici del governo includono la pubblicazione dei dati sugli appalti pubblici e “un nuovo quadro di esclusione che renderà più facile escludere i fornitori che hanno sottoperformato su altri contratti”.

Le agenzie governative saranno inoltre tenute a pagare gli appaltatori di piccole imprese entro 30 giorni.

È probabile che il programma di rimozione della tecnologia di sorveglianza comporti la rimozione del kit dai produttori cinesi di telecamere a circuito chiuso come Hikvision e Dahua. Gli Stati Uniti e l’Australia hanno già ordinato la rimozione delle camme prodotte in Cina.