13 Novembre 2025
Home Blog Pagina 31

Microsoft. Pericolo antitrust europeo su Teams

Microsoft si offre di interrompere il raggruppamento di app per conferenze Web e messaggistica Teams con il software Office per scongiurare la minaccia di un’indagine antitrust da parte delle autorità di regolamentazione dell’Unione Europea.

Questo è un primo passo positivo verso la parità di condizioni per le aziende in Europa che affermano di essere bloccate dal presunto comportamento anticoncorrenziale di Microsoft. Slack è stata una delle aziende a presentare un reclamo nel 2020 prima di essere acquistata da Salesforce.

Secondo il Financial Times, Microsoft potrebbe separare Teams dalle versioni commerciali delle suite di produttività online fornite con Microsoft 365 o Office 365, anche se le fonti affermano che i colloqui sono in corso e un accordo non è certo.

Nel 2020 , il consigliere generale di Slack David Schellhase ha affermato che Microsoft “illegalmente” ha legato Teams “alla sua suite Office che domina il mercato” per “forzarne l’installazione su milioni di postazioni, bloccarne la rimozione e nascondere il vero costo per i clienti aziendali”.

Il mese scorso i discorsi nel settore indicavano che la Commissione europea avrebbe proceduto con un’indagine ufficiale sulle affermazioni di Slack. “Questo potrebbe aver stimolato Microsoft a pensare di dover risolvere il problema in anticipo“.

La Coalition of Fair Software Licensing ha affermato che la possibile concessione di Microsoft lascia ai clienti “più domande che risposte”.

Tutti gli occhi sono puntati su Microsoft per vedere cosa farà l’azienda per proteggere la scelta dei clienti mentre separa queste due offerte software. Abbiamo visto Microsoft utilizzare tattiche di licenza software restrittive nel cloud per aumentare la dipendenza dei clienti dai suoi prodotti. Due prodotti non sono sufficienti per rispondere alle valide preoccupazioni dei clienti e delle autorità di regolamentazione sulle sue pratiche restrittive di licenza software“.

Nextcloud, con sede in Germania, è un fornitore di piattaforme di collaborazione in loco, ha presentato due denunce alla Commissione europea nel 2021 per il raggruppamento di servizi online di Microsoft, in particolare OneDrive, con il sistema operativo Windows.

Il mese scorso è emerso che l’antitrust tedesco stava indagando su Microsoft a causa delle dimensioni del portafoglio della società che comprende sistemi operativi, applicazioni, servizi cloud, giochi e social media.

Microsoft in precedenza aveva anche attirato l’attenzione delle autorità di regolamentazione europee a seguito di reclami sulle sue pratiche di licenza software nel cloud, ma il mese scorso ha raggiunto un accordo con OVHcloud, Aruba Spa e la Danish Cloud Community. Ha concluso accordi con queste tre società in modo che ritirassero le loro denunce.

Questo, secondo una fonte legata al mercato del cloud, fa parte del problema. “Tutti gli accordi sembrano essere segreti, quindi nessuno può sapere quale sia l’accordo, quando accadrà o chi influenzerà. Questo è un campanello d’allarme perché tutti e tre i reclami riguardavano questioni che avevano implicazioni a livello di settore e di veridicità, ma senza un’adeguata controllo che può sapere se i problemi sono risolti.

È quasi come se Microsoft non avesse imparato nulla dalle sue precedenti battaglie giudiziarie antitrust.

Dominic Raab si dimette dopo un’inchiesta sul bullismo

Dominic Raab ha annunciato le sue dimissioni da ministro della giustizia e vice primo ministro del Regno Unito, a seguito di un’inchiesta che lo ha accusato di bullismo nei confronti di alcuni dipendenti. L’inchiesta, durata cinque mesi, era stata avviata dal primo ministro Rishi Sunak dopo aver ricevuto delle lamentele sul comportamento di Raab come ministro.

In una lettera a Sunak, Raab ha detto che si sarebbe dimesso se l’inchiesta avesse trovato qualsiasi prova di bullismo da parte sua. Ha aggiunto che l’inchiesta ha respinto tutte le accuse tranne due, che lui ritiene “errate” e “pericolose per il buon governo”. Il rapporto dell’inchiesta, redatto dall’avvocato Adam Tolley KC, non è ancora stato reso pubblico dal governo.

Raab era uno dei principali sostenitori di Sunak durante la corsa alla leadership del Partito Conservatore lo scorso anno. La sua uscita dal governo costringerà il primo ministro a nominare un nuovo ministro della giustizia. Tolley aveva esaminato otto denunce di bullismo contro Raab, che erano state presentate durante i suoi precedenti incarichi come ministro della giustizia, degli esteri e della Brexit sotto i governi di Boris Johnson e Theresa May.

Sunak è stato criticato per non aver chiarito cosa sapesse delle accuse prima di riconfermare Raab nel suo gabinetto.

Tra le accuse respinte da Tolley, c’era quella di aver urlato contro un dipendente del Foreign Office durante una visita in Canada nel 2019. Un’altra accusa riguardava il fatto che Raab avesse chiesto a un membro del suo staff di fare il suo bucato durante una visita in Cina nel 2018.

Tra le accuse accettate da Tolley, invece, c’era quella di aver fatto pressioni su un dipendente per farlo dimettere dopo aver scoperto che aveva una malattia cronica. Un’altra accusa riguardava il fatto che Raab avesse usato un linguaggio offensivo e intimidatorio nei confronti di un altro dipendente.

Raab ha negato tutte le accuse e ha detto di essere stato vittima di una “campagna diffamatoria” orchestrata da alcuni funzionari ostili alla Brexit. Ha anche detto di aver sempre trattato i suoi collaboratori con rispetto e professionalità.

Raab è stato uno dei leader della campagna per la Brexit nel 2016 e ha ricoperto diversi ruoli chiave nel governo britannico. Prima di diventare ministro della giustizia e vice primo ministro, era stato ministro degli esteri per due anni e mezzo. In precedenza, era stato ministro della Brexit per quattro mesi, prima di dimettersi in disaccordo con l’accordo raggiunto da Theresa May con l’Unione Europea.

Raab è noto per essere un esperto di karate e per avere una laurea in legge da Oxford e un master da Cambridge. Ha anche lavorato come avvocato per i diritti umani prima di entrare in politica.

Cos’è l’Intelligenza Artificiale e un esempio di utilizzo industriale

L’intelligenza artificiale (IA) è la scienza e l’ingegneria di creare macchine intelligenti, specialmente programmi informatici intelligenti. Un programma intelligente è in grado di svolgere compiti e risolvere problemi che normalmente richiedono l’intelligenza umana, come il ragionamento, l’apprendimento, la pianificazione e la creatività.

Un sistema di IA è in grado di percepire il proprio ambiente, elaborare i dati ricevuti, risolvere problemi e agire verso un obiettivo specifico. Inoltre, un sistema di IA è in grado di apprendere dai propri errori e di adattare il proprio comportamento in base ai risultati ottenuti.

L’IA può essere classificata in base al grado di somiglianza con il comportamento umano o con un comportamento ideale, detto razionale. Si parla quindi di:

  • IA che agisce come gli esseri umani: il risultato dell’operazione compiuta dal sistema intelligente non è distinguibile da quello svolto da un umano.
  • IA che pensa come gli esseri umani: il processo che porta il sistema intelligente a risolvere un problema ricalca quello umano. Questo approccio è associato alle scienze cognitive.
  • IA che pensa razionalmente: il processo che porta il sistema intelligente a risolvere un problema è un procedimento formale che si rifà alla logica.
  • IA che agisce razionalmente: il processo che porta il sistema intelligente a risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione³.

L’IA ha molte applicazioni in diversi ambiti, come la medicina, l’industria, l’istruzione, la sicurezza, l’intrattenimento e altri. Alcuni esempi di IA nella vita di tutti i giorni sono:

  • I motori di ricerca online, che usano l’IA per fornire i risultati più pertinenti in base ai dati forniti dagli utenti.
  • Gli assistenti virtuali personali, come Siri o Cortana, che usano l’IA per rispondere alle domande, fornire suggerimenti e aiutare a organizzare l’agenda degli utenti.
  • I sistemi di riconoscimento facciale e vocale, che usano l’IA per identificare le persone o interpretare i comandi vocali.
  • I robot, i veicoli autonomi e i droni, che usano l’IA per muoversi e manipolare oggetti nell’ambiente.
  • L’internet delle cose, che usa l’IA per connettere e controllare dispositivi intelligenti tra loro.

L’IA è una disciplina in continua evoluzione e presenta sia vantaggi che rischi per la società. Tra i vantaggi ci sono la possibilità di migliorare la qualità della vita, la produttività, l’innovazione e la competitività. Tra i rischi ci sono la perdita di posti di lavoro, la violazione della privacy, la discriminazione, la manipolazione e la minaccia per la sicurezza.

Per questo motivo, l’UE ha stabilito dei principi etici e delle linee guida per lo sviluppo e l’uso dell’IA, basati sui valori fondamentali della dignità umana, della libertà, della democrazia, dell’uguaglianza, dello stato di diritto e del rispetto dei diritti umani. L’obiettivo è quello di promuovere un’IA responsabile, trasparente e affidabile.

Un esempio di utilizzo di intelligenza artificiale in ambito industriale è quello dell’agricoltura intelligente. L’IA è usata per identificare i difetti e le carenze nutrizionali nel terreno, usando tecniche di visione artificiale, robotica e apprendimento automatico. La visione artificiale consiste nell’elaborazione di immagini digitali catturate da sensori o telecamere, per riconoscere oggetti, forme, colori e altre caratteristiche. La robotica consiste nell’uso di macchine automatizzate che possono muoversi e manipolare oggetti nell’ambiente.

L’apprendimento automatico consiste nell’uso di algoritmi che possono imparare dai dati e migliorare le proprie prestazioni senza essere esplicitamente programmati. L’IA può anche analizzare dove crescono le erbacce e aiutare a raccogliere i raccolti con maggiore volume e velocità rispetto ai lavoratori umani. In questo modo, l’IA può contribuire a ottimizzare la produzione agricola, ridurre i costi e aumentare la qualità dei prodotti.

Un altro esempio di utilizzo di intelligenza artificiale in ambito industriale è quello della manutenzione predittiva. L’IA è usata per monitorare lo stato e il funzionamento di macchinari e impianti industriali, usando tecniche di analisi dei dati, sensoristica e internet delle cose. L’analisi dei dati consiste nell’estrazione di informazioni utili da grandi quantità di dati raccolti da diverse fonti.

La sensoristica consiste nell’uso di dispositivi che possono rilevare parametri fisici come temperatura, pressione, vibrazione e altri. L’internet delle cose consiste nella connessione e comunicazione tra dispositivi intelligenti tramite una rete internet. L’IA può anche prevedere eventuali guasti o malfunzionamenti dei macchinari e impianti industriali, usando tecniche di apprendimento automatico e intelligenza artificiale. In questo modo, l’IA può contribuire a prevenire i danni, ridurre i tempi di fermo e aumentare l’efficienza dei processi industriali.

Fonti:

  • Artificial Intelligence Definitions.
  • Artificial intelligence (AI) | Definition, Examples, Types ….
  • What is AI? / Basic Questions – Stanford University.
  • What Is AI Technology and How Is It Used? – Western Governors University.
  • Industrial applications of artificial intelligence and big data. (2023).
  • AI Applications: Top 18 Artificial Intelligence Applications in 2023.

Sudan chiude il proprio spazio aereo

“Chiusura dello spazio aereo sudanese”: lo segnalano al Cairo fonti aeroportuali egiziane mentre si intensificano gli scontri nella capitale del Sudan, Khartoum, tra le forze armate e le forze di supporto rapido (Rsf): per il secondo giorno spari e il rumore dell’artiglieria pesante si sentono nella città, nonostante gli appelli internazionali.


Le forze di supporto rapido hanno dichiarato su Facebook che a Port Sudan sono state attaccate da “aerei stranieri”.
L’esercito sudanese ha detto di avere preso il controllo della più grande base delle Rsf a Karari. Mentre le Rfs affermano di avere abbattuto un aereo Sukhoi dell’esercito. Intanto il consiglio della Lega araba ha indetto una riunione urgente.

Corea del Nord: missile lanciato è sfuggito ai radar giapponesi

Il Giappone non è stato in grado di prevedere con precisione la traiettoria del missile balistico a raggio intermedio lanciato ieri dalla Corea del Nord, perché scomparso dai radar dopo il lancio. 

Lo ha ammesso il portavoce e capo segretario di gabinetto del governo giapponese, Hirokazu Matsuno, che ha così spiegato la breve attivazione dell’allerta aerea nella prefettura settentrionale giapponese di Hokkaido, nonostante il missile sia affondato oltreoceano nelle acque territoriali del Giappone.

Il missile balistico a gittata intermedia testato dalla Corea del Nord, che ha fatto scattare un allarme aereo nella prefettura settentrionale giapponese di Hokkaido, era un missile a propellente solido Hwasong-18 a tre stadi. Lo ha confermato l’agenzia di stampa ufficiale “Korean Central News Agency” (“Kcna”) , aggiungendo che il leader nordcoreano Kim Jong-un ha assistito personalmente al test del missile. L’agenzia ha così confermato le ipotesi formulate dallo stato maggiore congiunto delle forze armate sudcoreane. La Corea del Nord sta da tempo cercando di perfezionare i sistemi di propulsione a propellente solido per i suoi missili balistici, che consentirebbero lanci più rapidi e preparazioni meno complesse.

Il leader della Corea del Nord Kim Jong-un ha detto che il paese rafforzerà il suo arsenale nucleare in un modo più “pratico e offensivo”, durante un incontro con alti funzionari militari per discutere la risposta del Paese alle “frenetiche” esercitazioni militari di Stati Uniti e Corea del Sud. 

Vladlen Tatarsky ucciso da una bomba. Arrestata una donna

La polizia russa ha arrestato una donna sospettata di aver consegnato la bomba che ha ucciso un importante blogger militare russo a favore della guerra durante una festa in un caffè nel centro di San Pietroburgo.

Le autorità russe affermano che Vladlen Tatarsky, il cui vero nome era Maxim Fomin, è stato ucciso dall’esplosione di una bomba mentre ospitava una riunione con altri commentatori a favore della guerra in un caffè sulle rive del fiume Neva, nel centro storico di San Pietroburgo.

I notiziari russi hanno detto che la bomba era nascosta in un busto che raffigurava il blogger che la donna gli aveva regalato pochi istanti prima dell’esplosione. La bomba ha ferito più di 30 persone. Sui media russi circolava un video che sembrava mostrare Tatarsky, microfono in mano, con la statuetta di un soldato con l’elmetto. L’esplosione è avvenuta pochi minuti dopo.

La sospettata: Darya Trepova

La polizia russa ha dichiarato di aver identificato una donna di nome Darya Trepova come sospettata, aggiungendo che è stata arrestata in un appartamento a San Pietroburgo a seguito di una perquisizione. Fonti del ministero dell’Interno hanno riferito all’agenzia di stampa RBK che l’attacco è stato “accuratamente pianificato in anticipo da diverse persone”.

Darya Trepova

Tatarsky, che aveva più di 560.000 follower su Telegram, era uno dei blogger militari più influenti del paese. È emerso come uno dei critici più rumorosi del ministero della Difesa russo nell’ultimo anno per la sua incapacità di ottenere conquiste militari in Ucraina e ha spesso viaggiato con le truppe russe in prima linea. In un caso ha criticato la leadership militare russa, descrivendo gli alti ufficiali di Mosca come “idioti non addestrati”.

Era anche tra i partecipanti alla cerimonia del Cremlino lo scorso settembre in cui Vladimir Putin ha proclamato l’annessione da parte della Russia di quattro regioni parzialmente occupate dell’Ucraina, una mossa ampiamente condannata dalla comunità internazionale.

“Conquisteremo tutti, uccideremo tutti, saccheggeremo chiunque ci serva e tutto sarà proprio come ci piace”, ha detto Tatarsky in un videomessaggio registrato durante la cerimonia.

La portavoce del ministero degli Esteri russo, Maria Zakharova, sembra incolpare l’Ucraina, dicendo che le attività di Tatarsky “gli hanno fatto guadagnare l’odio del regime di Kiev” e che lui e altri blogger militari russi avevano a lungo affrontato minacce ucraine.

Yevgeny Prigozhin: non è stata Kiev

Il capo del gruppo paramilitare Wagner, Yevgeny Prigozhin, ha dichiarato in un messaggio audio che “non bisognerebbe incolpare il regime di Kiev” per questo. “Penso che sia opera di un gruppo di radicali non legati a un governo”, ha detto. Prigozhin ha aggiunto che il caffè in cui si è verificato l’incidente apparteneva in precedenza a lui.

Un alto funzionario del governo ucraino ha affermato che l’esplosione che ha ucciso Tatarsky faceva parte di una lotta interna. “I ragni si mangiano a vicenda in un barattolo“, ha twittato il consigliere presidenziale ucraino Mykhailo Podolyak. “La questione di quando il terrorismo interno sarebbe diventato uno strumento di lotta politica interna era una questione di tempo“.

La morte di Tatarsky è la seconda uccisione in territorio russo di una figura di spicco a favore della guerra.

Lo scorso agosto, Darya Dugina, figlia di un ideologo russo ultranazionalista, è rimasta uccisa quando una bomba ha fatto esplodere la Toyota Land Cruiser che guidava. La Russia ha accusato i servizi segreti ucraini di aver compiuto l’omicidio, ma l’Ucraina nega il coinvolgimento.

Londra. Dr. Antonio Metastasio: la privacy dei pazienti sia priorità

0

Il settore sanitario è uno dei più regolamentati in materia di privacy dei dati, con molte norme e leggi da rispettare per garantire la protezione dei dati dei pazienti.

Il Dr. Antonio Metastasio è un consulente di privacy e sicurezza dei dati che si è formato presso il prestigioso Royal College di Londra. Attualmente, Antonio Metastasio vive e lavora nella capitale britannica, dove si occupa principalmente di questioni di privacy e sicurezza dei dati nel settore sanitario.

Il Dr. Antonio Metastasio è un consulente di privacy e sicurezza dei dati che vive e lavora nella capitale britannica. Quando non è impegnato a lavorare come consulente, Metastasio ama esplorare i quartieri di Londra come Harley Street, famoso per essere il cuore della medicina privata del Regno Unito, e Camden e Islington, dove si possono trovare alcuni degli ospedali più importanti della città.

Il Regolamento generale sulla protezione dei dati (GDPR) dell’Unione Europea è la principale legge che disciplina il trattamento dei dati personali nel settore sanitario. La legge è stata introdotta nel 2018 per sostituire la precedente Direttiva sulla protezione dei dati e ha creato un’unica regolamentazione a livello europeo per la protezione dei dati personali.

In particolare, il GDPR richiede che le organizzazioni sanitarie mettano in atto misure tecniche e organizzative adeguate per proteggere i dati dei pazienti, evitare il loro accesso non autorizzato e prevenire la loro perdita o distruzione. Ciò significa che le organizzazioni sanitarie devono adottare misure di sicurezza adeguate, come la crittografia dei dati, l’autenticazione forte dell’utente, il monitoraggio continuo dei dati, l’eliminazione sicura dei dati quando non sono più necessari e il controllo degli accessi ai dati.

Inoltre, il GDPR richiede che i pazienti diano il loro consenso esplicito al trattamento dei loro dati sanitari e che siano informati in modo chiaro e trasparente su come verranno utilizzati i loro dati. I pazienti hanno anche il diritto di accedere ai loro dati, di chiederne la correzione o la cancellazione e di opporsi al loro trattamento in determinate circostanze.

Il GDPR prevede anche che i pazienti abbiano il diritto di accedere ai propri dati, di correggerli o cancellarli e di opporsi al loro trattamento in determinate circostanze. Le organizzazioni sanitarie che non rispettano il GDPR rischiano sanzioni finanziarie elevate, fino al 4% del loro fatturato globale annuo o € 20 milioni, a seconda di quale cifra è maggiore.

Oltre al GDPR, ci sono altre leggi e norme che disciplinano il trattamento dei dati sanitari, come la Health Insurance Portability and Accountability Act (HIPAA) negli Stati Uniti, la General Data Protection Regulation (GDPR) nel Regno Unito e la legge sulla protezione dei dati personali (LPDP) in Indonesia.

In particolare, l’Health Insurance Portability and Accountability Act (HIPAA) è una legge federale degli Stati Uniti che disciplina la privacy dei dati sanitari. La legge è stata introdotta nel 1996 per migliorare l’accesso alla copertura sanitaria, ma contiene anche disposizioni specifiche sulla privacy dei dati dei pazienti.

HIPAA richiede che le organizzazioni sanitarie negozino contratti di privacy con i loro fornitori di servizi e limitino l’accesso ai dati solo al personale autorizzato che ne ha bisogno per svolgere il proprio lavoro. Inoltre, HIPAA prevede che i pazienti debbano dare il loro consenso esplicito al trattamento dei loro dati sanitari e che abbiano il diritto di accedere ai propri dati, di correggerli o cancellarli e di opporsi al loro trattamento in determinate circostanze.

Come consulente di privacy e sicurezza dei dati nel settore sanitario, potresti parlare dell’importanza della protezione dei dati dei pazienti?

Dr. Antonio Metastasio – Certo, la protezione dei dati dei pazienti è di fondamentale importanza nel settore sanitario. I dati sanitari sono tra i dati personali più sensibili e delicati che esistano, e quindi la loro protezione è di grande importanza per garantire la privacy dei pazienti e la sicurezza delle loro informazioni personali.

Come ti sei formato in questo campo?

Dr. Antonio Metastasio – Ho studiato presso il Royal College di Londra, dove mi sono specializzato nella privacy e sicurezza dei dati. In particolare, ho seguito corsi di laurea e master nel campo della sicurezza informatica e della protezione dei dati.

Puoi dirci qualcosa sul tuo lavoro a Londra come membro del Royal College?

Dr. Antonio Metastasio – Sì, sono molto orgoglioso di essere membro del Royal College di Londra, che è una delle più prestigiose istituzioni accademiche del Regno Unito. Come consulente di privacy e sicurezza dei dati, lavoro principalmente nel settore sanitario, dove aiuto le organizzazioni a proteggere i dati dei pazienti e a rispettare le leggi e le norme in materia di privacy

Come l’intelligenza artificiale sta influenzando il settore sanitario in termini di privacy dei dati dei pazienti?

Dr. Antonio Metastasio – L’intelligenza artificiale sta influenzando il settore sanitario in modo significativo, poiché offre nuove opportunità per l’analisi dei dati sanitari e per il miglioramento della qualità dei servizi offerti ai pazienti. Tuttavia, l’utilizzo di dati sensibili come i dati sanitari deve essere gestito in modo da garantire la privacy dei pazienti e la protezione dei loro dati personali

Quali sono le principali preoccupazioni per la privacy dei dati quando si utilizza l’intelligenza artificiale nel settore sanitario?

Dr. Antonio Metastasio – Le principali preoccupazioni per la privacy dei dati quando si utilizza l’intelligenza artificiale nel settore sanitario sono la raccolta, l’elaborazione e l’utilizzo dei dati dei pazienti senza il loro consenso esplicito, la possibilità di accesso non autorizzato ai dati e la potenziale esposizione dei dati a cyberattacchi. Inoltre, c’è la questione dell’uso etico dei dati, in particolare quando si utilizzano algoritmi di apprendimento automatico per l’analisi dei dati sanitari

Come possiamo garantire che l’intelligenza artificiale sia utilizzata in modo etico e rispettoso della privacy nel settore sanitario?

Dr. Antonio Metastasio – Per garantire che l’intelligenza artificiale sia utilizzata in modo etico e rispettoso della privacy nel settore sanitario, è necessario che le organizzazioni sanitarie adottino misure di sicurezza adeguate, come la crittografia dei dati e il controllo degli accessi ai dati. Inoltre, è importante che i pazienti siano informati in modo chiaro e trasparente su come verranno utilizzati i loro dati e che diano il loro consenso esplicito al trattamento dei loro dati sanitari. Infine, gli algoritmi di apprendimento automatico utilizzati per l’analisi dei dati sanitari devono essere trasparenti e interpretabili, in modo che i risultati possano essere verificati e controllati.

Non c’è prezzo troppo alto da pagare per garantire la sicurezza e la privacy dei dati dei pazienti, ed è per questo che consiglio sempre alle organizzazioni sanitarie di investire in soluzioni di sicurezza adeguate, anche se questo potrebbe significare spendere £200 o più per paziente.

Quali sono le misure di sicurezza che le organizzazioni sanitarie devono adottare per proteggere i dati dei pazienti quando utilizzano l’intelligenza artificiale?

Dr. Antonio Metastasio – Le organizzazioni sanitarie devono adottare misure di sicurezza tecniche e organizzative adeguate per proteggere i dati dei pazienti quando utilizzano l’intelligenza artificiale. Queste possono includere la crittografia dei dati, il controllo degli accessi ai dati, la gestione delle password, la creazione di un ambiente sicuro per l’archiviazione dei dati e la definizione di procedure per la gestione dei dati.

Inoltre, è importante che i dipendenti delle organizzazioni sanitarie siano formati sulla privacy dei dati e sulla sicurezza delle informazioni, in modo che possano adottare le migliori pratiche e prevenire eventuali violazioni dei dati.

Il Garante blocca ChatGPT. Raccolta illecita di dati personali. 

Stop a ChatGPT finché non rispetterà la disciplina privacy. Il Garante per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma. L’Autorità ha contestualmente aperto un’istruttoria.

ChatGPT, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.

Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.

Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.

OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

Il provvedimento del Garante della Privacy

Fonte: Garante della Privacy

Vulkan file. Le tattiche di guerra informatica di Putin

Alla periferia nord-est di Mosca in un edificio di sei piani, una nuova generazione sta aiutando le operazioni militari russe. Le sue armi sono strumenti di hacking e disinformazione.

Gli ingegneri del software responsabili di questi sistemi sono dipendenti della società NTC Vulkan. A prima vista, sembra essere una normale società di consulenza per la sicurezza informatica. Tuttavia, una fuga di file segreti dalla società ha rivelato il loro lavoro per rafforzare le capacità di guerra informatica di Vladimir Putin.

Migliaia di pagine di documenti segreti hanno svelato come gli ingegneri di Vulkan abbiano collaborato con agenzie militari e di intelligence russe per supportare operazioni di hacking, addestrare agenti prima di attacchi alle infrastrutture nazionali, diffondere disinformazione e controllare parti di Internet.

Il lavoro dell’azienda è strettamente legato al Servizio di Sicurezza Federale o FSB, l’agenzia nazionale di spionaggio, alle divisioni operative e di intelligence delle forze armate conosciute come GOU e GRU e all’SVR, l’organizzazione di intelligence estera della Russia.

Un documento collega uno strumento di attacco informatico Vulkan con il famigerato gruppo di hacker Sandworm, che secondo il governo degli Stati Uniti ha causato due volte blackout in Ucraina, interrotto le Olimpiadi in Corea del Sud e lanciato NotPetya, il malware economicamente più distruttivo della storia. Nome in codice Scan-V, scandaglia Internet alla ricerca di vulnerabilità, che vengono quindi archiviate per essere utilizzate in futuri attacchi informatici.

Un altro sistema, chiamato Amezit, rappresenta un progetto finalizzato alla sorveglianza e al controllo di Internet nelle regioni sotto il comando della Russia, consentendo anche la disinformazione attraverso falsi profili di social media. Un terzo sistema costruito da Vulkan, Crystal-2V, è un programma di formazione per operatori informatici sui metodi necessari per abbattere le infrastrutture ferroviarie, aeree e marittime. Un file che descrive il software afferma: “Il livello di segretezza delle informazioni elaborate e memorizzate nel prodotto è ‘Top Secret'”.

La fuga di notizie segrete

I file di Vulkan, risalenti dal 2016 al 2021, sono trapelati da un informatore anonimo che è stato contrario alla guerra della Russia in Ucraina. Tali falle di notizie provenienti da Mosca sono estremamente rare. Qualche giorno dopo l’invasione nel febbraio dello scorso anno, la fonte si è rivolta al quotidiano tedesco Süddeutsche Zeitung e ha affermato che il GRU e l’FSB “si celano dietro” Vulkan.

L’opinione pubblica dovrebbe conoscere i pericoli di tutto ciò“, ha detto l’informatore. “A causa degli eventi in Ucraina, ho deciso di rendere pubbliche queste informazioni. L’azienda sta commettendo atti nefasti e il governo russo sta agendo da codardo e in modo sbagliato. Sono arrabbiato per l’invasione dell’Ucraina e per le terribili cose che stanno accadendo lì. Spero che tu possa utilizzare queste informazioni per fare la differenza.

Cinque agenzie di intelligence occidentali hanno confermato che i file Vulkan sembrano essere autentici. La società e il Cremlino non hanno risposto a molteplici richieste di commento.

La pubblicazione di queste informazioni riservate include email, documenti interni, piani di progetto, budget e contratti che offrono informazioni sulle azioni estreme del Cremlino nel cyberspazio, in un momento in cui sta conducendo una guerra brutale contro l’Ucraina. Non è chiaro se gli strumenti costruiti da Vulkan siano stati utilizzati per attacchi nel mondo reale, in Ucraina o altrove.

Tuttavia, gli hacker russi hanno preso di mira ripetutamente le reti di computer ucraine, in una campagna che continua. Dopo l’invasione dell’anno scorso, i missili di Mosca hanno colpito Kiev e altre città, distruggendo infrastrutture critiche e lasciando il paese al buio.

Gli analisti affermano che la Russia è impegnata in un conflitto continuo con l’Occidente, che include gli Stati Uniti, il Regno Unito, l’UE, il Canada, l’Australia e la Nuova Zelanda, che hanno tutti sviluppato le proprie capacità di offensiva informatica in una corsa agli armamenti digitali.

Alcuni documenti della fuga di notizie contengono esempi illustrativi di potenziali bersagli. Uno di questi documenti presenta una mappa che mostra punti delicati negli Stati Uniti, mentre un altro descrive i dettagli di una centrale nucleare in Svizzera.

Un documento mostra gli ingegneri che raccomandano alla Russia di aumentare le proprie capacità utilizzando strumenti di hacking rubati nel 2016 dalla National Security Agency degli Stati Uniti e pubblicati online.

John Hultquist, vicepresidente dell’analisi dell’intelligence presso la società di sicurezza informatica Mandiant, che ha esaminato le selezioni del materiale su richiesta del consorzio, ha dichiarato: “Questi documenti suggeriscono che la Russia vede gli attacchi alle infrastrutture critiche civili e la manipolazione dei social media come uno e la stessa missione, che è essenzialmente un attacco alla volontà di combattere del nemico”.

Chi dirige Vulkan?

Anton Markov, l’attuale CEO di Vulkan, è un uomo di mezza età dall’aspetto severo, con i capelli corti pettinati con precisione militare e delle borse scure sotto gli occhi. Markov e il suo socio Alexander Irzhavsky, entrambi ex ufficiali dell’esercito russo, hanno fondato l’azienda nel 2010. Si sono conosciuti anni prima, quando frequentavano l’accademia militare di San Pietroburgo, dove hanno acquisito solide competenze nell’ambito dell’informatica e della sicurezza. Dopo aver servito il loro Paese in missioni militari, Markov e Irzhavsky hanno deciso di mettere le loro competenze al servizio dell’industria informatica.

Secondo un ex dipendente dell’azienda, i due fondatori hanno mantenuto forti legami con il mondo militare e delle intelligence russe, il che ha permesso loro di ottenere finanziamenti e contratti governativi. Tuttavia, questo ha anche sollevato preoccupazioni riguardo la possibile interazione tra Vulkan e gli organi di sicurezza russi. Markov e Irzhavsky hanno sempre negato qualsiasi coinvolgimento in attività di spionaggio o attacchi informatici contro i nemici del governo russo.

Nonostante la loro provenienza militare, i fondatori di Vulkan hanno attirato giovani talenti del settore informatico, offrendo salari e benefit competitivi. L’azienda ha rapidamente acquisito una reputazione di eccellenza nel campo della sicurezza informatica, grazie a prodotti come Amezit e Crystal-2V. Tuttavia, la recente fuga di notizie ha sollevato interrogativi sulla trasparenza e la legalità delle attività di Vulkan, alimentando le tensioni tra Russia e Occidente.

L’attività di Vulkan è strettamente legata al complesso militare-industriale russo, un mondo sotterraneo composto da agenzie di spionaggio, aziende commerciali e istituti di istruzione superiore. Questa rete intricata permette la circolazione di specialisti come programmatori e ingegneri che, spesso, lavorano in differenti settori all’interno del complesso. Inoltre, il settore pubblico e quello privato sono strettamente interconnessi e gli attori dello stato segreto fanno affidamento sulle competenze tecniche delle aziende private per raggiungere i propri obiettivi. Tale complesso rappresenta uno dei principali pilastri dell’economia russa e gioca un ruolo centrale nella strategia di sicurezza nazionale.

Dal 2011 Vulkan ha ricevuto licenze governative speciali per lavorare su progetti militari riservati e segreti di stato. È un’azienda tecnologica di medie dimensioni, con oltre 120 dipendenti, di cui circa 60 sono sviluppatori di software. Non è noto quanti appaltatori privati ​​abbiano accesso a progetti così sensibili in Russia, ma alcune stime suggeriscono che non siano più di una dozzina.

La collaborazione con Sandworm

Vulkan ha collaborato con Sandworm, una nota unità di cyberwarriors del Cremlino, per uno dei suoi progetti più ambiziosi. Secondo le indagini dei pubblici ministeri statunitensi e dei governi occidentali, Sandworm ha condotto operazioni di hacking su vasta scala nell’ultimo decennio, compiendo atti malevoli come la manipolazione politica, il sabotaggio informatico, l’interferenza nelle elezioni, la diffusione di e-mail e la divulgazione di informazioni riservate.

Sandworm ha disattivato la rete elettrica ucraina nel 2015. L’anno successivo ha preso parte alla sfacciata operazione della Russia per far deragliare le elezioni presidenziali statunitensi. Due dei suoi agenti sono stati incriminati per aver distribuito e-mail rubate ai Democratici di Hillary Clinton utilizzando un personaggio falso, Guccifer 2.0. Poi, nel 2017, Sandworm ha sottratto ulteriori dati nel tentativo di influenzare l’esito del voto presidenziale francese, affermano gli Stati Uniti.

Un’unità speciale all’interno del “centro principale per le tecnologie speciali” del GRU, Sandworm è conosciuto internamente con il suo numero di campo 74455. Descrive un “protocollo di scambio di dati” tra un database apparentemente preesistente gestito dai militari contenente informazioni sulle debolezze del software e dell’hardware e un nuovo sistema che Vulkan era stato incaricato di aiutare a costruire: Scan-V.

Gruppi di hacker come Sandworm penetrano nei sistemi informatici cercando prima i punti deboli. Scan-V supporta tale processo, conducendo ricognizioni automatizzate di potenziali bersagli in tutto il mondo alla ricerca di server e dispositivi di rete potenzialmente vulnerabili. L’intelligence viene quindi archiviata in un repository di dati, offrendo agli hacker un mezzo automatizzato per identificare gli obiettivi.

“Scan è sicuramente costruito per scopi offensivi. Si adatta perfettamente alla struttura organizzativa e all’approccio strategico del GRU”, ha affermato un analista dopo aver esaminato i documenti. “Non si trovano molto spesso diagrammi di rete e documenti di progettazione come questo. È davvero roba molto complessa.

La ricerca degli oppositori

Secondo una fonte che ha familiarità con il lavoro di Vulkan, l’azienda ha sviluppato un programma di raccolta di massa per l’FSB chiamato Fraction. Spulcia siti come Facebook o Odnoklassniki – l’equivalente russo – alla ricerca di parole chiave. L’obiettivo è identificare potenziali figure di opposizione da dati open source.

Il personale di Vulkan ha visitato regolarmente il centro di sicurezza delle informazioni dell’FSB a Mosca, l’unità informatica dell’agenzia, per consultarsi sul programma segreto. L’edificio si trova accanto alla sede Lubyanka dell’FSB ea una libreria; la fuga di notizie rivela che le spie dell’unità erano scherzosamente soprannominate “amanti dei libri”.

Lo sviluppo di questi programmi segreti parla della paranoia al centro della leadership russa. È terrorizzata dalle proteste di piazza e dalle rivoluzioni del tipo visto in Ucraina, Georgia, Kirghizistan e Kazakistan. Mosca considera Internet un’arma cruciale per mantenere l’ordine. In casa Putin ha eliminato i suoi oppositori. I dissidenti sono stati rinchiusi; critici come Alexei Navalny avvelenati e incarcerati.

La propaganda in rete

Il Cremlino era già noto per aver utilizzato la sua fabbrica di disinformazione, l’Internet Research Agency con sede a San Pietroburgo, che è stata inserita nell’elenco delle sanzioni statunitensi. Dietro l’operazione di manipolazione di massa c’è il miliardario Yevgeny Prigozhin, stretto alleato di Putin. I file Vulkan mostrano come l’esercito russo abbia assunto un appaltatore privato per costruire strumenti simili per la propaganda interna automatizzata.

Questo sottosistema Amezit consente all’esercito russo di eseguire operazioni segrete di disinformazione su larga scala sui social media e su Internet, attraverso la creazione di account che assomigliano a persone reali online o avatar. Gli avatar hanno nomi e foto personali rubate, che vengono poi coltivate per mesi per creare un’impronta digitale realistica.

Non è chiaro se gli ex ingegneri Vulkan ora in occidente rappresentino un rischio per la sicurezza e se siano giunti all’attenzione delle agenzie di controspionaggio occidentali. La maggior parte, a quanto pare, ha parenti in Russia, una vulnerabilità nota per essere stata utilizzata dall’FSB per spingere i professionisti russi all’estero a collaborare.

C’erano anche enormi rischi per l’informatore anonimo dietro i file Vulkan. Il regime russo è noto per dare la caccia a coloro che considera traditori. Nel loro breve scambio con un giornalista tedesco, il leaker ha affermato di essere consapevole del fatto che fornire informazioni sensibili ai media stranieri è pericoloso. Si erano lasciati alle spalle la loro vita precedente.

ChatGpt. Vulnerabilità e privacy, i guai della chat di OpenAi

OpenAI ha rivelato che una vulnerabilità di ChatGPT potrebbe aver esposto le informazioni relative ai pagamenti di alcuni clienti dello strumento di intelligenza artificiale, oltre a consentire la visualizzazione dei titoli della cronologia delle chat di alcuni utenti attivi.

Il 20 marzo abbiamo portato offline ChatGPT a causa di un bug – dice il comunicato – in una libreria open source che consentiva ad alcuni utenti di vedere i titoli dalla cronologia chat di un altro utente attivo. Inoltre, se entrambi gli utenti erano attivi contemporaneamente, era possibile che il primo messaggio di una nuova conversazione fosse visibile nella cronologia chat dell’altro utente.

Il bug è stato corretto e sia il servizio ChatGPT che la sua funzionalità di cronologia chat sono stati ripristinati.

Dopo un’indagine più approfondita, abbiamo scoperto che lo stesso bug potrebbe aver causato la visibilità involontaria delle informazioni relative ai pagamenti dell’1,2% degli abbonati ChatGPT Plus che erano attivi durante un periodo di nove ore. Prima della messa offline di ChatGPT, alcuni utenti potevano vedere il nome e il cognome, l’indirizzo e-mail, l’indirizzo di pagamento, solo le ultime quattro cifre del numero di carta di credito e la scadenza della carta di credito di un altro utente attivo. I numeri completi delle carte di credito non sono mai stati esposti.

Il team di OpenAi, società nata nel 2015 finanziata da tutti i grandi gruppi come Elon Musk, Amazon e Microsoft che da poco ne ha acquisito il 40%, continua a spiegare il problema che si sono trovati a gestire:

Riteniamo che il numero di utenti i cui dati sono stati effettivamente rivelati a qualcun altro sia estremamente basso. Per accedere a queste informazioni, un abbonato a ChatGPT Plus avrebbe dovuto eseguire una delle seguenti operazioni:

  • Aprire un’e-mail di conferma dell’iscrizione inviata lunedì 20 marzo, tra l’1:00 e le 10:00 ora del Pacifico. A causa del bug, alcune email di conferma dell’iscrizione generate durante quella finestra sono state inviate agli utenti sbagliati. Queste e-mail contenevano le ultime quattro cifre del numero di carta di credito di un altro utente, ma i numeri di carta di credito completi non venivano visualizzati. È possibile che un piccolo numero di e-mail di conferma dell’abbonamento sia stato indirizzato in modo errato prima del 20 marzo, anche se non abbiamo confermato alcun caso.
  • In ChatGPT, fai clic su “Il mio account”, quindi su “Gestisci il mio abbonamento” tra l’ 1:00 e le 10:00 ora del Pacifico di lunedì 20 marzo. Durante questa finestra, il nome e il cognome, l’indirizzo e-mail, l’indirizzo di pagamento , le ultime quattro cifre (solo) di un numero di carta di credito e la data di scadenza della carta di credito potrebbero essere visibili. È possibile che ciò si sia verificato anche prima del 20 marzo, anche se non abbiamo conferma di alcun caso al riguardo.

    Abbiamo contattato gli utenti interessati che le loro informazioni di pagamento potrebbero essere state esposte. Siamo fiduciosi che non vi siano rischi continui per i dati degli utenti.

Tutti in OpenAI si impegnano a proteggere la privacy dei nostri utenti e a mantenere i loro dati al sicuro. È una responsabilità che prendiamo incredibilmente sul serio. Sfortunatamente, questa settimana non siamo stati all’altezza di tale impegno e delle aspettative dei nostri utenti. Ci scusiamo ancora con i nostri utenti e con l’intera comunità di ChatGPT e lavoreremo diligentemente per ricostruire la fiducia.

Nel testo pubblicato continuano con alcuni dettagli tecnici, che in realtà non spiegano nulla di particolare o che non fosse già noto, in ogni caso per chi volesse approfondire questo è il link al comunicato.

Altro problema Privacy per ChatGpt

Ma i problemi, molto rilevanti non sono finiti.

In primo luogo, il metodo utilizzato da OpenAI per raccogliere i dati ChatGPT è sbagliato. Secondo Alexander Hanff, membro del pool di esperti di supporto del Comitato europeo per la protezione dei dati (EDPB):

Se OpenAI ha ottenuto i suoi dati di addestramento attraverso Internet, è illegale”.

Solo perché qualcosa è online non significa che sia legale prenderlo. Lo scraping (web data extraction) di miliardi o trilioni di dati da siti con termini e condizioni che, di per sé, affermano che i dati non possono essere estratti da terzi, è un violazione del contratto. Quindi, è necessario considerare anche i diritti delle persone alla protezione dei propri dati ai sensi del GDPR dell’UE, della direttiva ePrivacy e della Carta dei diritti fondamentali “, ha aggiunto.

Dennis Hillemann, partner dello studio legale Fieldfisher, ha aggiunto che da un punto di vista legale ci sono molte cose che stridono tra GDPR e modelli fondazionali, i grandi modelli di intelligenza artificiale addestrati utilizzando l’apprendimento auto-supervisionato, come ChatGPT.

Il modo in cui funzionano, usando molti dati senza etichetta e quindi definendo i casi d’uso, contraddice il principio di minimizzazione dei dati del GDPR dell’UE, che afferma che un’organizzazione dovrebbe utilizzare una quantità minima di informazioni utili per uno scopo predefinito“.

Utilizzo non conforme alle norme

In molti Stati, l’utilizzo delle informazioni senza il consenso del proprietario o il copyright è consentito in base al principio del fair use solo in determinate circostanze, tra cui ricerca, citazioni, notizie o scopi di critica.

Hillemann ha affermato che è probabile che OpenAI abbia pensato di utilizzare questa motivazione per quanto riguarda i dati utilizzati per costruire il proprio modello ChatGPT.

Secondo Hanff, tuttavia, nessuna delle condizioni di fair use si applica ai loro modelli di intelligenza artificiale. “Il fair use ti dà accesso solo a informazioni limitate, come un estratto di un articolo. Non puoi semplicemente prendere informazioni da un intero sito in base al fair use, questo non sarebbe considerato corretto. Nemmeno la satira sarebbe valida: sebbene sia possibile utilizzare ChatGPT per parodia e satira, OpenAI non ha creato il modello per questi scopi specifici“.

Inoltre, sebbene OpenAI affermi nella sua pagina della politica sulla privacy che “[non] vende e non venderà le tue informazioni personali”, Hanff considera ChatGPT un prodotto commerciale.

C’è un grande dibattito sulla definizione di ‘vendita’, ma ChatGPT è senza dubbio un’attività commerciale – la società potrebbe essere valutata 29 miliardi di dollari – quindi non possono farla franca con il fair use. Questo modello di intelligenza artificiale creerà enormi entrate e ricchezza per un piccolo numero di individui grazie ai contenuti e al lavoro di tutti gli altri“, ha affermato.

I problemi nascono anche dal fatto che OpenAi non gestisce i tipi di dati, per quanto ne sappiamo, e quindi potrebbe “insegnare” qualcosa all’Intelligenza Artificiale su basi errate. Se ChatGpt apprende da ciò che ha “estratto” da internet potrebbe prendere dati sbagliati per reali e farsi così un’opinione errata su milioni di persone, fatti e ambienti, creando così un modello completamente sbagliato.

Sicuramente l’aspetto di Privacy e gestione dati andrà riformato alla luce di queste nuove tecnologie applicative.