Edizione n° 5368

BALLON D'ESSAI

LATINA // Johnson & Johnson investe 580 milioni di euro in Italia
14 Giugno 2024 - ore  17:12

CALEMBOUR

FRANCOFORTE // “Oltre 320 persone da assumere nelle imprese della Bat e altre 1000 su Bari e Foggia”
14 Giugno 2024 - ore  17:21

Iscriviti al canale Whatsapp

Foggia

Manfredonia

Cronaca

Politica

Sport

Eventi

San Severo

Cerignola

“Mi chiamano centinaia di genitori: le loro figlie spogliate con un’app”

AUTORE:
Redazione
PUBBLICATO IL:
9 Novembre 2023
Cronaca // Tecnologia //

FOGGIA – A settembre Almendralejo, un comune di Badajoz con circa 30.000 abitanti, è diventato l’epicentro di un caso di deepfake. Quando Isabel, nome inventato, entra in classe per il suo primo giorno di scuola un compagno le dice: “Ho visto una tua foto nuda“, quella foto non è mai stata scattata ma lei sa che esiste, a spogliarla è stata l’intelligenza artificiale. Appena torna a casa racconta tutto a sua madre: “C’è una mia foto nuda in giro. Dicono che lo hanno fatto attraverso un’applicazione di intelligenza artificiale. Ho paura. È successo anche ad altre ragazze.”

Le vittime sono 20. Ma è solo l’inizio. Il caso di Almendralejo è stato raccontato su Instagram da Miriam Al Adib, ginecologa con 136.000 follower e madre di una delle vittime. Dopo la denuncia ha cominciato a ricevere messaggi di genitori che, come lei, avevano scoperto che le figlie erano state spogliate da un’app. Negli ultimi giorni al canale Wales Live della Bbc ha rivelato: “Centinaia di persone mi hanno scritto dicendomi che anche a loro era successa la stessa cosa e non avevano ricevuto alcun tipo sostegno”.

Il fenomeno sta raggiungendo una dimensione globale, secondo Al Adib le famiglie di tutto il mondo si troveranno ad affrontare il problema delle immagini deepfake, ha anche incentivato le ragazze a denunciare “ditelo ai vostri genitori, è importante saperlo e non vergognarsi, farsi avanti ha aiutato molte ragazze anche perché la combinazione tra social network, pornografia e intelligenza artificiale è un’arma di distruzione”.

Cosa sta succedendo in Italia

I primi segnali sono arrivati ad aprile, quando a Roma due ragazzini hanno spogliato le compagne usando Bikini Off. L’app in realtà è nata in Francia e poi si è diffusa in tutto il mondo nel 2022, registrando numeri record di download tra i ventenni. A inizio ottobre l’allarme è scattato anche a Treviso, dopo la segnalazione di due ragazze, una che frequenta le medie, l’altra il liceo, gli agenti della polizia postale ora stanno indagando per capire chi abbia modificato le immagini fake dei nudi generati con l’IA e chi potrebbe averle diffuse.

“In Italia il fenomeno sta crescendo”, aveva spiegato Barbara Strappato, dirigente della polizia postale, a Fanpage.it. “Le prime segnalazioni da parte delle vittime sono arrivate a marzo. Alla fine è un’estorsione sessuale, la novità è aver trovato applicazioni che sfruttando l’intelligenza artificiale riescono a spogliare le persone, sono dei falsi, ma il risultato è convincente, non è come mettere il volto di qualcuno su un corpo nudo.”

Cosa è stato detto durante il vertice sull’IA

Durante il primo vertice sulla sicurezza dell’intelligenza artificiale del Regno Unito, il ministro dell’Interno Suella Braverman ha spiegato che sarà necessario reprimere il materiale pedopornografico generato dall’intelligenza artificiale. “I contenuti di sfruttamento e abuso sessuale minorile generati dall’intelligenza artificiale sono illegali, indipendentemente dal fatto che raffigurino o meno un bambino reale. L‘Online Safety Act richiederà alle aziende di intraprendere azioni proattive nell’affrontare tutte le forme di abuso sessuale sui minori online, inclusi adescamento, live streaming, materiale pedopornografico, altrimenti dovranno affrontare multe salate.”

Lo tsunami del porno deepfake

La Internet Watch Foundation in un rapporto pubblicato ottobre 2023, ha scoperto che in un mese sono state trovate più di 20.000 immagini generate dall’intelligenza artificiale su un forum che condivide materiale pedopornografico. Susie Hargreaves, amministratrice delegata della Internet Watch Foundation, ha detto “sta arrivando uno tsunami, sta per succedere e dobbiamo affrontarlo urgentemente”. Anche la Lucy Faithful Foundation, associazione che si dedica alla prevenzione degli abusi sessuali sui minori, ha spiegato che si sta preparando a una “esplosione” di materiale pedopornografico creato dall’intelligenza artificiale.

I numeri del porno deepfake stanno crescendo esponenzialmente. Nel 2019, DeepTrace, una società con sede ad Amsterdam che monitora i media online, ha rilevato che il 96% del materiale deepfake in rete è di natura pornografica. L’analista Genevieve Oh ha invece scoperto che il numero di video porno deepfake è quasi raddoppiato ogni anno dal 2018. A febbraio 2023 è stato registrato il maggior numero di porno deepfake prodotti e caricati in un mese.

Lo riporta fanpage.

Lascia un commento

“Il politico diventa uomo di stato quando inizia a pensare alle prossime generazioni invece che alle prossime elezioni.” SIR WINSTON CHURCHILL

Anonimo

StatoQuotidiano sei tu!

StatoQuotidiano, fondato nell'ottobre 2009, si basa sul principio cardine della libertà d'informazione, sancita dall'art. 21 della Costituzione.

Il giornale si impegna ad ascoltare la comunità e a fornire informazione gratuita, senza sostegno di classi politiche o sociali.

Ai lettori che ci seguono e si sentono parte di questo progetto, chiediamo un contributo simbolico, per garantire quella qualità che ci ha sempre contraddistinto!

Compila il modulo con i tuoi dati per inviare segnalazioni, denunce, articoli, video, foto, richieste, annunci ed altro.

Compila il modulo con i tuoi dati per inviare segnalazioni, denunce o disservizi.

Compila il modulo con i tuoi dati per promuovere la tua attività locale, pubblicizzare un evento o per proposte di collaborazione.

Nessun campo trovato.