in ,

Google analizza Gmail e Drive alla ricerca di cartoni animati di abusi sessuali su minori

google minori

Google ha deciso di analizzare gli account Gmail e Drive per cercare e individuare cartoni animati che raffigurino abusi sessuali su minori.

Google analizza Gmail e Drive alla ricerca di cartoni animati di abusi sessuali su minori

Negli ultimi due decenni, i giganti della tecnologia hanno dovuto affrontare un diluvio sempre crescente di video e immagini di abusi sessuali su minori sulle loro piattaforme. Come Apple ha recentemente scoperto, è un problema difficile da risolvere, dove la scansione dei dispositivi delle persone e degli account online per contenuti illegali può portare a preoccupazioni sulla privacy.

Ma non sono solo foto e video espliciti di bambini minorenni che le più grandi aziende della Silicon Valley stanno cercando di trovare e cancellare dai loro server.

Stanno anche cercando cartoni animati che raffigurano atti grafici che coinvolgono i bambini, come rivelato da un recente mandato di perquisizione che chiede a Google di fornire informazioni su un sospetto che presumibilmente possiede tali animazioni.

Questo tipo di contenuto è potenzialmente illegale da possedere secondo la legge degli Stati Uniti e può essere rilevato dai sistemi anti-materiale sessuale infantile (CSAM) di Google. Google ha da tempo riconosciuto che il suo codice può controllare gli abusi sui bambini utilizzando due tecnologie. La prima utilizza un software progettato da YouTube che cerca “hash” di contenuti illegali precedentemente noti. Tali hash sono rappresentazioni alfanumeriche di un file, il che significa che un computer può eseguire la scansione dei file all’interno, per esempio, di una e-mail Gmail e solleverà una bandiera se c’è un file con lo stesso hash della foto o del video illecito.

Google utilizza anche strumenti di apprendimento automatico per guardare i file e analizzarli per qualsiasi segno che siano di bambini abusati.

La ricerca e l’identificazione di un sospetto

Non è chiaro quale di queste due tecnologie siano state utilizzate alla fine del 2020 in Kansas, quando Google ha rilevato “arte digitale o cartoni animati raffiguranti bambini impegnati in comportamenti sessualmente espliciti o impegnati in rapporti sessuali” all’interno di un account Drive, secondo il mandato. Continua a dettagliare le immagini grafiche, che includevano quelli che sembravano essere cartoni animati sessualmente espliciti di ragazzi minorenni. Come per i suoi requisiti legali, Google ha consegnato le informazioni su ciò che ha trovato, così come gli indirizzi IP utilizzati per accedere alle immagini, al National Center for Missing and Exploited Children (NCMEC), che poi ha trasmesso i risultati all’unità DHS Homeland Security Investigations.

Gli investigatori hanno usato gli indirizzi IP forniti da Google per identificare il sospetto come il presunto proprietario dei cartoni animati, e hanno cercato il suo account Google, ricevendo informazioni sulle e-mail da e per l’imputato.

Sembra che il sospetto possa essere effettivamente un artista conosciuto. Poiché nessuna accusa è stata presentata, il suo nome non è stato rivelato ma l’uomo identificato nel mandato aveva vinto diversi piccoli concorsi d’arte del Midwest e un’opera d’arte degli anni ’90 era stata menzionata su un importante giornale della costa occidentale.

Questo può preoccupare alcuni artisti che disegnano o ritraggono nudi. Ma la legge sulle immagini dei cartoni animati è formulata in modo da fornire una certa protezione a chiunque condivida animazioni di bambini che si impegnano in una condotta sessuale per amore dell’arte o della scienza. Un procuratore che cerca di condannare chiunque possieda tale materiale dovrebbe provare che le immagini in questione sono “oscene” o prive di “serio valore letterario, artistico, politico o scientifico”.

La denuncia di Apple e l’impegno di Google contro gli abusi sui minori

Google, nel frattempo, negli ultimi anni ha rilasciato rapporti di trasparenza che mostrano quante volte segnala i problemi al NCMEC. Le cifre rivelano una tendenza inquietante.

Nei primi sei mesi del 2021, ha trovato più di 3,4 milioni di pezzi di contenuti potenzialmente illegali in 410.000 rapporti separati. Questo era in aumento rispetto ai 2,9 milioni in 365.000 rapporti negli ultimi sei mesi del 2020, e ben oltre il doppio da gennaio a giugno 2020, quando 1,5 milioni di pezzi di materiale CSAM sono stati scoperti e segnalati a NCMEC in 180.000 rapporti.

Google non ha fornito commenti, ma ha indicato un blog precedente in cui ha descritto come cerca il CSAM.

Dato il recente furore su come Apple ha pianificato la scansione delle immagini dell’iPhone per CSAM, una mossa che ha finito per ritardare dopo le critiche che stava compromettendo la privacy degli utenti, i riflettori si sono accesi su come altri giganti della tecnologia affrontano la questione. Poiché Google non cripta end-to-end i suoi strumenti di comunicazione come Gmail o la sua tecnologia di archiviazione dei file come Drive, è ancora possibile per l’azienda tecnologica scansionare i contenuti illegali. E poiché non ha intenzione di introdurre queste caratteristiche, le forze dell’ordine possono ancora contare su Google per avvertire la NCMEC quando si verificano abusi sui suoi server.

Se la maggioranza degli utenti vorrà che Google scannerizzi gli account delle persone in modo da poter aiutare a trovare coloro che abusano di bambini, o se invece avrà una migliore privacy con la crittografia end-to-end, l’azienda di Mountain View, California, dovrà lottare con questo equilibrio in perpetuo. Lo stesso vale per uno qualsiasi dei suoi rivali.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

What do you think?

Scritto da Ilaria Minucci

kimberlybryant

Black Girls Code, il CEO Kimberly Bryant rimossa dalla non-profit

come risparmare gestione casa

Gestione della casa – 3 consigli per risparmiare