Le nuove misure di sicurezza di Meta potrebbero essere un’arma a doppio taglio per gli adolescenti
Pubblicato: 2024-02-11Meta ha annunciato il 9 gennaio 2024 che proteggerà gli utenti adolescenti impedendo loro di visualizzare contenuti su Instagram e Facebook che la società ritiene dannosi, inclusi contenuti relativi al suicidio e ai disturbi alimentari.
La mossa arriva mentre i governi federale e statale hanno aumentato la pressione sulle società di social media affinché forniscano misure di sicurezza per gli adolescenti.
Allo stesso tempo, gli adolescenti si rivolgono ai loro coetanei sui social media per un sostegno che non possono ottenere altrove. Gli sforzi per proteggere gli adolescenti potrebbero inavvertitamente rendere più difficile anche per loro ottenere aiuto.
Negli ultimi anni il Congresso ha tenuto numerose udienze sui social media e sui rischi per i giovani.
Gli amministratori delegati di Meta, X – precedentemente noto come Twitter – TikTok, Snap e Discord testimonieranno davanti alla commissione giudiziaria del Senato il 31 gennaio 2024, sui loro sforzi per proteggere i minori dallo sfruttamento sessuale.
Le aziende tecnologiche "sono finalmente costrette a riconoscere i loro fallimenti quando si tratta di proteggere i bambini", secondo una dichiarazione prima dell'udienza del presidente della commissione e membro di grado, i senatori Dick Durbin (D-Ill.) e Lindsey Graham ( RS.C.), rispettivamente.
Sono un ricercatore che studia la sicurezza online. Io e i miei colleghi abbiamo studiato le interazioni degli adolescenti sui social media e l'efficacia degli sforzi delle piattaforme per proteggere gli utenti.
La ricerca mostra che, sebbene gli adolescenti affrontino il pericolo sui social media, trovano anche supporto tra pari, in particolare tramite la messaggistica diretta.
Abbiamo identificato una serie di misure che le piattaforme di social media potrebbero adottare per proteggere gli utenti tutelandone al tempo stesso la privacy e l’autonomia online.
Cosa stanno affrontando i bambini
La prevalenza dei rischi per gli adolescenti sui social media è ben consolidata. Questi rischi vanno dalle molestie e dal bullismo alla cattiva salute mentale e allo sfruttamento sessuale.
Le indagini hanno dimostrato che aziende come Meta sanno che le loro piattaforme aggravano i problemi di salute mentale, contribuendo a rendere la salute mentale dei giovani una delle priorità del Surgeon General degli Stati Uniti.
Gran parte della ricerca sulla sicurezza online degli adolescenti proviene da dati auto-riferiti come i sondaggi.
Sono necessarie ulteriori indagini sulle interazioni private dei giovani nel mondo reale e sulle loro prospettive sui rischi online.
Per rispondere a questa esigenza, io e i miei colleghi abbiamo raccolto un ampio set di dati sull'attività Instagram dei giovani, inclusi oltre 7 milioni di messaggi diretti.
Abbiamo chiesto ai giovani di annotare le proprie conversazioni e identificare i messaggi che li facevano sentire a disagio o insicuri.
Utilizzando questo set di dati, abbiamo scoperto che le interazioni dirette possono essere cruciali per i giovani che cercano supporto su questioni che vanno dalla vita quotidiana ai problemi di salute mentale.
La nostra scoperta suggerisce che questi canali sono stati utilizzati dai giovani per discutere in modo più approfondito le loro interazioni pubbliche. Sulla base della fiducia reciproca nei contesti, gli adolescenti si sono sentiti sicuri nel chiedere aiuto.
La ricerca suggerisce che la privacy del discorso online gioca un ruolo importante nella sicurezza online dei giovani e, allo stesso tempo, una notevole quantità di interazioni dannose su queste piattaforme si presenta sotto forma di messaggi privati.
I messaggi non sicuri segnalati dagli utenti nel nostro set di dati includevano molestie, messaggi di natura sessuale, incitamento sessuale, nudità, pornografia, incitamento all'odio e vendita o promozione di attività illegali.
Tuttavia, è diventato più difficile per le piattaforme utilizzare la tecnologia automatizzata per rilevare e prevenire i rischi online per gli adolescenti perché le piattaforme sono state sottoposte a pressioni per proteggere la privacy degli utenti.
Ad esempio, Meta ha implementato la crittografia end-to-end per tutti i messaggi sulle sue piattaforme per garantire che il contenuto dei messaggi sia sicuro e accessibile solo ai partecipanti alle conversazioni.
Inoltre, le misure adottate da Meta per bloccare i contenuti sui suicidi e sui disturbi alimentari impediscono a tali contenuti di essere pubblicati nei post pubblici e nelle ricerche, anche se sono stati pubblicati da un amico di un adolescente.
Ciò significa che l'adolescente che condivide quel contenuto verrebbe lasciato solo senza il supporto dei suoi amici e coetanei.
Inoltre, la strategia sui contenuti di Meta non affronta le interazioni non sicure nelle conversazioni private che gli adolescenti hanno online.
Trovare un equilibrio
La sfida, quindi, è proteggere gli utenti più giovani senza invadere la loro privacy. A tal fine, abbiamo condotto uno studio per scoprire come utilizzare i dati minimi per rilevare messaggi non sicuri.
Volevamo capire in che modo varie caratteristiche o metadati delle conversazioni rischiose, come la durata della conversazione, il tempo medio di risposta e le relazioni dei partecipanti alla conversazione, possano contribuire ai programmi di machine learning nel rilevamento di questi rischi.
Ad esempio, ricerche precedenti hanno dimostrato che le conversazioni rischiose tendono ad essere brevi e unilaterali, come quando gli estranei fanno avance indesiderate.
Abbiamo scoperto che il nostro programma di machine learning è stato in grado di identificare conversazioni non sicure l'87% delle volte utilizzando solo i metadati per le conversazioni.
Tuttavia, analizzare il testo, le immagini e i video delle conversazioni è l’approccio più efficace per identificare la tipologia e la gravità del rischio.
Questi risultati evidenziano l’importanza dei metadati per distinguere le conversazioni non sicure e potrebbero essere utilizzati come linea guida per le piattaforme per progettare l’identificazione dei rischi dell’intelligenza artificiale.
Le piattaforme potrebbero utilizzare funzionalità di alto livello come i metadati per bloccare contenuti dannosi senza scansionarli e violando così la privacy degli utenti.
Ad esempio, un molestatore persistente che un giovane vuole evitare produrrebbe metadati – comunicazioni ripetute, brevi e unilaterali tra utenti non connessi – che un sistema di intelligenza artificiale potrebbe utilizzare per bloccare il molestatore.
Idealmente, i giovani e i loro assistenti dovrebbero avere la possibilità, in base alla progettazione, di attivare la crittografia, il rilevamento dei rischi o entrambi in modo che possano decidere da soli il compromesso tra privacy e sicurezza.
Raccomandazioni degli editori:
- Le sfide dell’intelligenza artificiale nel 2024: approfondimenti di 3 importanti ricercatori sull’intelligenza artificiale
- Gli esseri umani e ChatGPT rispecchiano modelli linguistici reciproci: ecco come
- Trader AI ChatGPT: troppo veloci, troppo furiosi, troppo rischiosi?
- ChatGPT e altre IA linguistiche sono irrazionali quanto noi
Nota dell'editore: questo articolo è stato scritto da Afsaneh Razi, professore assistente di scienze dell'informazione, Drexel University, e ripubblicato da The Conversation sotto una licenza Creative Commons e. Leggi l'articolo originale.