Noile măsuri de siguranță ale lui Meta ar putea fi o sabie cu două tăișuri pentru adolescenți
Publicat: 2024-02-11Meta a anunțat pe 9 ianuarie 2024 că va proteja utilizatorii adolescenți, blocându-i să vizualizeze conținut pe Instagram și Facebook pe care compania le consideră dăunătoare, inclusiv conținut legat de sinucidere și tulburări de alimentație.
Mișcarea vine în timp ce guvernele federale și de stat au crescut presiunea asupra companiilor de social media pentru a oferi măsuri de siguranță pentru adolescenți.
În același timp, adolescenții apelează la colegii lor de pe rețelele de socializare pentru sprijin pe care nu îl pot primi în altă parte. Eforturile de a proteja adolescenții le-ar putea îngreuna, din neatenție, să primească ajutor.
Congresul a organizat numeroase audieri în ultimii ani despre rețelele sociale și riscurile pentru tineri.
Directorii generali ai Meta, X – cunoscuți anterior ca Twitter – TikTok, Snap și Discord sunt programați să depună mărturie în fața Comisiei Judiciare a Senatului pe 31 ianuarie 2024, despre eforturile lor de a proteja minorii de exploatarea sexuală.
Companiile de tehnologie „în cele din urmă sunt forțate să-și recunoască eșecurile atunci când vine vorba de protejarea copiilor”, potrivit unei declarații înaintea audierii din partea președintelui comisiei și a membrului clasat, senatorii Dick Durbin (D-Ill.) și Lindsey Graham ( RS.C.), respectiv.
Sunt un cercetător care studiază siguranța online. Eu și colegii mei am studiat interacțiunile adolescenților cu rețelele sociale și eficacitatea eforturilor platformelor de a proteja utilizatorii.
Cercetările arată că, deși adolescenții se confruntă cu pericole pe rețelele sociale, ei găsesc și sprijin de la egal la egal, în special prin mesaje directe.
Am identificat un set de pași pe care platformele de social media i-ar putea lua pentru a proteja utilizatorii, protejându-le în același timp confidențialitatea și autonomia online.
Cu ce se confruntă copiii
Prevalența riscurilor pentru adolescenți pe rețelele sociale este bine stabilită. Aceste riscuri variază de la hărțuire și agresiune până la sănătate mintală precară și exploatare sexuală.
Investigațiile au arătat că companii precum Meta au știut că platformele lor exacerba problemele de sănătate mintală, ajutând să facă din sănătatea mintală a tinerilor una dintre prioritățile chirurgului general al SUA.
O mare parte din cercetările online privind siguranța adolescenților provin din date auto-raportate, cum ar fi sondaje.
Este nevoie de mai multe investigații asupra interacțiunilor private ale tinerilor din lumea reală și a perspectivelor acestora asupra riscurilor online.
Pentru a răspunde acestei nevoi, eu și colegii mei am colectat un set mare de date despre activitatea tinerilor pe Instagram, inclusiv peste 7 milioane de mesaje directe.
Le-am cerut tinerilor să-și adnoteze propriile conversații și să identifice mesajele care i-au făcut să se simtă inconfortabil sau nesigur.
Folosind acest set de date, am descoperit că interacțiunile directe pot fi esențiale pentru tinerii care caută sprijin în probleme, de la viața de zi cu zi până la probleme de sănătate mintală.
Descoperirea noastră sugerează că aceste canale au fost folosite de tineri pentru a discuta mai aprofundat interacțiunile lor publice. Pe baza încrederii reciproce în medii, adolescenții s-au simțit în siguranță cerând ajutor.
Cercetările sugerează că confidențialitatea discursului online joacă un rol important în siguranța online a tinerilor și, în același timp, o cantitate considerabilă de interacțiuni dăunătoare pe aceste platforme vine sub formă de mesaje private.
Mesajele nesigure semnalate de utilizatori în setul nostru de date includ hărțuirea, mesajele sexuale, solicitarea sexuală, nuditatea, pornografia, discursul instigator la ură și vânzarea sau promovarea activităților ilegale.
Cu toate acestea, a devenit mai dificil pentru platforme să folosească tehnologia automatizată pentru a detecta și a preveni riscurile online pentru adolescenți, deoarece platformele au fost presate să protejeze confidențialitatea utilizatorilor.
De exemplu, Meta a implementat criptare end-to-end pentru toate mesajele de pe platformele sale, pentru a se asigura că conținutul mesajului este sigur și accesibil numai participanților la conversații.
De asemenea, pașii pe care Meta i-a luat pentru a bloca conținutul privind sinuciderea și tulburarea alimentară păstrează acel conținut din postările publice și căutările, chiar dacă prietenul unui adolescent l-a postat.
Aceasta înseamnă că adolescentul care a distribuit acel conținut va rămâne singur fără sprijinul prietenilor și al colegilor lor.
În plus, strategia de conținut a lui Meta nu abordează interacțiunile nesigure din conversațiile private pe care adolescenții le au online.
Găsind un echilibru
Prin urmare, provocarea este de a proteja utilizatorii mai tineri fără a le invada intimitatea. În acest scop, am efectuat un studiu pentru a afla cum putem folosi datele minime pentru a detecta mesajele nesigure.
Am vrut să înțelegem cum diferite caracteristici sau metadate ale conversațiilor riscante, cum ar fi durata conversației, timpul mediu de răspuns și relațiile participanților la conversație pot contribui la detectarea acestor riscuri prin programele de învățare automată.
De exemplu, cercetările anterioare au arătat că conversațiile riscante tind să fie scurte și unilaterale, ca atunci când străinii fac progrese nedorite.
Am descoperit că programul nostru de învățare automată a fost capabil să identifice conversațiile nesigure în 87% din timp folosind doar metadate pentru conversații.
Cu toate acestea, analiza textului, imaginilor și videoclipurilor conversațiilor este cea mai eficientă abordare pentru a identifica tipul și severitatea riscului.
Aceste rezultate evidențiază importanța metadatelor pentru distingerea conversațiilor nesigure și ar putea fi folosite ca ghid pentru platformele de proiectare a identificării riscurilor de inteligență artificială.
Platformele ar putea folosi funcții de nivel înalt, cum ar fi metadatele, pentru a bloca conținutul dăunător fără a scana acel conținut și, prin urmare, a încălca confidențialitatea utilizatorilor.
De exemplu, un hărțuitor persistent pe care un tânăr dorește să-l evite ar produce metadate – comunicații repetate, scurte, unilaterale între utilizatori neconectați – pe care un sistem AI le-ar putea folosi pentru a bloca hărțuitorul.
În mod ideal, tinerilor și îngrijitorilor lor li s-ar oferi opțiunea prin design pentru a putea activa criptarea, detectarea riscurilor sau ambele, astfel încât să poată decide asupra compromisurilor între confidențialitate și siguranță pentru ei înșiși.
Recomandările editorilor:
- Provocări ale inteligenței artificiale în 2024: informații de la 3 cercetători de top în domeniul inteligenței artificiale
- Oamenii și ChatGPT oglindesc modele de limbaj reciproce – iată cum
- Comercianți ChatGPT AI: Prea rapid, prea furioși, prea riscant?
- ChatGPT și alte IA pentru limbi sunt la fel de iraționale ca și noi
Nota editorului: Acest articol a fost scris de Afsaneh Razi, profesor asistent de Știința Informației, Universitatea Drexel și republicat din The Conversation sub o licență Creative Commons e. Citiți articolul original.