Nowe środki bezpieczeństwa Meta mogą być mieczem obosiecznym dla nastolatków

Opublikowany: 2024-02-11

9 stycznia 2024 r. Meta ogłosiła, że ​​będzie chronić nastoletnich użytkowników, blokując im oglądanie na Instagramie i Facebooku treści, które firma uzna za szkodliwe, w tym treści związanych z samobójstwami i zaburzeniami odżywiania.

Posunięcie to następuje po tym, jak rządy federalne i stanowe zwiększyły presję na firmy z branży mediów społecznościowych, aby zapewniły nastolatkom środki bezpieczeństwa.

Jednocześnie nastolatki zwracają się do swoich rówieśników w mediach społecznościowych o wsparcie, którego nie mogą uzyskać gdzie indziej. Wysiłki mające na celu ochronę nastolatków mogą w sposób niezamierzony utrudnić im uzyskanie pomocy.

W ostatnich latach Kongres przeprowadził liczne przesłuchania na temat mediów społecznościowych i zagrożeń dla młodych ludzi.

31 stycznia 2024 r. dyrektorzy generalni Meta, X – wcześniej znanej jako Twitter – TikTok, Snap i Discord mają złożyć zeznania przed Senacką Komisją Sądownictwa w sprawie swoich wysiłków na rzecz ochrony nieletnich przed wykorzystywaniem seksualnym.

Jak wynika z oświadczenia złożonego przed przesłuchaniem przewodniczącego komisji i członka rankingu, senatorów Dicka Durbina (ze stanu Illinois) i Lindsey Graham (, firmy technologiczne „w końcu są zmuszone przyznać się do swoich niepowodzeń w zakresie ochrony dzieci”). odpowiednio R.C.).

Jestem badaczem zajmującym się bezpieczeństwem w Internecie. Razem z kolegami badaliśmy interakcje nastolatków w mediach społecznościowych i skuteczność wysiłków platform mających na celu ochronę użytkowników.

Badania pokazują, że chociaż nastolatki rzeczywiście są narażone na niebezpieczeństwa w mediach społecznościowych, znajdują także wsparcie wśród rówieśników, szczególnie za pośrednictwem bezpośrednich wiadomości.

Zidentyfikowaliśmy zestaw kroków, które platformy mediów społecznościowych mogą podjąć, aby chronić użytkowników, jednocześnie chroniąc ich prywatność i autonomię w Internecie.

Z czym borykają się dzieci

Grupa nastolatków stojących i patrzących na telefony
Obraz: Unsplash

Częstość występowania zagrożeń dla nastolatków w mediach społecznościowych jest dobrze ugruntowana. Zagrożenia te obejmują molestowanie i znęcanie się, a także zły stan zdrowia psychicznego i wykorzystywanie seksualne.

Dochodzenia wykazały, że firmy takie jak Meta wiedzą, że ich platformy zaostrzają problemy ze zdrowiem psychicznym, dzięki czemu zdrowie psychiczne młodych ludzi staje się jednym z priorytetów naczelnego lekarza Stanów Zjednoczonych.

W dobie mediów społecznościowych zdrowie psychiczne nastolatków ulega pogorszeniu.

Większość badań nad bezpieczeństwem młodzieży w Internecie opiera się na danych samodzielnie zgłaszanych, takich jak ankiety.

Istnieje potrzeba dokładniejszego zbadania prywatnych interakcji młodych ludzi w świecie rzeczywistym i ich punktu widzenia na zagrożenia w Internecie.

Aby wyjść naprzeciw tej potrzebie, wraz z kolegami zebraliśmy duży zbiór danych dotyczących aktywności młodych ludzi na Instagramie, obejmujący ponad 7 milionów wiadomości bezpośrednich.

Poprosiliśmy młodych ludzi o dodawanie adnotacji do własnych rozmów i identyfikowanie przekazów, które sprawiły, że poczuli się niekomfortowo lub niebezpiecznie.

Korzystając z tego zbioru danych, odkryliśmy, że bezpośrednie interakcje mogą mieć kluczowe znaczenie dla młodych ludzi poszukujących wsparcia w różnych kwestiach, od życia codziennego po problemy ze zdrowiem psychicznym.

Z naszych ustaleń wynika, że ​​młodzi ludzie korzystali z tych kanałów w celu głębszego omawiania swoich interakcji publicznych. W oparciu o wzajemne zaufanie do ustawień nastolatki czuły się bezpiecznie prosząc o pomoc.

Badania sugerują, że prywatność dyskursu internetowego odgrywa ważną rolę w bezpieczeństwie młodych ludzi w Internecie, a jednocześnie znaczna liczba szkodliwych interakcji na tych platformach ma formę prywatnych wiadomości.

Niebezpieczne wiadomości oznaczone przez użytkowników w naszym zbiorze danych obejmowały molestowanie, wiadomości o charakterze seksualnym, nagabywanie o charakterze seksualnym, nagość, pornografię, mowę nienawiści oraz sprzedaż lub promocję nielegalnych działań.

Jednak korzystanie z zautomatyzowanej technologii do wykrywania zagrożeń dla nastolatków w Internecie i zapobiegania im stało się trudniejsze, ponieważ na platformy wywierano presję, aby chroniły prywatność użytkowników.

Na przykład Meta wdrożyła kompleksowe szyfrowanie wszystkich wiadomości na swoich platformach, aby zapewnić bezpieczeństwo treści wiadomości i dostęp do nich tylko dla uczestników rozmów.

Ponadto kroki podjęte przez Meta w celu blokowania treści o samobójstwach i zaburzeniach odżywiania uniemożliwiają umieszczanie tych treści w publicznych postach i wyszukiwarkach, nawet jeśli opublikował je znajomy nastolatka.

Oznacza to, że nastolatek, który udostępnił te treści, zostanie sam, bez wsparcia przyjaciół i rówieśników.

Ponadto strategia Meta dotycząca treści nie uwzględnia niebezpiecznych interakcji w prywatnych rozmowach nastolatków w Internecie.

Zachowując równowagę

Grupa siedzi na kanapie.
Zdjęcie: KnowTechie

Wyzwanie polega zatem na ochronie młodszych użytkowników bez naruszania ich prywatności. W tym celu przeprowadziliśmy badanie, aby dowiedzieć się, w jaki sposób możemy wykorzystać minimalną ilość danych do wykrywania niebezpiecznych wiadomości.

Chcieliśmy zrozumieć, w jaki sposób różne cechy lub metadane ryzykownych rozmów, takie jak długość rozmowy, średni czas odpowiedzi i relacje między uczestnikami rozmowy, mogą przyczynić się do wykrywania tych zagrożeń przez programy uczenia maszynowego.

Na przykład poprzednie badania wykazały, że ryzykowne rozmowy są zwykle krótkie i jednostronne, jak wtedy, gdy nieznajomi robią niechciane zaloty.

Odkryliśmy, że nasz program do uczenia maszynowego był w stanie zidentyfikować niebezpieczne rozmowy w 87% przypadków, korzystając wyłącznie z metadanych rozmów.

Jednak najskuteczniejszą metodą identyfikacji rodzaju i wagi ryzyka jest analiza tekstu, obrazów i filmów wideo rozmów.

Wyniki te podkreślają znaczenie metadanych w rozróżnianiu niebezpiecznych rozmów i mogą zostać wykorzystane jako wytyczne dla platform przy projektowaniu identyfikacji ryzyka związanego ze sztuczną inteligencją.

Platformy mogłyby korzystać z zaawansowanych funkcji, takich jak metadane, w celu blokowania szkodliwych treści bez skanowania tych treści i naruszania w ten sposób prywatności użytkowników.

Na przykład uporczywy sprawca nękania, którego młoda osoba chce uniknąć, wygeneruje metadane – powtarzającą się, krótką, jednostronną komunikację między niepołączonymi użytkownikami – które system sztucznej inteligencji mógłby wykorzystać do zablokowania osoby nękającej.

Idealnie byłoby, gdyby młodzi ludzie i ich opiekunowie mieli z założenia możliwość włączenia szyfrowania i wykrywania ryzyka lub obu tych funkcji, aby mogli sami decydować o kompromisie między prywatnością a bezpieczeństwem.

Zalecenia redaktorów:

  • Wyzwania związane ze sztuczną inteligencją w 2024 r.: spostrzeżenia 3 czołowych badaczy sztucznej inteligencji
  • Humans i ChatGPT odzwierciedlają wspólne wzorce językowe – oto jak to zrobić
  • Traderzy ChatGPT AI: zbyt szybcy, zbyt wściekli, zbyt ryzykowni?
  • ChatGPT i sztuczna inteligencja innych języków są tak samo irracjonalne jak my

Nota wydawcy: Ten artykuł został napisany przez Afsaneha Razi, adiunkta nauk informatycznych na Uniwersytecie Drexel i ponownie opublikowany w The Conversation na licencji Creative Commons, np. Przeczytaj oryginalny artykuł.

The conversation

Śledź nas na Flipboard, Google News lub Apple News