Dlaczego prawdopodobnie powinieneś przestać korzystać z ChatGPT, aby upiec swój Instagram

Opublikowany: 2024-08-22

Czy kiedykolwiek czułeś się upokorzony przez chatbota AI? Cóż, najwyraźniej nie jesteś sam – prawie 400 000 osób bierze udział w trendzie w mediach społecznościowych, w ramach którego ChatGPT publicznie „upala” swój kanał na Instagramie.

Wyniki są zatrważające, a narzędzie AI wykrzykuje wszystko, od żałosnych selfie na siłowni po wątpliwe wybory garderoby – zapewniając użytkownikom nieskończoną pożywkę dla ich historii na Instagramie i sprawiając, że jeszcze więcej osób zastanawia się… kiedy ChatGPT stało się takie zabawne?

Jednak w związku z wirusowym trendem ChatGPT, który powoduje, że fale użytkowników przekazują dane osobowe, wyzwaniem jest także wznowienie starych rozmów na temat wątpliwych praktyk gromadzenia danych przez OpenAI i słabego podejścia do bezpieczeństwa. Czytaj dalej, aby dowiedzieć się więcej o najgorszym trendzie wirusowym na Instagramie i ryzyku związanym z udostępnianiem danych za pomocą ChatGPT.

Użytkownicy proszą ChatGPT o obrazę ich profilu na Instagramie

Jeśli ostatnio korzystasz z Instagrama, prawdopodobnie zostałeś zasypany długimi akapitami pieczeniami generowanymi przez sztuczną inteligencję, które niszczą kanały innych użytkowników.

Trend „upiecz moją paszę” rozprzestrzenia się w mediach społecznościowych błyskawicznie. W chwili pisania tego tekstu 395 tys. osób udostępniło swoje wyniki w swojej relacji dzięki udostępnianemu szablonowi, który pozwala wziąć udział w kilku kliknięciach – a jego wirusowość nie jest zaskakująca.

ChatGPT nie ma żadnych ciosów. Jego pieczenie AI, które jest zaskakująco zabawne, nie boi się nawiązać kontaktu osobistego, a chatbot analizuje każdą część kanału użytkownika na Instagramie, od jego hobby i wyborów dotyczących ubioru po treści podróżnicze.

Logo Surfsharka 🔎 Chcesz przeglądać internet prywatnie? 🌎 A może sprawiasz wrażenie, jakbyś był w innym kraju?
Skorzystaj z ogromnej zniżki 86% na Surfshark dzięki tej specjalnej ofercie tech.co. Zobacz przycisk transakcji

To to samo dzieło geniusza sztucznej inteligencji, które pogratulowało Tech.co bycia „internetową wersją filiżanki letniej kawy – całkowicie zapadającej w pamięć i równie rozczarowującej”. Ach – będziemy udawać, że nas to nie uraziło.

Pomimo rozkwitu na Instagramie, początki wyzwania sięgają X – a konkretnie wirusowego postu, w którym grecka gwiazda tenisa Stefanos Tsitsipas prosi popularnego chatbota AI o upieczenie go. Post, w którym opisano Tsisipasa jako „faceta, który więcej czasu filozofuje na Twitterze, niż faktycznie serwując porządny drugi serwis”, otrzymał ponad 451 tys. wyświetleń dziennie i zaowocował szeregiem naśladowniczych trendów na innych platformach mediów społecznościowych.

Kiedy ChatGPT stał się zabawny?

Reputacja ChatGPT jako „szwajcarskiego scyzoryka dla sztucznej inteligencji” jest podstawą jego popularności. Jeśli chodzi o jego zastosowania, tak naprawdę ograniczeniem jest Twoja wyobraźnia (plus limit 4096 znaków), ponieważ chatbot jest używany do pisania esejów, kodowania programów komputerowych, burzy mózgów pomysłów biznesowych i nie tylko.

Jednak pomimo swojej wszechstronności ChatGPT nie zawsze był znany z tego, że jest zabawny, a jego brak dowcipu został potwierdzony badaniami. W zeszłym roku niemieccy badacze Sophie Jentzsch i Kristian Kersting postanowili wystawić na próbę komediowy potencjał generatywnej sztucznej inteligencji, prosząc ChatGPT3.5 OpenAI o opowiedzenie im dowcipu 1008 razy z rzędu.

Chatbot oferował im wariacje na temat jednego z 25 żartów w ponad 90% przypadków, co sugeruje, że repertuaru komediowego ChatGPT prawdopodobnie nauczyli się podczas faz szkolenia, a nie generowali spontanicznie. Badanie wykazało, że żarty ChatGPT „nie wymykały się logicznej analizie”, co w języku nieakademickim oznacza, że ​​nie miały większego sensu.

Zanim jednak komicy stand-upowi mogli odetchnąć z ulgą, wyniki te były dalekie od jednomyślności. W rzeczywistości ostatnie badania sugerują, że chatbot jest w rzeczywistości zabawniejszy niż większość ludzi, przy czym 70% uczestników woli dowcipy z ChatGPT od własnego gatunku, a badacze doszli do wniosku, że chatbot może „tworzyć pisany humor o jakości przewyższającej laików zdolności”.

Prawdę mówiąc, humor jest subiektywny, więc obiektywna analiza „zabawności” chatbota nigdy nie będzie łatwa. Jednak w miarę jak OpenAI ciężko pracuje nad ulepszeniem możliwości ChatGPT, sztuczna inteligencja będzie coraz lepsza w opanowywaniu tradycyjnie ludzkich umiejętności, takich jak opowiadanie dowcipów i myślenie lateralne. Ale czy skoro ChatGPT przewodzi kolejnemu wirusowemu momentowi na Instagramie, czy w ogóle powinniśmy powierzać temu chatbotowi nasze dane?

Ciemniejsza strona wirusowego trendu „Roast Me” firmy ChatGPT

W miarę jak trend „upiecz mnie” w ChatGPT nabiera tempa, tysiące użytkowników chętnie przekazało dane osobowe bez większego namysłu. Jednak podczas gdy ChatGPT bawi użytkowników Instagrama zingerami generowanymi przez sztuczną inteligencję, jego twórca OpenAI w dalszym ciągu spotyka się z ostrymi reakcjami na jego podejście do bezpieczeństwa danych.

OpenAI przyznaje, że zapisuje wszystkie rozmowy prowadzone z chatbotem w celach szkoleniowych, ale jeśli chodzi o dokładne określenie sposobu jego wykorzystania, firma notorycznie zachowuje milczenie. Polityka prywatności OpenAI wyjaśnia, że ​​może ona udostępniać Twoje dane osobowe także stronom trzecim, wywołując obawy dotyczące utowarowienia danych użytkowników.

Co więcej, badania przeprowadzone na Uniwersytecie Karoliny Północnej wykazały, że przekazanie poufnych informacji może być nieodwracalne. Ze względu na rozmiar modelu dużego języka (LLM) obsługującego ChatGPT, w badaniu stwierdzono, że trwałe usunięcie danych z narzędzia AI jest niezwykle trudne w porównaniu z innymi chatbotami, a „usunięte” informacje często można nadal odzyskać.

Ale co to właściwie oznacza? Cóż, jeśli celowo nie zrezygnujesz z udostępniania swoich danych, oznacza to, że dane, które wprowadzasz do ChatGPT, zostaną wykorzystane do szkolenia przyszłych modeli.

Nawet jeśli całkowicie powierzysz OpenAI swoje dane, wątpliwy profil bezpieczeństwa firmy budzi obawy, że wrażliwe informacje dostaną się w niepowołane ręce. W 2023 roku firma z Doliny Krzemowej padła ofiarą cyberataku po tym, jak haker uzyskał dostęp do wewnętrznych systemów przesyłania wiadomości. Chociaż żadne dane użytkownika nie zostały naruszone, znawcy firmy ujawniają, że incydentu można było uniknąć i że OpenAI nie robiło wystarczająco dużo, aby chronić poufne dane przed cyberprzestępcami i zagranicznymi przeciwnikami, takimi jak Chiny.

Aby się chronić, zalecamy udostępnianie ChatGPT wyłącznie tych informacji, których nie masz nic przeciwko potencjalnemu udostępnieniu online. Jeśli chodzi o publikowanie na Instagramie, odradzamy udostępnianie zrzutów ekranu ujawniających dane osobowe, takie jak nazwiska i adresy, wyraźne zdjęcia Twojej twarzy i przykłady Twojej pracy twórczej.

Dowiedz się więcej o tym, czego nie należy udostępniać ChatGPT tutaj .