Instagram을 로스팅하기 위해 ChatGPT를 사용하는 것을 중단해야 하는 이유

게시 됨: 2024-08-22

AI 챗봇 때문에 겸손해지는 느낌을 받은 적이 있나요? 거의 400,000명의 사람들이 ChatGPT를 통해 자신의 Instagram 피드를 공개적으로 "로스트"하는 소셜 미디어 트렌드에 참여하고 있습니다.

그 결과는 야만적이었습니다. AI 도구는 우스꽝스러운 체육관 셀카부터 의심스러운 의상 선택까지 모든 것을 불러내 사용자에게 Instagram 스토리에 대한 끊임없는 자료를 제공하고 더 많은 사람들이 궁금해하게 만듭니다… ChatGPT가 언제 그렇게 재미있어졌습니까?

그러나 ChatGPT의 바이러스 추세로 인해 사용자가 개인 정보를 넘겨주게 되면서 OpenAI의 의심스러운 데이터 수집 관행 과 보안에 대한 미흡한 접근 방식에 대한 오래된 대화가 다시 시작되고 있습니다. Instagram의 가장 비열한 바이럴 트렌드와 ChatGPT를 통한 데이터 공유와 관련된 위험에 대해 자세히 알아 보려면 계속 읽어보세요.

사용자들은 ChatGPT에게 자신의 Instagram 프로필을 모욕하라고 요청하고 있습니다

최근 Instagram에 접속하셨다면 아마도 동료 사용자의 피드를 무너뜨리는 단락 길이의 AI 생성 로스트가 넘쳐났을 것입니다.

'로스트 마이 피드(Roast My Feed)' 트렌드가 소셜 미디어를 휩쓸고 있습니다. 이 글을 쓰는 시점에 몇 번의 탭만으로 참여할 수 있는 공유 가능한 템플릿 덕분에 395,000명의 사람들이 자신의 스토리에 결과를 공유했으며, 그 입소문은 그다지 놀라운 일이 아닙니다.

ChatGPT는 펀치를 보유하지 않습니다. 놀라울 정도로 재미있는 AI 로스트는 개인화를 두려워하지 않으며, 챗봇은 사용자의 취미와 의류 선택부터 여행 콘텐츠까지 인스타그램 피드의 모든 부분을 면밀히 조사합니다.

Surfshark 로고 🔎 비공개로 웹을 탐색하고 싶으신가요? 🌎 아니면 다른 나라에 있는 것처럼 보이시나요?
이 특별 tech.co 제안을 통해 Surfshark에서 엄청난 86% 할인을 받으세요. 거래 버튼 보기

Tech.co가 "미지근한 커피 한잔의 인터넷 버전 - 완전히 잊혀지고 실망스러운 것"이라고 칭찬한 것은 AI 천재의 동일한 작업입니다. 아야 – 우리는 그것에 대해 기분이 상하지 않은 척하겠습니다.

Instagram에서 성황을 이루었음에도 불구하고 이 챌린지의 기원은 X로 거슬러 올라갑니다. 특히 그리스 테니스 스타 Stefanos Tsitsipas가 인기 있는 AI 챗봇에게 자신을 로스팅해 달라고 요청하는 바이럴 게시물이 있었습니다. Tsisipas를 "실제로 두 번째 서브를 제공하는 것보다 트위터에서 철학적 사고에 더 많은 시간을 소비하는 사람"으로 묘사한 이 게시물은 하루에 451,000회 이상의 조회수를 기록했으며 다른 소셜 미디어 플랫폼에서 수많은 모방 트렌드를 낳았습니다.

ChatGPT는 언제 재미있어졌나요?

"AI를 위한 스위스 군용 칼"이라는 ChatGPT의 명성은 인기의 기초입니다. 용도에 있어서 한계는 실제로 여러분의 상상력(4,096자 제한 포함)이며, 챗봇은 에세이 작성, 컴퓨터 프로그램 코딩, 비즈니스 아이디어 브레인스토밍 등에 사용됩니다.

그러나 다재다능함에도 불구하고 ChatGPT는 항상 재미있는 것으로 알려진 것은 아니며, 재치 부족이 실제로 연구에 의해 뒷받침되었습니다. 작년에 독일 연구원인 Sophie Jentzsch와 Kristian Kersting은 OpenAI의 ChatGPT3.5에 1,008번 연속으로 농담을 말하도록 요청하여 생성 AI의 코미디 잠재력을 테스트하기로 결정했습니다.

챗봇은 90% 이상 동안 25가지 농담 설정 중 하나에 대한 변형을 제공했는데, 이는 ChatGPT의 코미디 레퍼토리가 자발적으로 생성된 것이 아니라 훈련 단계에서 학습되었을 가능성이 있음을 시사합니다. 연구에 따르면 ChatGPT의 농담은 "논리적 조사도 많이 보류"되지 않았으며, 이는 학문적이지 않은 언어에서는 그다지 의미가 없다는 것을 의미합니다.

그러나 스탠드업 개그맨들이 안도의 한숨을 쉬기 전까지 이러한 결과는 만장일치와는 거리가 멀었다. 실제로 최근 연구에 따르면 챗봇은 실제로 대부분의 인간보다 더 재미있습니다. 참가자 중 70%가 자신의 종보다 ChatGPT의 재치 있는 말을 선호하며 연구자들은 챗봇이 "일반인을 능가하는 품질로 글로 쓰여진 유머를 생성할 수 있다"고 결론지었습니다. 능력”.

사실 유머는 주관적이기 때문에 챗봇의 '재미'를 객관적으로 분석하는 것은 결코 쉽지 않습니다. 그러나 OpenAI가 ChatGPT의 기능을 개선하기 위해 열심히 노력함에 따라 AI는 농담 깨기, 수평적 사고와 같은 전통적인 인간 기술을 마스터하는 데 점점 더 나아질 것입니다. 하지만 ChatGPT가 Instagram에서 또 다른 바이럴 순간을 주도하고 있는 상황에서 우리는 데이터를 가지고 있는 챗봇을 전혀 믿어야 할까요?

ChatGPT의 바이러스성 "Roast Me" 트렌드의 어두운 면

ChatGPT의 'Roast me' 트렌드가 탄력을 받으면서 수천 명의 사용자가 별다른 생각 없이 기꺼이 개인 데이터를 넘겨주었습니다. 그러나 ChatGPT가 AI 생성 징거로 Instagram 사용자를 즐겁게 함에 따라, 이를 만든 OpenAI는 데이터 보안에 대한 접근 방식에 대해 계속해서 반발을 불러일으키고 있습니다.

OpenAI는 훈련 목적으로 챗봇과 나누는 모든 대화를 저장한다는 점을 인정하지만, 그것이 정확히 어떻게 사용되는지에 대해서는 침묵하는 것으로 악명 높습니다. OpenAI의 개인정보 보호정책은 귀하의 개인정보를 제3자와 공유할 수 있다고 설명하고 있어 사용자 데이터의 상품화에 대한 우려를 불러일으키고 있습니다.

게다가 노스캐롤라이나 대학의 연구에 따르면 민감한 정보를 넘겨주면 되돌릴 수 없는 것으로 나타났습니다. ChatGPT를 지원하는 LLM(대형 언어 모델)의 크기로 인해 연구에서는 다른 챗봇에 비해 AI 도구에서 데이터를 영구적으로 삭제하는 것이 매우 어렵고 ' 삭제된' 정보를 여전히 검색할 수 있는 경우가 많다는 결론을 내렸습니다.

그런데 이것이 실제로 무엇을 의미하는가? 정보 공유를 의도적으로 선택 해제하지 않는 한 ChatGPT에 입력하는 데이터는 향후 모델을 교육하는 데 사용됩니다.

데이터에 대해 OpenAI를 진심으로 신뢰하더라도 회사의 의심스러운 보안 프로필은 민감한 정보가 잘못된 손에 들어갈 수 있다는 우려를 불러일으킵니다. 2023년에 Silicon Valley 회사는 해커가 내부 메시징 시스템에 액세스한 후 사이버 공격의 희생양이 되었습니다 . 사용자 데이터는 손상되지 않았지만 회사 내부자는 이 사건을 피할 수 있었으며 OpenAI가 사이버 범죄자와 중국과 같은 외국 적으로부터 기밀 데이터를 보호하기 위해 충분한 조치를 취하지 않았다고 밝혔습니다.

자신을 보호하려면 온라인에서 공유해도 괜찮은 정보만 ChatGPT와 공유하는 것이 좋습니다. Instagram을 로스팅할 때 이름, 주소 등의 개인 정보, 선명한 얼굴 이미지, 창의적인 작업 예시 등을 노출하는 스크린샷을 공유하지 않는 것이 좋습니다.

여기에서 ChatGPT와 공유 하지 말아야 할 사항 에 대해 자세히 알아보세요.