Почему вам, вероятно, следует перестать использовать ChatGPT для поджаривания вашего Instagram
Опубликовано: 2024-08-22Вы когда-нибудь чувствовали себя униженным чат-ботом с искусственным интеллектом? Что ж, очевидно, вы не одиноки: почти 400 тысяч человек принимают участие в тенденции в социальных сетях, когда они используют ChatGPT для публичного «поджаривания» своей ленты в Instagram.
Результаты просто ужасающие: инструмент искусственного интеллекта выявляет все, от неуклюжих селфи в спортзале до сомнительного выбора гардероба, предоставляя пользователям бесконечную пищу для своих историй в Instagram и заставляя еще больше людей задаваться вопросом… когда ChatGPT стал таким забавным?
Тем не менее, учитывая вирусную тенденцию ChatGPT, побуждающую пользователей передавать личную информацию, проблема также вызывает возобновление старых разговоров о сомнительных методах сбора данных OpenAI и недостаточном подходе к безопасности. Читайте дальше, чтобы узнать больше о самой злобной вирусной тенденции Instagram и рисках, связанных с обменом данными с ChatGPT.
Пользователи просят ChatGPT оскорбить их профиль в Instagram
Если вы недавно были в Instagram, вы, вероятно, были завалены абзацами, созданными искусственным интеллектом, которые уничтожали ленты ваших коллег-пользователей.
Тенденция «поджарь мой корм» распространилась по социальным сетям, как лесной пожар. На момент написания статьи 395 тысяч человек поделились своими результатами в своих историях благодаря общему шаблону, который позволяет вам принять участие в паре нажатий – и его виральность неудивительна.
ChatGPT не выдерживает никаких ударов. Его запеканки с искусственным интеллектом, которые на удивление забавны, не боятся переходить на личности: чат-бот тщательно изучает каждую часть ленты пользователя в Instagram, от его хобби и выбора одежды до контента о путешествиях.
🔎 Хотите просматривать веб-страницы конфиденциально? 🌎 Или создаётся впечатление, будто ты в другой стране?
Получите огромную скидку 86 % на Surfshark с этим специальным предложением от tech.co.
Это та же самая работа гения искусственного интеллекта, которая поздравила Tech.co с тем, что она стала «интернет-версией теплой чашки кофе – совершенно незабываемой и столь же разочаровывающей». Ой, мы сделаем вид, что не обижаемся на это.
Прошу ChatGPT поджарить меня:
«Стефанос Циципас: парень, который тратит больше времени на философствование в Твиттере, чем на подачу солидной второй подачи. Он единственный игрок, который может превратить простую замену в выступление на TED о греческой мифологии и при этом вернуться на площадку с…
– Стефанос Циципас (@steftsitsipas) 19 августа 2024 г.
Несмотря на процветание в Instagram, истоки челленджа можно проследить до X – в частности, вирусного поста, в котором звезда греческого тенниса Стефанос Циципас просит популярного чат-бота с искусственным интеллектом поджарить его. Пост, в котором Цисипас описывается как «парень, который тратит больше времени на философствование в Твиттере, чем на то, чтобы подавать солидную вторую подачу», получил более 451 тысячу просмотров за день и породил ряд тенденций подражания на других платформах социальных сетей.
Когда ChatGPT стал забавным?
Репутация ChatGPT как «швейцарского армейского ножа для искусственного интеллекта» лежит в основе его популярности. Когда дело доходит до его использования, ограничением на самом деле является ваше воображение (плюс ограничение в 4096 символов), поскольку чат-бот используется для написания эссе, написания компьютерных программ, мозгового штурма бизнес-идей и многого другого.
Однако, несмотря на свою универсальность, ChatGPT не всегда был известен как забавный, а его недальновидность фактически была подтверждена исследованиями. В прошлом году немецкие исследователи Софи Йенч и Кристиан Керстинг решили проверить комедийный потенциал генеративного ИИ, попросив ChatGPT3.5 OpenAI рассказать им шутку 1008 раз подряд.
Чат-бот предлагал им варианты одной из 25 шуток в более чем 90% случаев, предполагая, что комедийный репертуар ChatGPT, скорее всего, был изучен на этапах обучения, а не создан спонтанно. Исследование показало, что шутки ChatGPT «не выдерживают особого логического анализа», что на неакадемическом языке означает, что они не имеют особого смысла.
Однако прежде чем стендап-комики смогли вздохнуть с облегчением, эти результаты оказались далеко не единодушными. Фактически, недавние исследования показывают, что чат-бот на самом деле смешнее, чем большинство людей: 70% участников предпочитают остроты из ChatGPT представителям своего вида, и исследователи приходят к выводу, что чат-бот может «создавать письменный юмор с качеством, превосходящим юмор непрофессионалов». способности».
По правде говоря, юмор субъективен, поэтому объективно проанализировать «забавность» чат-бота никогда не будет легко. Тем не менее, поскольку OpenAI усердно работает над улучшением возможностей ChatGPT, ИИ будет становиться все лучше и лучше в освоении традиционных человеческих навыков, таких как шутки и нестандартное мышление. Но поскольку ChatGPT возглавляет еще один вирусный момент в Instagram, стоит ли нам вообще доверять этому чат-боту наши данные?
Темная сторона вирусного тренда ChatGPT «Поджарь меня»
Поскольку тенденция ChatGPT «поджарь меня» набирает обороты, тысячи пользователей охотно передают личные данные, не задумываясь. Однако пока ChatGPT развлекает пользователей Instagram шутками, созданными искусственным интеллектом, его создатель OpenAI продолжает вызывать негативную реакцию из-за своего подхода к безопасности данных.
OpenAI признает, что сохраняет все ваши разговоры с чат-ботом в учебных целях, но когда дело доходит до того, как именно он используется, компания, как известно, хранит молчание. В политике конфиденциальности OpenAI поясняется, что компания также может передавать вашу личную информацию третьим лицам, что вызывает опасения по поводу превращения пользовательских данных в товар.
Более того, исследования Университета Северной Каролины показали, что передача конфиденциальной информации может быть необратимой. Из-за размера большой языковой модели (LLM), лежащей в основе ChatGPT, исследование пришло к выводу, что безвозвратно удалить ваши данные из инструмента искусственного интеллекта чрезвычайно сложно по сравнению с другими чат-ботами, и что «удаленную» информацию часто все еще можно восстановить.
Но что это на самом деле означает? Что ж, если вы намеренно не откажетесь от обмена своей информацией, это означает, что данные, которые вы вводите в ChatGPT, будут использоваться для обучения будущих моделей.
Даже если вы полностью доверяете OpenAI свои данные, сомнительный профиль безопасности компании вызывает опасения, что конфиденциальная информация попадет в чужие руки. В 2023 году компания Кремниевой долины стала жертвой кибератаки после того, как хакер получил доступ к внутренним системам обмена сообщениями. Хотя никакие пользовательские данные не были скомпрометированы, инсайдеры компании сообщают, что инцидента можно было избежать и что OpenAI не предпринимает достаточных мер для защиты конфиденциальных данных от киберпреступников и иностранных противников, таких как Китай.
Чтобы защитить себя, мы рекомендуем делиться с ChatGPT только той информацией, которую вы не возражаете против того, чтобы она могла быть опубликована в Интернете. Когда дело доходит до критики вашего Instagram, мы не советуем публиковать снимки экрана, на которых раскрывается личная информация, такая как имена и адреса, четкие изображения вашего лица и примеры вашей творческой работы.
Узнайте больше о том, чем нельзя делиться с ChatGPT, здесь .