Instagram をローストするために ChatGPT を取得するのをおそらくやめるべき理由

公開: 2024-08-22

AI チャットボットに謙虚な気持ちになったことはありますか?さて、どうやらあなたは一人ではなく、 ChatGPT を使って Instagram フィードを公に「ロースト」させるソーシャル メディア トレンドに約 40 万人が参加しています。

その結果はひどいもので、この AI ツールは、ジムでの気の悪い自撮り写真から、疑わしいワードローブの選択まで、あらゆるものを呼び出し、ユーザーに Instagram ストーリーの無限のネタを提供し、さらに多くの人々を疑問に思っています...ChatGPT はいつからこんなに面白くなったのでしょう?

しかし、ChatGPT のバイラルな傾向が個人情報の引き渡しを求めるユーザーの波を促しており、この課題はまた、 OpenAI の不審なデータ収集慣行やセキュリティに対する精彩のないアプローチをめぐる古い議論を再燃させています。 Instagram の最も卑劣なバイラル傾向と、ChatGPT とのデータ共有に関連するリスクについて詳しく知りたい方は、以下をお読みください。

ユーザーはChatGPTに自分のInstagramプロフィールを侮辱するよう求めている

最近 Instagram を利用したことがある方は、AI が生成した 1 段落にわたるローストが氾濫し、他のユーザーのフィードを破壊したことがあるでしょう。

「ロースト・マイ・フィードのトレンド」は、ソーシャルメディアを野火のように席巻しています。この記事の執筆時点で、数回タップするだけで参加できる共有可能なテンプレートのおかげで、39 万 5,000 人がストーリーで結果を共有しています。そのバイラル性は驚くべきことではありません。

ChatGPT にはパンチがありません。その AI ローストは驚くほど面白く、個人的なものになることを恐れず、チャットボットはユーザーの趣味や服装の選択から旅行のコンテンツに至るまで、ユーザーの Instagram フィードのあらゆる部分を精査します。

サーフシャークのロゴ 🔎 ウェブをプライベートに閲覧したいですか? 🌎 それとも別の国にいるかのように見えますか?
この特別な tech.co オファーを利用して、Surfshark を 86% オフで手に入れましょう。 取引ボタンを参照

これは、Tech.co を「インターネット版の生ぬるいコーヒー – 完全に忘れられやすく、同様に残念だ」と称賛した AI の天才の作品と同じものです。ああ、私たちはそれに対して腹を立てていないふりをします。

Instagram で盛んになっているにもかかわらず、この挑戦​​の起源は X にまで遡ることができます。具体的には、ギリシャのテニス スター、ステファノス チチパスが人気の AI チャットボットに自分をローストするよう依頼するバイラル投稿です。チシパスを「実際にしっかりとしたセカンドサーブを提供するよりも、ツイッターで哲学することに多くの時間を費やしている男」と表現したこの投稿は、1日で45万1,000回以上閲覧され、他のソーシャルメディアプラットフォーム全体で多くの模倣トレンドを生み出した。

ChatGPT がおかしくなったのはいつですか?

ChatGPT の人気の基礎となっているのは、「AI 用のスイス アーミー ナイフ」としての評判です。その用途に関して言えば、チャットボットはエッセイの作成、コンピューター プログラムのコーディング、ビジネス アイデアのブレインストーミングなどに使用されており、制限はあなたの想像力です (さらに 4,096 文字の制限もあります)。

ただし、その多用途性にもかかわらず、ChatGPT は常に面白いことで知られているわけではなく、その機知に欠けることは実際に研究によって裏付けられています。昨年、ドイツの研究者ソフィー・イェンチュとクリスチャン・ケルスティングは、OpenAI の ChatGPT3.5 に 1,008 回連続でジョークを言うように依頼することで、生成 AI のコメディーの可能性をテストすることにしました。

チャットボットは、90% 以上の確率で 25 のジョーク設定のうち 1 つのバリエーションを提供しました。これは、ChatGPT のコメディのレパートリーが自発的に生成されたものではなく、トレーニング段階で学習された可能性が高いことを示唆しています。この研究では、ChatGPTのジョークは「論理的な精査をあまり保留していない」わけではなく、非学術的な言葉で言えば、あまり意味がなかったという意味であることが判明した。

しかし、スタンドアップコメディアンたちが安堵のため息をつく前に、この結果は満場一致とは程遠いものだった。実際、最近の研究によると、チャットボットは実際には大多数の人間よりも面白いことが示唆されており、参加者の 70% が自分の種族よりも ChatGPT からの賢明な発言を好み、研究者らはチャットボットが「一般人のものを超える品質で文章によるユーモアを生み出すことができる」と結論付けています。能力」。

実を言うと、ユーモアは主観的なものであるため、チャットボットの「面白さ」を客観的に分析するのは決して簡単ではありません。しかし、OpenAI が ChatGPT の機能を向上させるために懸命に努力するにつれて、AI はジョークの言い合いや水平思考などの伝統的な人間のスキルの習得においてますます優れていく一方です。しかし、ChatGPT が Instagram で新たなバイラルな瞬間を先導している今、私たちはそのチャットボットに自分のデータを信頼すべきでしょうか?

ChatGPT のバイラルな「Roast Me」トレンドの暗い側面

ChatGPT の「ローストミー」トレンドが勢いを増すにつれ、何千人ものユーザーがあまり考えずに個人データを喜んで渡しました。しかし、ChatGPT が AI 生成の刺激で Instagram ユーザーを楽しませる一方で、その作成者である OpenAI はデータ セキュリティへのアプローチに関して反発を呼び続けています。

OpenAI は、チャットボットとのすべての会話をトレーニング目的で保存していることを認めていますが、チャットボットがどのように使用されているかを正確に説明することになると、同社は口止めすることで悪名高いです。 OpenAIのプライバシーポリシーには、ユーザーの個人情報を第三者と共有する可能性があると説明されており、ユーザーデータの商品化に対する懸念が生じている。

さらに、ノースカロライナ大学の研究では、機密情報を渡すと取り消し不能になる可能性があることが判明しました。 ChatGPT を支える大規模言語モデル (LLM) のサイズにより、この研究では、他のチャットボットと比較して AI ツールからデータを完全に削除するのは非常に難しく 「削除された」情報は依然として取得できることが多いと結論付けています。

しかし、これは実際には何を意味するのでしょうか?そうですね、情報の共有を意図的にオプトアウトしない限り、ChatGPT に入力しているデータは将来のモデルをトレーニングするために使用されることになります。

データに関して OpenAI を心から信頼しているとしても、同社のセキュリティ プロファイルに問題があるため、機密情報が悪者の手に渡るのではないかという懸念が生じます。 2023 年、シリコンバレーの企業は、ハッカーが社内メッセージング システムにアクセスした後、サイバー攻撃の犠牲になりました。ユーザーデータは侵害されなかったが、企業内部関係者らは、事件は回避可能であり、サイバー犯罪者や中国などの外国の敵対者から機密データを保護するためにOpenAIが十分に取り組んでいなかったことを明らかにした。

自分自身を守るために、オンラインで共有されても構わない情報のみを ChatGPT と共有することをお勧めします。 Instagram をローストする場合は、名前や住所などの個人情報、鮮明な顔の画像、クリエイティブな作品の例などを公開するスクリーンショットを共有しないことをお勧めします。

ChatGPT と共有してはいけない内容について詳しくは、こちらをご覧ください。