Warum Sie wahrscheinlich aufhören sollten, ChatGPT zum Rösten Ihres Instagram zu nutzen
Veröffentlicht: 2024-08-22Hatten Sie schon einmal das Gefühl, von einem KI-Chatbot gedemütigt zu werden? Nun, anscheinend sind Sie nicht allein, denn fast 400.000 Menschen nehmen an einem Social-Media-Trend teil, bei dem sie ChatGPT dazu bringen, ihren Instagram-Feed öffentlich zu „rösten“.
Die Ergebnisse sind grausam: Das KI-Tool ruft alles auf, von peinlichen Fitness-Selfies bis hin zu fragwürdigen Kleidungsstücken – und bietet den Benutzern endlosen Stoff für ihre Instagram-Geschichten, und noch mehr Menschen fragen sich: Wann wurde ChatGPT so lustig?
Doch da der virale Trend von ChatGPT dazu führt, dass Benutzer in großer Zahl persönliche Daten preisgeben, besteht die Herausforderung auch darin, alte Diskussionen über die fragwürdigen Datenerfassungspraktiken von OpenAI und den glanzlosen Sicherheitsansatz neu zu entfachen. Lesen Sie weiter, um mehr über den gemeinsten viralen Trend von Instagram und die Risiken zu erfahren, die mit dem Teilen von Daten mit ChatGPT verbunden sind.
Benutzer fordern ChatGPT auf, ihr Instagram-Profil zu beleidigen
Wenn Sie kürzlich auf Instagram waren, wurden Sie wahrscheinlich mit absatzlangen, von der KI generierten Röstungen überschwemmt, die die Feeds Ihrer Mitbenutzer zerstörten.
Der „Roast My Feed-Trend“ breitet sich wie ein Lauffeuer durch die sozialen Medien aus. Zum Zeitpunkt des Schreibens haben 395.000 Menschen ihre Ergebnisse zu ihrer Geschichte geteilt, dank einer gemeinsam nutzbaren Vorlage, die es Ihnen ermöglicht, mit ein paar Fingertipps daran teilzunehmen – und die Viralität ist kaum überraschend.
ChatGPT hält nichts aus. Seine überraschend witzigen AI-Roasts haben keine Angst davor, persönlich zu werden, da der Chatbot jeden Teil des Instagram-Feeds eines Benutzers unter die Lupe nimmt, von seinen Hobbys und Kleidungsauswahl bis hin zu seinen Reiseinhalten.
🔎 Möchten Sie privat im Internet surfen? 🌎 Oder so wirken, als wären Sie in einem anderen Land?
Sichern Sie sich mit diesem Sonderangebot von tech.co satte 86 % Rabatt auf Surfshark.
Es ist dieselbe Arbeit des KI-Genies, die Tech.co dazu gratulierte, „die Internetversion einer lauwarmen Tasse Kaffee zu sein – völlig unvergesslich und genauso enttäuschend“. Autsch – wir tun so, als wären wir davon nicht beleidigt.
Ich bitte ChatGPT, mich zu rösten:
„Stefanos Tsitsipas: der Typ, der mehr Zeit damit verbringt, auf Twitter zu philosophieren, als tatsächlich einen soliden zweiten Aufschlag zu liefern. Er ist der einzige Spieler, der aus einem einfachen Wechsel einen TED-Vortrag über die griechische Mythologie machen kann und trotzdem mit … auf den Platz zurückkehrt.
— Stefanos Tsitsipas (@steftsitsipas) 19. August 2024
Obwohl die Herausforderung auf Instagram floriert, lässt sie sich auf X zurückführen – genauer gesagt auf einen viralen Beitrag, in dem der griechische Tennisstar Stefanos Tsitsipas den beliebten KI-Chatbot bittet, ihn zu rösten. Der Beitrag, der Tsisipas als einen „Typen beschreibt, der mehr Zeit damit verbringt, auf Twitter zu philosophieren, als tatsächlich einen soliden zweiten Aufschlag zu liefern“, erhielt an einem Tag über 451.000 Aufrufe und löste eine Reihe von Nachahmer-Trends auf anderen Social-Media-Plattformen aus.
Wann wurde ChatGPT lustig?
Der Ruf von ChatGPT als „Schweizer Taschenmesser für KI“ ist ausschlaggebend für seine Popularität. Wenn es um die Einsatzmöglichkeiten geht, sind Ihrer Fantasie keine Grenzen gesetzt (zuzüglich der Beschränkung auf 4.096 Zeichen). Der Chatbot wird zum Verfassen von Aufsätzen, zum Codieren von Computerprogrammen, zum Brainstorming von Geschäftsideen und mehr verwendet.
Doch trotz seiner Vielseitigkeit war ChatGPT nicht immer dafür bekannt, lustig zu sein, und sein Mangel an Witz wurde tatsächlich durch Untersuchungen bestätigt. Letztes Jahr beschlossen die deutschen Forscher Sophie Jentzsch und Kristian Kersting, das komödiantische Potenzial generativer KI auf die Probe zu stellen, indem sie ChatGPT3.5 von OpenAI baten, ihnen 1.008 Mal hintereinander einen Witz zu erzählen.
Der Chatbot bot ihnen in über 90 % der Fälle Variationen einer von 25 Witz-Setups an, was darauf hindeutet, dass das komödiantische Repertoire von ChatGPT wahrscheinlich während der Trainingsphasen erlernt und nicht spontan generiert wurde. Die Studie ergab, dass die Witze von ChatGPT „auch keiner großen logischen Prüfung standhielten“, was in nicht-akademischer Sprache bedeutet, dass sie nicht viel Sinn ergaben.
Doch bevor die Stand-up-Comedians aufatmen können, waren diese Ergebnisse alles andere als einhellig. Tatsächlich deuten neuere Forschungsergebnisse darauf hin, dass der Chatbot tatsächlich lustiger ist als die Mehrheit der Menschen, wobei 70 % der Teilnehmer Witze von ChatGPT gegenüber ihrer eigenen Spezies bevorzugen, und die Forscher kommen zu dem Schluss, dass der Chatbot „schriftlichen Humor in einer Qualität produzieren kann, die die von Laien übertrifft“. Fähigkeiten“.
Um ehrlich zu sein, Humor ist subjektiv, daher wird es nie einfach sein, die „Lustigkeit“ eines Chatbots objektiv zu analysieren. Doch während OpenAI hart daran arbeitet, die Fähigkeiten von ChatGPT zu verbessern, wird die KI immer besser darin, traditionell menschliche Fähigkeiten wie Witze reißen und Querdenken zu beherrschen. Aber sollten wir, da ChatGPT einen weiteren viralen Instagram-Moment anführt, diesem Chatbot überhaupt unsere Daten anvertrauen?
Die dunklere Seite des viralen „Roast Me“-Trends von ChatGPT
Während der „Roast Me“-Trend von ChatGPT an Fahrt gewinnt, haben Tausende von Nutzern bereitwillig und ohne groß darüber nachzudenken persönliche Daten preisgegeben. Während ChatGPT jedoch Instagram-Nutzer mit KI-generierten Zingern amüsiert, stößt sein Erfinder OpenAI weiterhin auf Gegenreaktionen wegen seines Ansatzes zur Datensicherheit.
OpenAI gibt zu, dass es alle Gespräche, die Sie mit dem Chatbot führen, zu Schulungszwecken speichert, aber wenn es darum geht, wie genau er verwendet wird, schweigt sich das Unternehmen notorisch zurück. In der Datenschutzrichtlinie von OpenAI wird erläutert, dass Ihre persönlichen Daten möglicherweise auch an Dritte weitergegeben werden, was Bedenken hinsichtlich der Kommerzialisierung von Benutzerdaten aufkommen lässt.
Darüber hinaus haben Untersuchungen der University of North Carolina ergeben, dass die Weitergabe sensibler Informationen irreversibel sein kann. Aufgrund der Größe des Large Language Model (LLM), auf dem ChatGPT basiert, kam die Studie zu dem Schluss, dass es im Vergleich zu anderen Chatbots äußerst schwierig ist, Ihre Daten dauerhaft aus dem KI-Tool zu löschen , und dass „gelöschte“ Informationen oft noch wiederhergestellt werden können.
Aber was bedeutet das eigentlich? Sofern Sie die Weitergabe Ihrer Informationen nicht absichtlich ablehnen, bedeutet dies, dass die Daten, die Sie in ChatGPT eingeben, zum Trainieren zukünftiger Modelle verwendet werden.
Selbst wenn Sie OpenAI Ihre Daten voll und ganz anvertrauen, gibt das fragwürdige Sicherheitsprofil des Unternehmens Anlass zur Sorge, dass sensible Informationen in die falschen Hände geraten könnten. Im Jahr 2023 wurde das Unternehmen aus dem Silicon Valley Opfer eines Cyberangriffs, nachdem sich ein Hacker Zugang zu internen Nachrichtensystemen verschafft hatte. Obwohl keine Benutzerdaten kompromittiert wurden, enthüllen Unternehmensinsider, dass der Vorfall vermeidbar war und dass OpenAI nicht genug unternahm, um vertrauliche Daten vor Cyberkriminellen und ausländischen Gegnern wie China zu schützen.
Um sich selbst zu schützen, empfehlen wir, mit ChatGPT nur Informationen zu teilen, deren potenzielle Weitergabe im Internet für Sie kein Problem darstellt. Wenn es darum geht, Ihr Instagram zu rösten, raten wir davon ab, Screenshots zu teilen, die persönliche Informationen wie Namen und Adressen, klare Bilder Ihres Gesichts und Beispiele Ihrer kreativen Arbeit preisgeben.
Erfahren Sie hier mehr darüber, was Sie nicht mit ChatGPT teilen sollten .