الرؤية هي الشك: استعادة الثقة في عصر الذكاء الاصطناعي
نشرت: 2024-06-16يقول الشعار القديم "سأصدق ذلك عندما أراه" ، وتكنولوجيا اليوم تجعل الجميع يسألون سؤالًا مختلفًا تمامًا. هل أستطيع أن أصدق ما أراه؟
أصبح من السهل سحب الصور المعدلة والتزييف العميق أكثر من أي وقت مضى. وفي بعض الحالات، تكون المخاطر منخفضة. البابا فرانسيس في معطف منتفخ؟ هذه مجرد بعض حيل الذكاء الاصطناعي غير الضارة.
أدت صورة كيت ميدلتون التي تم التلاعب بها بشكل واضح إلى موجة من الشائعات وإدامة المعلومات المضللة، لكن الضرر كان ضئيلًا نسبيًا، ولم يؤثر على سوى عدد قليل خارج العائلة المالكة في بريطانيا.
كانت المخاطر أعلى بكثير في الهند، حيث تم إجبار الناخبين على التزييف العميق المحظور من قبل المرشحين السياسيين - أكثر من 50 مليون منهم قبل الانتخابات الأخيرة، وفقًا لـ WIRED .
هذا العام، سيتوجه ما يقرب من نصف سكان العالم إلى صناديق الاقتراع للتصويت في الانتخابات، وسوف تلعب وسائل الإعلام المرئية دورا كبيرا في عملية صنع القرار.
إن التحدي المتمثل في التمييز بين الصور الأصلية والصور المزيفة يحمل أهمية كبيرة.
وتهدد صور الحملات الانتخابية والخطب والمقابلات والإعلانات السياسية المفبركة أو المزورة بتقويض العملية الديمقراطية نفسها من خلال تآكل التمييز العام للحقيقة.
يعتمد الجمهور على الوصول إلى المعلومات الواقعية عند اختيار القيادة السياسية.
ومع ذلك، هناك عاصفة كاملة تلوح في الأفق ــ التقدم التكنولوجي السريع المقترن بالانتشار الفيروسي للمعلومات المضللة وتزايد انعدام الثقة في المؤسسات. إنه مزيج خطير يهدد المشاركة المدنية المستنيرة.
مع استمرار تزايد وعي عامة الناس بالصور التي يتم التلاعب بها بواسطة الذكاء الاصطناعي، تتزايد أيضًا مخاوفهم من صعوبة التمييز بين الحقيقة والخيال. والفصل بين الاثنين يتطلب كفاءة فنية لا يمتلكها إلا القليل.
عرض عميق بالبكسل
عملت لمدة 15 عامًا على الكاميرات الرقمية، بدءًا من تطوير برامجها الثابتة وحتى تصميم البرامج التي سيتم استخدامها لمشاهدتها. لا يوجد شيء اسمه صورة "دون تغيير".
سواء كان ذلك مستشعرًا في الكاميرا، أو برنامج ما بعد المعالجة، أو محرك الذكاء الاصطناعي، هناك شيء ما يغير الصورة في مكان ما.
البشر سيئون في إخفاء آثارهم، فهم دائمًا يتركون الأدلة وراءهم عند معالجة الصور يدويًا.
قم بالتكبير بدرجة كافية على غلاف مجلة، وسيكون من السهل معرفة أين وكيف تم "تحسين" الصورة. لا تزال محركات الذكاء الاصطناعي حديثة بما يكفي بحيث يمكن اكتشاف تعديلاتها، لكن هذا لن يستمر لفترة طويلة.
نحن قريبون جدًا من النقطة التي لن يكون من الممكن فيها التمييز بين الصور "الحقيقية" و"المزيفة" لأن تعديلات ما بعد المعالجة ومعالجة الصور على الكاميرا ستبدو متشابهة للغاية.
بغض النظر عن مدى تكبير الخبير، فلن يتمكن من العثور على أي علامات تشير إلى أن الصورة قد تم تغييرها بعد مغادرتها الكاميرا.
عند هذه النقطة، ستكون الطريقة الوحيدة لمعرفة الفرق بين الصور الحقيقية والمزيفة هي تتبع الصورة من خلال سلسلة حفظها الكاملة، وصولاً إلى الكاميرا التي التقطتها. لن يساعد تحليل الصورة نفسها بعد الآن.
التحقق من صحة
ومن الممكن أن تساعد الحلول التقنية في إدارة انتشار التزييف العميق والوسائط المركبة بالذكاء الاصطناعي، وقد اتخذت بعض شركات التكنولوجيا الكبرى بالفعل خطوات نحو تنفيذها.
تعهدت OpenAI بتضمين البيانات الوصفية لـ Coalition for Content Provenance and Authenticity (C2PA)، وهو معيار تقني مفتوح تستخدمه أيضًا الشركات المصنعة للكاميرات، في الصور التي تنتجها DALL·E 3.
تعمل Meta أيضًا على تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي باستخدام معيار C2PA.
يمكن أيضًا برمجة الكاميرات الرقمية لتضمين هذا الرمز في البيانات الوصفية لكل صورة، مما يجعلها قابلة للتحقق.
على سبيل المثال، يمكن تشفير المجموع الاختباري للصورة باستخدام مفتاح خاص تمتلكه الشركة المصنعة للكاميرا فقط، والذي يمكن التحقق منه بواسطة أي شخص عام (أو من خلال مواقع الطرف الثالث مثل Content Credentials Verify، والذي يقال إن TikTok ينوي استخدامه). .
ستحتاج كل شركة مصنعة للكاميرات الرقمية إلى إرسال الكود الخاص بها إلى التدقيق للتحقق من أنها لا تقوم بأي تعديلات قد تعتبر غير مقبولة.
سيحتاج كل شخص يقوم بإجراء تعديل ما بعد المعالجة إلى إضافة بيانات وصفية إضافية إلى الصورة التي توضح التغييرات الدقيقة. يجب تضمين الصورة الأصلية في الملف.
وأي صورة لا تتوافق مع هذه المعايير يمكن اعتبارها مزيفة. يتضمن ذلك الصور المطبوعة على الورق ولقطات الشاشة.
مع مرور الوقت، سيتعلم المجتمع أن معظم الصور تشبه اللوحات - في بعض الأحيان، تصور أحداثًا حقيقية، ولكن في معظم الأحيان، لا تفعل ذلك ما لم يكن هناك دليل إضافي يؤكد صحتها.
التساؤل عما نعتقده
لن يكون الأمر سهلاً، لكن التكنولوجيا تتحرك بسرعة كبيرة بحيث يلزم اتخاذ خطوات إضافية لإثبات صحتها. سيحتاج المهتمون بمعرفة الحقيقة، مثل الصحفيين والقضاة، إلى إظهار المزيد من الحذر عند فحص الأدلة.
قبل قرن من الزمان، كانت شهادة شهود العيان هي السائدة في المحاكم. بعد ذلك، وعدت الابتكارات مثل التسجيلات الصوتية، وبصمات الأصابع، والأدلة الفوتوغرافية بالمصداقية، على الرغم من أن تحليل بصمات الأصابع لا يزال يتطلب التحقق من صحة سلسلة الحراسة.
لقد تحدت الأكاديمية الوطنية للعلوم الآن هذه المعايير، حيث تواجه بصمات الأصابع والمقذوفات شكوكًا متجددة حول الدقة.
مع تقدم الذكاء الاصطناعي، تفقد الصور ومقاطع الفيديو موثوقيتها أيضًا. يتطلب الطريق إلى الأمام التعاون بين مبتكري التكنولوجيا والباحثين عن الحقيقة والجمهور.
يعد تنفيذ أطر المصادقة الموحدة، والتأكيد على الشفافية، وإعادة التفكير في افتراضات صحة الصورة، كلها أمور ضرورية.
ومن خلال اليقظة والمساءلة الجماعية، يمكننا أن نعمل على الحفاظ على الثقة التي تصدقها الرؤية.
ملاحظة المحرر: كتب هذا المقال أليكس فينك، الرئيس التنفيذي ومؤسس موقع Otherweb. Alex هو مدير تنفيذي تقني والمؤسس والرئيس التنفيذي لشركة Otherweb، وهي مؤسسة ذات منفعة عامة تستخدم الذكاء الاصطناعي لمساعدة الأشخاص على قراءة الأخبار والتعليقات، والاستماع إلى ملفات podcast، والبحث في الويب بدون نظام حظر الاشتراك غير المدفوع، أو إعلانات النقر، أو الإعلانات، أو أي "غير هامة" أخرى. محتوى. يتوفر موقع Otherweb كتطبيق iOS أو Android، أو موقع ويب، أو رسالة إخبارية، أو امتداد متصفح مستقل. قبل انضمامه إلى Otherweb، كان Alex هو المؤسس والرئيس التنفيذي لشركة Panopteo والمؤسس المشارك ورئيس مجلس إدارة Swarmer.
ما هي أفكارك حول هذه التكنولوجيا؟ أرسل لنا سطرًا أدناه في التعليقات، أو قم بنقل المناقشة إلى Twitter أو Facebook.
توصيات المحررين:
- تظهر تقنية التزييف العميق للذكاء الاصطناعي لأول مرة في المجال السياسي من خلال مكالمة بايدن الآلية
- ترى خوارزمية بحث Google أن المحتوى الإباحي العميق هو محتوى مفيد
- ما هي الإباحية العميقة؟
- هل باع بروس ويليس حقوق صورته لشركة التزييف العميق؟