هل الذكاء الاصطناعي (AI) خطير؟

نشرت: 2023-05-31

في يوم الإثنين ، 22 مايو 2023 ، نشر حساب على تويتر موثق يُدعى "بلومبيرج فيد" تغريدة تزعم وقوع انفجار في البنتاغون ، مصحوبًا بصورة. إذا كنت تتساءل ما علاقة هذا بالذكاء الاصطناعي (AI) ، فإن الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي ، حيث سرعان ما انتشرت التغريدة بسرعة وأدت إلى انخفاض قصير في سوق الأسهم. كان من الممكن أن تكون الأمور أسوأ بكثير - وهذا تذكير صارخ بمخاطر الذكاء الاصطناعي.

مخاطر الذكاء الاصطناعي

إنها ليست مجرد أخبار مزيفة يجب أن نقلق بشأنها. هناك العديد من المخاطر المباشرة أو المحتملة المرتبطة بالذكاء الاصطناعي ، من تلك المتعلقة بالخصوصية والأمن إلى قضايا التحيز وحقوق النشر. سنغوص في بعض مخاطر الذكاء الاصطناعي هذه ، ونرى ما يتم فعله للتخفيف منها الآن وفي المستقبل ، ونسأل عما إذا كانت مخاطر الذكاء الاصطناعي تفوق الفوائد.

جدول المحتويات

    أخبار مزيفة

    عندما هبطت تقنية التزييف العميق لأول مرة ، نشأت مخاوف من إمكانية استخدامها بنية سيئة. يمكن قول الشيء نفسه عن الموجة الجديدة من مولدات صور الذكاء الاصطناعي ، مثل DALL-E 2 أو Midjourney أو DreamStudio. في 28 مارس 2023 ، انتشرت صور مزيفة للبابا فرانسيس تم إنشاؤها بواسطة الذكاء الاصطناعي مرتديًا سترة منفوخة بيضاء من Balenciaga ، واستمتع بالعديد من المغامرات ، بما في ذلك التزلج ولعب البوكر. ما لم تدرس الصور عن كثب ، كان من الصعب تمييز هذه الصور عن الصور الحقيقية.

    في حين أن المثال مع البابا كان بلا شك ممتعًا بعض الشيء ، فإن الصورة (والتغريدة المصاحبة لها) عن البنتاغون كانت شيئًا غير ذلك. تتمتع الصور المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي بالقدرة على إلحاق الضرر بالسمعة ، وإنهاء الزيجات أو الوظائف ، وخلق اضطرابات سياسية ، وحتى بدء الحروب إذا استخدمها الأشخاص الخطأ - باختصار ، هذه الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لديها القدرة على أن تكون خطيرة للغاية إذا أسيء استخدامها.

    مع توفر مولدات الصور بالذكاء الاصطناعي الآن مجانًا لأي شخص ليستخدمها ، وإضافة Photoshop منشئ صور AI إلى برامجه الشهيرة ، أصبحت فرصة معالجة الصور وإنشاء أخبار مزيفة أكبر من أي وقت مضى.

    الخصوصية والأمان والقرصنة

    تعد الخصوصية والأمان أيضًا مخاوف كبيرة عندما يتعلق الأمر بمخاطر الذكاء الاصطناعي ، حيث يحظر عدد من البلدان بالفعل ChatGPT من OpenAI. حظرت إيطاليا النموذج بسبب مخاوف تتعلق بالخصوصية ، معتقدةً أنه لا يمتثل للائحة حماية البيانات العامة الأوروبية (GDPR) ، بينما حظرته الصين وكوريا الشمالية وحكومات روسيا بسبب مخاوف من نشر معلومات مضللة.

    فلماذا نشعر بالقلق الشديد بشأن الخصوصية عندما يتعلق الأمر بالذكاء الاصطناعي؟ تجمع تطبيقات وأنظمة الذكاء الاصطناعي كميات كبيرة من البيانات من أجل التعلم وإجراء التنبؤات. ولكن كيف يتم تخزين هذه البيانات ومعالجتها؟ هناك خطر حقيقي لخرق البيانات والقرصنة ووقوع المعلومات في الأيدي الخطأ.

    ليست فقط بياناتنا الشخصية في خطر. يعد اختراق الذكاء الاصطناعي خطرًا حقيقيًا - لم يحدث ذلك بعد ، ولكن إذا تمكن أصحاب النوايا الخبيثة من اختراق أنظمة الذكاء الاصطناعي ، فقد يكون لذلك عواقب وخيمة. على سبيل المثال ، يمكن للقراصنة التحكم في المركبات بدون سائق ، واختراق أنظمة أمان الذكاء الاصطناعي للدخول إلى مواقع آمنة للغاية ، وحتى اختراق أنظمة الأسلحة بأمان الذكاء الاصطناعي.

    يدرك الخبراء في وكالة مشاريع الأبحاث الدفاعية المتقدمة التابعة لوزارة الدفاع الأمريكية (DARPA) هذه المخاطر ويعملون بالفعل على مشروع DARPA لضمان متانة الذكاء الاصطناعي ضد الخداع (GARD) ، والذي يعالج المشكلة من الألف إلى الياء. هدف المشروع هو ضمان أن تكون مقاومة القرصنة والعبث مدمجة في الخوارزميات والذكاء الاصطناعي.

    انتهاك حقوق الملكية

    من المخاطر الأخرى للذكاء الاصطناعي انتهاك حقوق النشر. قد لا يبدو هذا بخطورة بعض الأخطار الأخرى التي ذكرناها ، لكن تطوير نماذج الذكاء الاصطناعي مثل GPT-4 يعرض الجميع لخطر الانتهاك.

    في كل مرة تطلب فيها من ChatGPT إنشاء شيء ما لك - سواء كان ذلك منشور مدونة عن السفر أو اسمًا جديدًا لعملك - فأنت تقوم بتزويده بالمعلومات التي يستخدمها بعد ذلك للإجابة على الاستفسارات المستقبلية. يمكن أن تنتهك المعلومات التي ترسلها إليك حقوق الطبع والنشر لشخص آخر ، ولهذا السبب من المهم جدًا استخدام كاشف الانتحال وتعديل أي محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي قبل نشره.

    التحيز المجتمعي والبيانات

    الذكاء الاصطناعي ليس بشريًا ، لذا لا يمكن أن يكون متحيزًا ، أليس كذلك؟ خطأ. يتم استخدام الأشخاص والبيانات لتدريب نماذج الذكاء الاصطناعي وروبوتات الدردشة ، مما يعني أن البيانات أو الشخصيات المتحيزة ستؤدي إلى ذكاء اصطناعي متحيز. هناك نوعان من التحيز في الذكاء الاصطناعي: التحيز المجتمعي وتحيز البيانات.

    مع وجود العديد من التحيزات في المجتمع اليومي ، ماذا يحدث عندما تصبح هذه التحيزات جزءًا من الذكاء الاصطناعي؟ قد يكون للمبرمجين المسؤولين عن تدريب النموذج توقعات منحازة ، والتي تشق طريقها بعد ذلك إلى أنظمة الذكاء الاصطناعي.

    أو قد تكون البيانات المستخدمة لتدريب وتطوير الذكاء الاصطناعي غير صحيحة أو متحيزة أو مجمعة بسوء نية. يؤدي هذا إلى تحيز البيانات ، والذي يمكن أن يكون بنفس خطورة التحيز المجتمعي. على سبيل المثال ، إذا تم تدريب نظام التعرف على الوجه باستخدام وجوه الأشخاص البيض بشكل أساسي ، فقد يواجه صعوبة في التعرف على أولئك الذين ينتمون إلى مجموعات الأقليات ، مما يؤدي إلى استمرار الاضطهاد.

    الروبوتات تأخذ وظائفنا

    أدى تطوير روبوتات المحادثة مثل ChatGPT و Google Bard إلى فتح مصدر قلق جديد تمامًا يحيط بالذكاء الاصطناعي: خطر قيام الروبوتات بوظائفنا. نحن نرى بالفعل كتابًا في صناعة التكنولوجيا يتم استبدالهم بالذكاء الاصطناعي ، ويخشى مطورو البرامج من أنهم سيفقدون وظائفهم لصالح الروبوتات ، والشركات التي تستخدم ChatGPT لإنشاء محتوى مدونة ومحتوى وسائط اجتماعية بدلاً من توظيف كتاب بشريين.

    وفقًا لتقرير مستقبل الوظائف لعام 2020 الصادر عن المنتدى الاقتصادي العالمي ، من المتوقع أن يحل الذكاء الاصطناعي محل 85 مليون وظيفة في جميع أنحاء العالم بحلول عام 2025. حتى لو لم يحل الذكاء الاصطناعي محل الكتاب ، فإنه يتم استخدامه بالفعل كأداة من قبل الكثيرين. قد يحتاج أولئك الذين يعملون في وظائف معرضة لخطر الاستبدال بالذكاء الاصطناعي إلى التكيف من أجل البقاء - على سبيل المثال ، قد يصبح الكتاب مهندسين موجهين للذكاء الاصطناعي ، مما يمكنهم من العمل باستخدام أدوات مثل ChatGPT لإنشاء المحتوى بدلاً من استبدالها بهذه النماذج.

    مخاطر الذكاء الاصطناعي المحتملة في المستقبل

    هذه كلها مخاطر فورية أو وشيكة ، ولكن ماذا عن بعض المخاطر الأقل احتمالًا ولكنها لا تزال محتملة للذكاء الاصطناعي التي يمكن أن نراها في المستقبل؟ وتشمل هذه أشياء مثل برمجة الذكاء الاصطناعي لإلحاق الأذى بالبشر ، على سبيل المثال ، الأسلحة المستقلة المدربة على القتل أثناء الحرب.

    ثم هناك خطر أن يركز الذكاء الاصطناعي بشكل منفرد على هدفه المبرمج ، وتطوير سلوكيات مدمرة بينما يحاول تحقيق هذا الهدف بأي ثمن ، حتى عندما يحاول البشر منع حدوث ذلك.

    علمنا Skynet ما يحدث عندما يصبح الذكاء الاصطناعي واعيًا. ومع ذلك ، على الرغم من أن مهندس Google Blake Lemoine ربما حاول إقناع الجميع بأن LaMDA ، وهو مُنشئ روبوتات الدردشة الذكي الاصطناعي من Google ، قد تم إرساله مرة أخرى في يونيو 2022 ، إلا أنه لا يوجد دليل حتى الآن يشير إلى أن هذا صحيح.

    تحديات تنظيم الذكاء الاصطناعي

    في يوم الإثنين ، 15 مايو ، 202 ، حضر الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، جلسة الاستماع الأولى في الكونجرس حول الذكاء الاصطناعي ، محذرًا ، "إذا ساءت هذه التقنية ، فقد تسوء تمامًا." أوضح مكتب OpenAI CO أنه يفضل التنظيم وقدم العديد من أفكاره الخاصة إلى جلسة الاستماع. تكمن المشكلة في أن الذكاء الاصطناعي يتطور بهذه السرعة ، ومن الصعب معرفة من أين نبدأ بالتنظيم.

    يريد الكونجرس تجنب ارتكاب نفس الأخطاء التي ارتكبت في بداية عصر وسائل التواصل الاجتماعي ، ويعمل فريق من الخبراء جنبًا إلى جنب مع زعيم الأغلبية في مجلس الشيوخ تشاك شومر بالفعل على لوائح تتطلب من الشركات الكشف عن مصادر البيانات التي استخدمتها لتدريب النماذج ومن دربهم. قد يستغرق الأمر بعض الوقت قبل أن يتضح بالضبط كيف سيتم تنظيم الذكاء الاصطناعي ، ولا شك أنه سيكون هناك رد فعل عنيف من شركات الذكاء الاصطناعي.

    تهديد الذكاء الاصطناعي العام

    هناك أيضًا خطر إنشاء ذكاء عام اصطناعي (AGI) يمكنه إنجاز أي مهام يمكن أن يؤديها إنسان (أو حيوان). غالبًا ما يتم ذكره في أفلام الخيال العلمي ، ربما لا نزال على بعد عقود من إنشاء مثل هذا الإبداع ، ولكن إذا قمنا بإنشاء الذكاء الاصطناعي العام ، وعندما نقوم بذلك ، فقد يشكل تهديدًا للبشرية.

    يؤيد العديد من الشخصيات العامة بالفعل الاعتقاد بأن الذكاء الاصطناعي يشكل تهديدًا وجوديًا للبشر ، بما في ذلك ستيفن هوكينج ، وبيل جيتس ، وحتى المدير التنفيذي السابق لشركة Google ، إريك شميدت ، الذي صرح بأن "الذكاء الاصطناعي يمكن أن يشكل مخاطر وجودية ويجب على الحكومات معرفة كيفية التأكد من ذلك. لا يسيء الأشرار استخدام التكنولوجيا ".

    إذن ، هل الذكاء الاصطناعي خطير ، وهل مخاطره تفوق فوائده؟ لا تزال هيئة المحلفين خارج دائرة النقاش ، لكننا نرى بالفعل أدلة على بعض المخاطر من حولنا في الوقت الحالي. الأخطار الأخرى من غير المرجح أن تؤتي ثمارها في أي وقت قريب ، إن وجدت. ومع ذلك ، هناك شيء واحد واضح: لا ينبغي التقليل من مخاطر الذكاء الاصطناعي. من الأهمية بمكان أن نضمن تنظيم الذكاء الاصطناعي بشكل صحيح منذ البداية لتقليل المخاطر المستقبلية والتخفيف منها.