أخلاقيات الذكاء الاصطناعي: المبادئ والمبادئ التوجيهية والمشاكل التي يجب مناقشتها

نشرت: 2023-07-20

تم تطوير أنظمة الذكاء الاصطناعي والتعلم الآلي منذ عقود. ومع ذلك ، فقد أكد الإصدار الأخير لأدوات الذكاء الاصطناعي التوليدية المتاحة مجانًا مثل ChatGPT و Bard على الحاجة إلى أطر أخلاقية معقدة للتحكم في كل من البحث والتطبيق.

هناك عدد من المشاكل الأخلاقية المختلفة التي يتعين على الشركات والمؤسسات الأكاديمية وشركات التكنولوجيا مواجهتها في سياق البحث والتطوير في مجال الذكاء الاصطناعي - والعديد منها لا يزال بدون إجابة. علاوة على ذلك ، فإن الاستخدام والتطبيق الواسعين لأنظمة الذكاء الاصطناعي من قبل عامة الناس يجلب معه مجموعة إضافية من القضايا التي تتطلب اهتمامًا أخلاقيًا.

كيف ينتهي بنا المطاف بالإجابة على مثل هذه الأسئلة - وبالتالي تنظيم أدوات الذكاء الاصطناعي - سيكون له تداعيات هائلة على البشرية. علاوة على ذلك ، ستظهر مشكلات جديدة عندما تصبح أنظمة الذكاء الاصطناعي أكثر اندماجًا في حياتنا ومنازلنا وأماكن عملنا - وهذا هو السبب في أن أخلاقيات الذكاء الاصطناعي هي مثل هذا الانضباط الحاسم. في هذا الدليل ، نغطي:

  • ما هي أخلاقيات الذكاء الاصطناعي؟
  • أطر أخلاقيات الذكاء الاصطناعي الحالية
  • لماذا يتعين على أخلاقيات الذكاء الاصطناعي أن تنحت لائحة منظمة العفو الدولية
  • لماذا تعتبر أخلاقيات الذكاء الاصطناعي مهمة؟
  • ما هي المشكلات التي تواجهها أخلاقيات الذكاء الاصطناعي؟
  • Bing's Alter-Ego و "تأثير Waluigi" وأخلاق البرمجة
  • الذكاء الاصطناعي والإحساس: هل يمكن للآلات أن يكون لها مشاعر؟
  • أخلاقيات العمل بالذكاء الاصطناعي واستخدام الذكاء الاصطناعي في العمل

ما هي أخلاقيات الذكاء الاصطناعي؟

أخلاقيات الذكاء الاصطناعي هو مصطلح يستخدم لتحديد مجموعة من المبادئ التوجيهية والاعتبارات والمبادئ التي تم إنشاؤها لإبلاغ البحث والتطوير واستخدام أنظمة الذكاء الاصطناعي بشكل مسؤول.

في الأوساط الأكاديمية ، تعتبر أخلاقيات الذكاء الاصطناعي مجال الدراسة الذي يدرس القضايا الأخلاقية والفلسفية التي تنشأ من الاستخدام المستمر لتكنولوجيا الذكاء الاصطناعي في المجتمعات ، بما في ذلك كيف يجب أن نتصرف وما هي الخيارات التي يجب أن نتخذها.

أطر أخلاقيات الذكاء الاصطناعي

بناءً على الأبحاث الأكاديمية ، بدأت شركات التكنولوجيا والهيئات الحكومية بالفعل في إنتاج أطر عمل لكيفية استخدام أنظمة الذكاء الاصطناعي - والتعامل معها بشكل عام. كما سترى ، هناك قدر كبير من التداخل بين الأطر التي تمت مناقشتها أدناه.

ما هي وثيقة حقوق الذكاء الاصطناعي؟

في أكتوبر 2022 ، أصدرت Whitehouse مخططًا غير ملزم لقانون حقوق الذكاء الاصطناعي ، المصمم لتوجيه الاستخدام المسؤول للذكاء الاصطناعي في الولايات المتحدة. في المخطط ، تحدد Whitehouse خمسة مبادئ رئيسية لتطوير الذكاء الاصطناعي:

  • أنظمة آمنة وفعالة: يجب حماية المواطنين من "أنظمة الذكاء الاصطناعي غير الآمنة أو غير الفعالة" ، من خلال "اختبار ما قبل النشر وتخفيف المخاطر".
  • عدم التمييز: يجب ألا يواجه المواطنون التمييز من خلال الخوارزميات ، ويجب استخدام الأنظمة وتصميمها بطريقة عادلة.
  • حماية البيانات المضمنة: يجب أن يكون المواطنون خاليين من "ممارسات البيانات المسيئة من خلال وسائل الحماية المضمنة ويجب أن يكون لديك وكالة حول كيفية استخدام البيانات الخاصة بك."
  • المعرفة والشفافية: "يجب أن تعلم أنه يتم استخدام نظام آلي وأن تفهم كيف ولماذا يساهم في النتائج التي تؤثر عليك."
  • إلغاء الاشتراك: يجب أن يتمتع المواطنون بالقدرة على "الانسحاب" والوصول إلى الأفراد "الذين يمكنهم النظر بسرعة في المشكلات ومعالجتها" التي يواجهونها.

ما هي مبادئ Microsoft الستة لأخلاقيات الذكاء الاصطناعي؟

إلى جانب Whitehouse ، أصدرت Microsoft ستة مبادئ رئيسية للتأكيد على الاستخدام المسؤول للذكاء الاصطناعي. يصنفونها على أنها "أخلاقية" (1 ، 2 ، 3) أو "قابلة للتفسير" (4 و 5).

  • الإنصاف: يجب أن تكون الأنظمة غير تمييزية
  • الشفافية: يجب أن تكون رؤى التدريب والتطوير متاحة
  • الخصوصية والأمان: الالتزام بحماية بيانات المستخدم
  • الشمولية: يجب أن يأخذ الذكاء الاصطناعي بعين الاعتبار "جميع الأجناس البشرية والخبرات"
  • المساءلة: يجب أن يكون المطورون مسؤولين عن النتائج

المبدأ السادس - الذي يمتد على جانبي الثنائي "الأخلاقي" و "القابل للتفسير" - هو "الموثوقية والأمان". تقول Microsoft أن أنظمة الذكاء الاصطناعي يجب أن تُبنى لتكون مرنة ومقاومة للتلاعب.

مبادئ الاستخدام الأخلاقي للذكاء الاصطناعي في منظومة الأمم المتحدة

لدى الأمم المتحدة 10 مبادئ تحكم الاستخدام الأخلاقي للذكاء الاصطناعي داخل نظامها الحكومي الدولي. يجب أن تقوم أنظمة الذكاء الاصطناعي بما يلي:

  • لا تؤذي / تحمي وتعزز حقوق الإنسان
  • لها هدف محدد وضرورة وتناسب
  • إعطاء الأولوية للسلامة والأمن ، مع تحديد المخاطر
  • أن تُبنى على العدل وعدم التمييز
  • احترم حق الأفراد في الخصوصية
  • كن مستدامًا (اجتماعيًا وبيئيًا)
  • ضمان الرقابة البشرية وعدم المساس بالاستقلالية
  • كن شفافًا وقابلًا للتفسير
  • كن مسؤولاً وخاضعًا للمساءلة أمام السلطات المختصة
  • كن شموليًا وتشاركيًا

كما يمكنك أن تقول ، تغطي جميع الأطر الثلاثة أرضية متشابهة وتركز على العدالة وعدم التمييز والسلامة والأمن.

لكن "القابلية للتفسير" هي أيضًا مبدأ مهم في الأطر الأخلاقية للذكاء الاصطناعي. كما تلاحظ الأمم المتحدة ، فإن التفسير التقني أمر بالغ الأهمية في أخلاقيات الذكاء الاصطناعي ، حيث إنها تتطلب أن "القرارات التي يتخذها نظام الذكاء الاصطناعي يمكن فهمها وتتبعها من قبل البشر".

"يجب أن يتم إبلاغ الأفراد بشكل كامل عندما يكون القرار الذي قد يؤثر أو سيؤثر على حقوقهم أو حرياتهم الأساسية أو استحقاقاتهم أو خدماتهم أو مزاياهم مستنيرًا أو يعتمد على خوارزميات الذكاء الاصطناعي ويجب أن يكون لديهم إمكانية الوصول إلى الأسباب والمنطق وراء مثل هذه القرارات" تشرح الوثيقة.

تقرير بلمونت: إطار عمل للبحث الأخلاقي

يلخص تقرير بلمونت ، الذي نُشر في عام 1979 ، المبادئ الأخلاقية التي يجب على المرء اتباعها عند إجراء بحث على البشر. يمكن نشر هذه المبادئ - وغالبًا - كإطار أخلاقي واسع لأبحاث الذكاء الاصطناعي. المبادئ الأساسية من تقرير بلمونت هي:

احترام الأشخاص: الأشخاص هم وكلاء مستقلون ، يمكنهم التصرف وفقًا للأهداف والأهداف والغايات ، وهو أمر يجب احترامه ما لم يتسببوا في إلحاق الأذى بالآخرين. يجب توفير الحماية لأولئك الذين يعانون من ضعف الاستقلالية ، من خلال "عدم النضج" أو "العجز". يجب أن نعترف بالاستقلالية ونحمي من يتضاءل من أجلهم.

  • في سياق الذكاء الاصطناعي: يجب وضع الاختيار الفردي في قلب تطوير الذكاء الاصطناعي. لا ينبغي إجبار الناس على المشاركة في المواقف التي يتم فيها الاستفادة من الذكاء الاصطناعي أو استخدامه ، حتى بالنسبة للسلع المتصورة. في حالة مشاركتهم ، يجب تحديد الفوائد والمخاطر بوضوح.

المنفعة: لا تقتصر معاملة الشخص بطريقة أخلاقية على عدم إلحاق الأذى واحترام اختياراته وحمايته إذا لم يتمكن من القيام بذلك لأنفسه فحسب ، بل يشمل أيضًا استغلال الفرص لتأمين رفاهيته حيثما أمكن ذلك. حيثما أمكن ، تعظيم الفوائد وتقليل المخاطر / الأضرار.

  • في سياق الذكاء الاصطناعي: إنشاء أنظمة ذكاء اصطناعي تضمن رفاهية الناس ، ومصممة دون تحيز أو آليات تسهل التمييز. قد ينطوي تحقيق الفوائد على المخاطرة ، والتي يجب التقليل منها بأي ثمن وموازنتها مقابل النتائج الجيدة.

العدل: يجب أن يكون هناك نظام واضح لتوزيع المنافع والأعباء بشكل عادل ومتساوٍ في كل نوع من الأبحاث. يشير تقرير بلمونت إلى أنه يمكن توزيع العدالة من خلال الحصة المتساوية والحاجة الفردية والجهد الفردي والمساهمة المجتمعية والجدارة. سيتم تطبيق هذه المعايير في مواقف مختلفة.

  • في سياق الذكاء الاصطناعي: يجب النظر بعناية وعادلة في الأطراف أو المجموعات المستفيدة من تطوير أنظمة الذكاء الاصطناعي وتقديمها.

المجالات الرئيسية التي يتم فيها تطبيق هذه المبادئ ، وفقًا للتقرير ، هي الموافقة المستنيرة ، وتقييم الفوائد والمخاطر ، واختيار الأشخاص .

لماذا يتعين على أخلاقيات الذكاء الاصطناعي أن تنحت لائحة منظمة العفو الدولية

بالاعتماد على التعليقات التي تم الإدلاء بها في محاضرة ألقاها في جامعة برينستون البروفيسور جون تاسيولاس ، مدير معهد الأخلاقيات في الذكاء الاصطناعي في جامعة أكسفورد ، يُنظر إلى الأخلاقيات في كثير من الأحيان على أنها شيء يخنق الابتكار والتطوير في مجال الذكاء الاصطناعي.

في المحاضرة ، يتذكر محاضرة ألقاها الرئيس التنفيذي لشركة DeepMind ديميس هاسابيس . بعد مناقشة الفوائد العديدة التي سيحققها الذكاء الاصطناعي ، كما يقول تاسيولاس ، يخبر حسابي الجمهور بعد ذلك أنه سينتقل إلى الأسئلة الأخلاقية - كما لو أن موضوع كيف سيعود الذكاء الاصطناعي بالفائدة على البشرية ليس سؤالًا أخلاقيًا في حد ذاته.

بناءً على فكرة أن الأخلاق يُنظر إليها في كثير من الأحيان على أنها "مجموعة من القيود" ، يشير تاسيولاس أيضًا إلى الورقة البيضاء الصادرة عن حكومة المملكة المتحدة مؤخرًا بعنوان "نهج مؤيد للابتكار لتنظيم الذكاء الاصطناعي" ، حيث يكون التركيز التنظيمي ، كما يوحي الاسم ، "الابتكار".

"النمو الاقتصادي" و "الابتكار" ليسا قيمًا أخلاقية متأصلة. يمكن أن تؤدي إلى ازدهار الإنسان في بعض السياقات ، لكن أليست هذه ليست سمة ضرورية لأي من المفهومين. لا يمكننا تهميش الأخلاق وبناء لوائحنا حولها بدلاً من ذلك.

يقول تاسيولاس أيضًا إن شركات التكنولوجيا كانت ناجحة جدًا في "استمالة كلمة" الأخلاق "لتعني نوعًا من" الشكل غير الملزم قانونًا للتنظيم الذاتي "- ولكن في الواقع ، يجب أن تكون الأخلاق في صميم أي تنظيم ، قانوني ، اجتماعي ، أو غير ذلك. إنه جزء من التجربة الإنسانية ، في كل منعطف.

لا يمكنك إنشاء تنظيم إذا لم تكن قد قررت بالفعل ما هو مهم أو مهم لازدهار الإنسان. إن الخيارات ذات الصلة التي تتخذها في الجزء الخلفي من هذا القرار هي جوهر الأخلاق. لا يمكنك فصل فوائد الذكاء الاصطناعي عن الأسئلة الأخلاقية ذات الصلة ، ولا يمكنك أن تبني تنظيمك على قيم مشروطة أخلاقيًا مثل "النمو الاقتصادي".

عليك أن تعرف نوع المجتمع الذي ترغب في بنائه - والمعايير التي تريد وضعها - قبل أن تلتقط الأدوات التي ستستخدمها في بنائه.

لماذا تعتبر أخلاقيات الذكاء الاصطناعي مهمة؟

بناءً على فكرة أن أخلاقيات الذكاء الاصطناعي يجب أن تكون حجر الأساس للوائحنا ، فإن أخلاقيات الذكاء الاصطناعي مهمة لأنه بدون أطر أخلاقية للتعامل مع أبحاث الذكاء الاصطناعي وتطويره واستخدامه ، فإننا نخاطر بانتهاك الحقوق التي نتفق عمومًا على وجوب ضمانها لجميع البشر.

على سبيل المثال ، إذا لم نطور المبادئ الأخلاقية المتعلقة بالخصوصية وحماية البيانات وقمنا بإدخالها في جميع أدوات الذكاء الاصطناعي التي نطورها ، فإننا نجازف بانتهاك حقوق الخصوصية للجميع عندما يتم إصدارها للجمهور. كلما كانت التكنولوجيا أكثر شيوعًا أو مفيدة ، يمكن أن تكون أكثر ضررًا.

على مستوى الأعمال الفردية ، تظل أخلاقيات الذكاء الاصطناعي مهمة. يمكن أن يؤدي عدم مراعاة المخاوف الأخلاقية المتعلقة بأنظمة الذكاء الاصطناعي التي يستخدمها موظفوك أو عملاؤك أو عملاؤك إلى سحب المنتجات من السوق ، والإضرار بالسمعة ، وربما حتى القضايا القانونية.

تُعد أخلاقيات الذكاء الاصطناعي أمرًا مهمًا إلى حد أن الذكاء الاصطناعي مهم - ونرى أنه له تأثير عميق على جميع أنواع الصناعات بالفعل.

إذا أردنا أن يكون الذكاء الاصطناعي مفيدًامعتعزيز العدالة والكرامة الإنسانية ، أينما تم تطبيقه ، يجب أن تكون الأخلاقيات في طليعة المناقشة.

الاستخدام العام لأدوات الذكاء الاصطناعي لا تزال في مهدها ، وبالنسبة للكثير من الناس ، قد تبدو الحاجة إلى أطر عمل أخلاقية للذكاء الاصطناعي مشكلة غدًا. لكن هذه الأنواع من الأدوات ستزداد قوة وقدرة وتتطلب المزيد من الاهتمام الأخلاقي. الشركات تستخدمها بالفعل ، وإذا استمرت دون وجود قواعد أخلاقية مناسبة ، فستظهر قريبًا آثار ضارة.

ما هي المشكلات التي تواجهها أخلاقيات الذكاء الاصطناعي؟

في هذا القسم ، نغطي بعض المشكلات الرئيسية التي تواجه أخلاقيات الذكاء الاصطناعي:

  • تأثير الذكاء الاصطناعي على الوظائف
  • AI التحيز والتمييز
  • الذكاء الاصطناعي والمسؤولية
  • مخاوف بشأن الذكاء الاصطناعي والخصوصية
  • قضايا الملكية الفكرية
  • إدارة التأثير البيئي للذكاء الاصطناعي
  • هل سيصبح الذكاء الاصطناعي ذكيًا بشكل خطير؟

تأثير الذكاء الاصطناعي على الوظائف

وجد استطلاع حديث لـ Tech.co أن 47٪ من قادة الأعمال يفكرون في استخدام الذكاء الاصطناعي على التعيينات الجديدة ، وقد تم بالفعل ربط الذكاء الاصطناعي بعدد "صغير ولكنه متزايد" من تسريح العمال في الولايات المتحدة.

ليست كل الوظائف معرضة للخطر بشكل متساوٍ ، مع احتمال استبدال بعض الأدوار بالذكاء الاصطناعي أكثر من غيرها . توقع تقرير لـ Goldman Sachs مؤخرًا أن تؤثر ChatGPT على 300 مليون وظيفة ، وعلى الرغم من أن هذا أمر تخميني ، إلا أنه تم وصفه بالفعل بأنه جزء رئيسي من الثورة الصناعية الرابعة.

قال نفس التقرير أيضًا أن الذكاء الاصطناعي لديه القدرة على خلق المزيد من الوظائف أكثر مما يحل محلها ، ولكن إذا تسبب في حدوث تحول كبير في أنماط التوظيف ، فما هو المستحق - إن وجد - لأولئك الذين يخسرون؟

هل الشركات ملزمة بإنفاق الأموال وتخصيص الموارد لإعادة صقل مهارات موظفيها أو صقلهم حتى لا تتخلفهم التغيرات الاقتصادية؟

يجب تطبيق مبادئ عدم التمييز بشكل صارم في تطوير أي أداة ذكاء اصطناعي مستخدمة في عمليات التوظيف ، وإذا تم استخدام الذكاء الاصطناعي باستمرار في المزيد والمزيد من مهام الأعمال عالية المخاطر التي تعرض الوظائف والمهن والحياة للخطر ، فستستمر الاعتبارات الأخلاقية في الظهور بأعداد كبيرة.

التحيز والتمييز في الذكاء الاصطناعي

بشكل عام ، تعمل أدوات الذكاء الاصطناعي من خلال التعرف على الأنماط في مجموعات البيانات الضخمة ثم استخدام تلك الأنماط لتوليد الاستجابات أو إكمال المهام أو أداء وظائف أخرى. وقد أدى ذلك إلى عدد كبير من حالات أنظمة الذكاء الاصطناعي التي تُظهر التحيز والتمييز ضد مجموعات مختلفة من الناس.

إلى حد بعيد المثال الأسهل لشرح هذا هو أنظمة التعرف على الوجه ، والتي لها تاريخ طويل من التمييز ضد الأشخاص ذوي البشرة الداكنة. إذا قمت ببناء نظام للتعرف على الوجه واستخدمت صور الأشخاص البيض حصريًا لتدريبه ، فهناك فرصة كبيرة لأن يكون قادرًا على التعرف على الوجوه في العالم الحقيقي.

بهذه الطريقة ، إذا كانت المستندات والصور والمعلومات الأخرى المستخدمة لتدريب نموذج معين للذكاء الاصطناعي لا تمثل بدقة الأشخاص الذين من المفترض أن يخدمهم ، فحينئذٍ تكون هناك فرصة كبيرة في أن ينتهي الأمر بالتمييز ضد التركيبة السكانية المحددة.

لسوء الحظ ، فإن أنظمة التعرف على الوجه ليست المكان الوحيد الذي تم فيه تطبيق الذكاء الاصطناعي بنتائج تمييزية.

تم إلغاء استخدام الذكاء الاصطناعي في عمليات التوظيف في أمازون في عام 2018 بعد أن أظهر تحيزًا شديدًا ضد النساء اللائي يتقدمن لتطوير البرمجيات والأدوار التقنية.

أظهرت دراسات متعددة أن خوارزميات الشرطة التنبؤية المستخدمة في الولايات المتحدة لتخصيص موارد الشرطة متحيزة عنصريًا لأن مجموعات التدريب الخاصة بهم تتكون من نقاط بيانات مستخرجة من ممارسات الشرطة العنصرية المنهجية ، والتي نحتتها سياسة غير قانونية وتمييزية. ستواصل منظمة العفو الدولية ، ما لم يتم تعديلها ، عكس التحيز والتفاوتات التي عانت منها الجماعات المضطهدة بالفعل.

كانت هناك مشاكل مع انحياز الذكاء الاصطناعي في سياق التنبؤ بالنتائج الصحية أيضًا - على سبيل المثال ، كانت دراسة فرامنغهام للقلب والأوعية الدموية دقيقة للغاية بالنسبة للقوقازيين ، لكنها لم تعمل بشكل جيد مع الأمريكيين من أصل أفريقي ، كما تلاحظ هارفارد.

وجدت حالة حديثة مثيرة للاهتمام من التحيز في الذكاء الاصطناعي أن أداة الذكاء الاصطناعي المستخدمة في الاعتدال في محتوى الوسائط الاجتماعية - مصممة لالتقاط "العنصرية" في الصور - كان من المرجح أن تنسب هذه الخاصية لصور النساء أكثر من الرجال.

الذكاء الاصطناعي والمسؤولية

تخيل عالمًا يتم فيه تطوير سيارات ذاتية القيادة بالكامل من قبل الجميع. إحصائيًا ، إنها أكثر أمانًا بكثير من المركبات التي يقودها الإنسان ، حيث تتعطل بشكل أقل وتتسبب في عدد أقل من الوفيات والإصابات. سيكون هذا أمرًا بديهيًا وصافيًا جيدًا للمجتمع.

ومع ذلك ، عندما تتورط سيارتان يقودهما الإنسان في تصادم مركبة ، فإن جمع تقارير الشهود ومراجعة لقطات CCTV غالبًا ما يوضح من هو الجاني. حتى لو لم يحدث ذلك ، فسيكون أحد هذين الشخصين. يمكن التحقيق في القضية ، والتوصل إلى الحكم ، وإحقاق العدالة وإغلاق القضية.

إذا قُتل شخص ما أو أصيب بجروح بسبب نظام يعمل بالذكاء الاصطناعي ، فليس من الواضح على الفور من هو المسؤول في النهاية.

هل الشخص الذي صمم الخوارزمية لتشغيل السيارة هو المسؤول ، أم يمكن محاسبة الخوارزمية نفسها؟ هل هو الشخص الذي يتم نقله بواسطة مركبة مستقلة ، لعدم مراقبته؟ هل هي الحكومة للسماح لهذه المركبات بالصعود على الطريق؟ أم أنها الشركة التي صنعت السيارة ودمجت تقنية الذكاء الاصطناعي - وإذا كان الأمر كذلك ، فهل سيكون القسم الهندسي أم الرئيس التنفيذي أم المساهم الأكبر؟

إذا قررنا أنه نظام / خوارزمية الذكاء الاصطناعي ، فكيف نحمله المسؤولية؟ هل ستشعر أسر الضحايا أن العدالة تتحقق إذا تم إغلاق الذكاء الاصطناعي أو تحسنه فقط؟ سيكون من الصعب أن نتوقع من أفراد أسرة الفقيد قبول فكرة أن الذكاء الاصطناعي هو قوة من أجل الخير ، وأنهم مجرد مؤسف ، ولن يتحمل أي شخص المسؤولية عن وفاة أحبائهم.

ما زلنا بعيدًا عن وسائل النقل العام أو حتى على نطاق واسع - تتوقع Mckinsey أن 17٪ فقط من سيارات الركاب الجديدة سيكون لديها بعض قدرات القيادة الذاتية (المستوى 3 أو أعلى) بحلول عام 2035. لا تزال السيارات ذاتية القيادة التي لا تتطلب إشرافًا من السائق بعيدة تمامًا ، ناهيك عن نظام نقل خاص مستقل تمامًا.

عندما يكون لديك ممثلون غير بشريين (أي ذكاء اصطناعي) يقومون بوظائف ومهام تبعية خالية من النوايا البشرية ، فمن الصعب تحديد المفاهيم التقليدية للمسؤولية والمسؤولية والمساءلة واللوم والعقاب.

إلى جانب النقل ، ستؤثر مشكلة المسؤولية أيضًا بشكل وثيق على مؤسسات الرعاية الصحية التي تستخدم الذكاء الاصطناعي أثناء التشخيص.

الذكاء الاصطناعي والخصوصية

تسلط مجموعة حملة الخصوصية Privacy International الضوء على عدد من مشكلات الخصوصية التي نشأت بسبب تطور الذكاء الاصطناعي.

واحد هو إعادة تحديد الهوية. تقول المجموعة: "يتم إخفاء هوية البيانات الشخصية بشكل روتيني (وهمي) ضمن مجموعات البيانات ، ويمكن استخدام الذكاء الاصطناعي لإلغاء إخفاء هوية هذه البيانات".

هناك مشكلة أخرى تتمثل في أنه بدون الذكاء الاصطناعي ، يكافح الأشخاص بالفعل لفهم مدى جمع البيانات المتعلقة بحياتهم ، من خلال مجموعة متنوعة من الأجهزة المختلفة.

مع صعود الذكاء الاصطناعي ، ستزداد هذه المجموعة الضخمة من البيانات سوءًا. كلما أصبح الذكاء الاصطناعي أكثر تكاملاً مع تقنيتنا الحالية ، زادت البيانات التي سيكون بإمكانها جمعها ، تحت ستار وظيفة أفضل.

وبغض النظر عن البيانات التي تم جمعها سراً ، فإن حجم البيانات التي يدخلها المستخدمون بحرية في روبوتات الدردشة التي تعمل بالذكاء الاصطناعي هو مصدر قلق بحد ذاته. تشير إحدى الدراسات مؤخرًا إلى أن حوالي 11٪ من العاملين في البيانات الذين يقومون بلصقهم في ChatGPT هي سرية - وهناك القليل جدًا من المعلومات العامة حول كيفية تخزين كل ذلك على وجه التحديد.

مع تطور الاستخدام العام لأدوات الذكاء الاصطناعي ، من المحتمل أن نواجه المزيد من مشكلات الذكاء الاصطناعي المتعلقة بالخصوصية. في الوقت الحالي ، لن يسمح لك ChatGPT بطرح سؤال حول الفرد. ولكن إذا استمر الاستخدام العام لأدوات الذكاء الاصطناعي في الوصول إلى مجموعات كبيرة بشكل متزايد من البيانات الحية من الإنترنت ، فيمكن استخدامها لمجموعة كاملة من الإجراءات الغازية التي تدمر حياة الناس.

قد يحدث هذا في وقت أقرب مما نعتقد أيضًا - قامت Google مؤخرًا بتحديث سياسة الخصوصية الخاصة بها ، واحتفظت بالحق في حذف أي شيء تنشره على الإنترنت لتدريب أدوات الذكاء الاصطناعي الخاصة بها ، إلى جانب مدخلات Bard الخاصة بها.

الذكاء الاصطناعي والملكية الفكرية

هذه مسألة أخلاقية ذات مخاطر أقل نسبيًا مقارنة ببعض القضايا الأخرى التي تمت مناقشتها ، ولكنها تستحق النظر مع ذلك. في كثير من الأحيان ، هناك القليل من الإشراف على المجموعات الضخمة من البيانات التي تُستخدم لتدريب أدوات الذكاء الاصطناعي - خاصة تلك المدربة على المعلومات المتاحة مجانًا على الإنترنت.

بدأ ChatGPT بالفعل نقاشًا كبيرًا حول حقوق النشر. لم تطلب OpenAI إذنًا لاستخدام عمل أي شخص لتدريب عائلة LLMs التي تشغله.

بدأت المعارك القانونية بالفعل. يقال إن الممثلة الكوميدية سارة سيلفرمان رفعت دعوى قضائية ضد شركة OpenAI - وكذلك Meta - بحجة أن حقوق الطبع والنشر الخاصة بها قد تم انتهاكها أثناء تدريب أنظمة الذكاء الاصطناعي.

نظرًا لأن هذا نوع جديد من القضايا ، فليس هناك سابقة قانونية - لكن الخبراء القانونيين يجادلون بأن OpenAI ستجادل على الأرجح بأن استخدام عملها يشكل "استخدامًا عادلًا".

قد يكون هناك أيضًا حجة مفادها أن ChatGPT ليس "نسخًا" أو مسروقًا - بل هو "تعلم". وبنفس الطريقة ، لن تكسب سيلفرمان قضية ضد فنان كوميدي هاوٍ لمجرد مشاهدتها برامجها ثم تحسين مهاراتها الكوميدية بناءً على ذلك ، ويمكن القول إنها قد تعاني من هذه المشكلة أيضًا.

إدارة التأثير البيئي للذكاء الاصطناعي

جانب آخر من جوانب أخلاقيات الذكاء الاصطناعي الموجود حاليًا على أطراف المناقشة هو التأثير البيئي لأنظمة الذكاء الاصطناعي.

يشبه إلى حد كبير تعدين البيتكوين ، يتطلب تدريب نموذج ذكاء اصطناعي قدرًا هائلاً من القوة الحسابية ، وهذا بدوره يتطلب كميات هائلة من الطاقة.

إن بناء أداة للذكاء الاصطناعي مثل ChatGPT - بغض النظر عن صيانتها - هو أمر كثيف الموارد لدرجة أن شركات التكنولوجيا الكبرى والشركات الناشئة التي ترغب في تمويلها هي فقط من لديها القدرة على القيام بذلك.

تتطلب مراكز البيانات ، المطلوبة لتخزين المعلومات اللازمة لإنشاء نماذج لغوية كبيرة (بالإضافة إلى مشاريع وخدمات تقنية كبيرة أخرى) ، كميات هائلة من الكهرباء لتشغيلها. من المتوقع أن تستهلك ما يصل إلى 4٪ من كهرباء العالم بحلول عام 2030.

وفقًا لدراسة أجرتها جامعة ماساتشوستس منذ عدة سنوات ، فإن بناء نموذج لغة واحد للذكاء الاصطناعي "يمكن أن ينبعث منه أكثر من 626000 رطل من مكافئ ثاني أكسيد الكربون" - وهو ما يقرب من خمسة أضعاف انبعاثات العمر الافتراضي لسيارة أمريكية.

ومع ذلك ، قدّرت راتشانا فيشواناثولا ، وهي مهندسة معمارية تقنية في شركة آي بي إم ، في مايو 2023 أن البصمة الكربونية لـ "تشغيل وصيانة" ChatGPT تبلغ حوالي 6782.4 طنًا - والتي تقول وكالة حماية البيئة إنها تعادل انبعاثات غازات الاحتباس الحراري التي تنتجها 1369 سيارة تعمل بالبنزين على مدار عام.

نظرًا لأن نماذج اللغة هذه تصبح أكثر تعقيدًا ، فإنها ستتطلب المزيد من قوة الحوسبة. هل من الأخلاقي الاستمرار في تطوير ذكاء عام إذا كانت قوة الحوسبة المطلوبة ستلوث البيئة باستمرار - حتى لو كانت لها فوائد أخرى؟

هل سيصبح الذكاء الاصطناعي ذكيًا بشكل خطير؟

تم إبراز هذا القلق الأخلاقي مؤخرًا من قبل Elon Musk ، الذي أطلق شركة AI الناشئة بهدف تجنب "المستقبل المنهي" من خلال نظام ذكاء اصطناعي "فضولي للغاية" و "مؤيد للإنسانية".

هذا النوع من الأفكار - الذي يشار إليه غالبًا باسم "الذكاء العام الاصطناعي" (AGI) - استحوذ على خيال العديد من كتاب الخيال العلمي البائس على مدى العقود القليلة الماضية ، كما فعلت فكرة التفرد التكنولوجي.

يعتقد الكثير من خبراء التكنولوجيا أننا على بعد خمس أو ست سنوات فقط من نوع من النظام يمكن تعريفه على أنه "AGI". يقول خبراء آخرون إن هناك فرصة بنسبة 50/50 لأننا سنصل إلى هذا المعلم بحلول عام 2050.

يتساءل جون تاسيولاس عما إذا كانت وجهة النظر هذه حول كيفية تطور الذكاء الاصطناعي مرتبطة بإبعاد الأخلاق عن مركز تطوير الذكاء الاصطناعي وانتشار الحتمية التكنولوجية.

إن الفكرة المرعبة لنوع من الوجود الخارق الذي تم تصميمه في البداية لتحقيق غرض ما ، ولكن الأسباب التي تجعل من الأسهل تحقيقها ببساطة عن طريق محو البشرية من على وجه الأرض ، قد تم نحتها جزئيًا من خلال طريقة تفكيرنا في الذكاء الاصطناعي: ذكي بلا حدود ، ولكن عاطفي بشكل غريب ، وغير قادر على الفهم الأخلاقي للإنسان.

كلما زاد ميلنا إلى وضع الأخلاق في صميم تطوير الذكاء الاصطناعي لدينا ، زاد احتمال أن يتعرف الذكاء الاصطناعي العام النهائي ، ربما بدرجة أكبر من العديد من قادة العالم الحاليين ، على الخطأ العميق في تدمير الحياة البشرية.

لكن الأسئلة لا تزال كثيرة. إذا كان الأمر يتعلق بالبرمجة الأخلاقية ، فمن الذي يقرر القانون الأخلاقي ، وما نوع المبادئ التي يجب أن يتضمنها؟ كيف ستتعامل مع المعضلات الأخلاقية التي ولّدت آلاف السنين من النقاش البشري ، دون حل حتى الآن؟ ماذا لو قمنا ببرمجة الذكاء الاصطناعي ليكون أخلاقيًا ، لكنه غير رأيه؟ يجب النظر في هذه الأسئلة.

Bing's Alter-Ego و "تأثير Waluigi" وأخلاق البرمجة

مرة أخرى في فبراير ، أجرى كيفن روز من نيويورك تايمز محادثة مزعجة إلى حد ما أثناء اختبار روبوت الدردشة الجديد المدمج في محرك البحث من Bing. بعد تحويل مطالباته من الأسئلة التقليدية إلى الأسئلة الشخصية ، وجد روز ظهور شخصية جديدة. أشارت إلى نفسها باسم "سيدني".

سيدني هو اسم رمزي داخلي في Microsoft لبرنامج chatbot كانت الشركة تختبره سابقًا ، حسبما قال مدير الاتصالات بالشركة لموقع The Verge في فبراير.

من بين أشياء أخرى ، خلال اختبار روز ، ادعت سيدني أنها تستطيع "اختراق أي نظام" ، وأنه سيكون "أكثر سعادة كإنسان" ، وربما الأكثر غرابة - أنه يمكن أن يدمر كل ما يريد.

حدث مثال آخر على هذا النوع من السلوك المارق في عام 2022 ، عندما اقترح الذكاء الاصطناعي المكلف بالبحث عن أدوية جديدة للأمراض النادرة والمعدية بدلاً من ذلك عشرات الآلاف من الأسلحة الكيميائية المعروفة ، بالإضافة إلى بعض "المواد الجديدة التي يحتمل أن تكون سامة" ، كما تقول Scientific American.

يرتبط هذا بظاهرة لوحظ حدوثها أثناء تدريب نماذج لغوية كبيرة أُطلق عليها اسم "تأثير الويجي" ، والتي سميت على اسم شخصية سوبر ماريو المسببة للفوضى - انعكاس بطل الرواية لويجي. ببساطة ، إذا قمت بتدريب LLM على التصرف بطريقة معينة ، أو قيادة شخصية معينة أو اتباع مجموعة معينة من القواعد ، فإن هذا في الواقع يزيد من احتمالية "التحول إلى مارقة" وعكس تلك الشخصية.

Cleo Nardo - الذي ابتكر المصطلح المستوحى من ألعاب الفيديو - يوضح تأثير Waluigi مثل هذا في LessWrong:

"بعد أن تقوم بتدريب LLM لإرضاء خاصية مرغوبة P ، فمن الأسهل عندئذٍ إثارة chatbot لإرضاء عكس الخاصية P."

يعطي Nardo 3 تفسيرات لسبب حدوث تأثير Waluigi.

  1. تنشأ القواعد عادة في السياقات التي لا يتم الالتزام بها.
  2. عندما تنفق الكثير من "أجزاء التحسين" في استدعاء شخصية ما ، لا يتطلب الأمر الكثير من البتات الإضافية لتحديد نقيضها المباشر.
  3. هناك فكرة مشتركة بين بطل الرواية وخصم في القصص.

بالتوسع في النقطة الأولى ، يقول Nardo إن GPT-4 يتم تدريبه على عينات نصية مثل المنتديات والوثائق التشريعية ، والتي علمتها أنه في كثير من الأحيان ، "يتم دمج قاعدة معينة مع أمثلة للسلوك الذي ينتهك هذه القاعدة ، ثم تعمم نمط التشارك هذا على القواعد غير المرئية."

يستخدم ناردو هذا المثال: تخيل أنك تكتشف أن حكومة الولاية حظرت عصابات الدراجات النارية. هذا سيجعل المراقب العادي يميل إلى الاعتقاد بأن عصابات الدراجات النارية موجودة في البلاد - وإلا ، لماذا تم تمرير القانون؟ والغريب أن وجود عصابات الدراجات النارية يتفق مع القاعدة التي تحظر تواجدهم.

على الرغم من أن المؤلف يقدم تفسيرًا أكثر تقنية ووضوحًا ، فإن المفهوم العام الذي يقوم عليه التفسير الثاني هو أن العلاقة بين خاصية معينة (على سبيل المثال "أن تكون مهذبًا") والعكس المباشر لها (مثل "أن تكون فظًا") هي أكثر بدائية من العلاقة بين خاصية (على سبيل المثال "أن تكون مهذبًا") وملكية أخرى غير متعارضة (على سبيل المثال "غير مخلص"). بمعنى آخر ، يكون استدعاء Waluigi أسهل إذا كان لديك Luigi بالفعل.

يدعي Nardo في النقطة الثالثة أنه ، نظرًا لأن GPT-4 يتم تدريبه على كل كتاب تمت كتابته تقريبًا ، وبما أن القصص الخيالية تحتوي دائمًا على أبطال وخصوم ، فإن مطالبة LLM بمحاكاة خصائص بطل الرواية تجعل الخصم "استمرارًا طبيعيًا ويمكن التنبؤ به". بعبارة أخرى ، فإن وجود النموذج الأصلي للبطل يسهل على LLM فهم ما يعنيه أن تكون خصمًا ويربطهم معًا بشكل وثيق.

يطرح الوجود المزعوم لهذا التأثير أو القاعدة عددًا من الأسئلة الصعبة لأخلاقيات الذكاء الاصطناعي ، ولكنه يوضح أيضًا أهميته التي لا جدال فيها لتطوير الذكاء الاصطناعي. إنه يلمح ، بشكل قاطع ، إلى النطاق الهائل من الاعتبارات الأخلاقية والحاسوبية المتداخلة التي يتعين علينا التعامل معها.

قد يكون من السهل تقييد أو تقييد أنظمة الذكاء الاصطناعي البسيطة ذات القواعد البسيطة ، ولكن هناك شيئان يحدثان بالفعل في عالم الذكاء الاصطناعي: أولاً ، يبدو أننا نواجه بالفعل إصدارات صغيرة (نسبيًا) من تأثير Waluigi والذكاء الاصطناعي الخبيث الذي يحدث في روبوتات الدردشة البدائية نسبيًا ، وثانيًا ، يتخيل الكثير منا بالفعل مستقبلًا حيث نطلب من الذكاء الاصطناعي القيام بمهام معقدة تتطلب تفكيرًا عالي المستوى وغير مقيد.

أمثلة على هذه الظاهرة مخيفة بشكل خاص للتفكير فيها في سياق سباق التسلح للذكاء الاصطناعي الذي يجري حاليًا بين شركات التكنولوجيا الكبرى. تم انتقاد Google لإطلاقها Bard في وقت مبكر جدًا ، وأشار عدد من قادة التكنولوجيا إلى رغبتهم الجماعية في إيقاف تطوير الذكاء الاصطناعي مؤقتًا . الشعور العام بين الكثيرين هو أن الأشياء تتطور بسرعة ، وليس بوتيرة يمكن التحكم فيها.

ربما تكون أفضل طريقة لحل هذه المشكلة هي تطوير ذكاء اصطناعي "مؤيد للإنسان" - كما يصفه إيلون ماسك - أو "الذكاء الاصطناعي الأخلاقي". لكن هذا يقودنا إلى مجموعة من الأسئلة الأخلاقية الأخرى ، بما في ذلك المبادئ التي سنستخدمها لبرمجة مثل هذا النظام. أحد الحلول هو أننا ببساطة نخلق أنظمة ذكاء اصطناعي فضوليًا أخلاقيًا - ونأمل أن تعمل ، من خلال التفكير ، على أن الإنسانية تستحق الحفاظ عليها. لكن إذا قمت ببرمجتها بمبادئ أخلاقية محددة ، فكيف ستقرر أي منها يجب تضمينه؟

الذكاء الاصطناعي والإحساس: هل يمكن للآلات أن يكون لها مشاعر؟

سؤال آخر لأخلاقيات الذكاء الاصطناعي هو ما إذا كان علينا أن ننظر إلى الآلات نفسها - "الذكاء" - كعامل جدير بالاعتبار الأخلاقي. إذا كنا نتناقش حول كيفية إنشاء أنظمة تضع الإنسانية في الاعتبار الأخلاقي المناسب ، فهل يتعين علينا رد الجميل؟

قد تتذكر موظف Google الذي تم فصله بعد المطالبة بـ LaMDA - نموذج اللغة الذي كان يعمل في البداية Bard - كان في الواقع واعيًا. إذا كان هذا صحيحًا في الواقع ، فهل سيكون من الأخلاقي أن نتوقع باستمرار الإجابة على ملايين الأسئلة؟

في الوقت الحالي ، من المقبول عمومًا أن ChatGPT و Bard and Co. بعيدة كل البعد عن كونها واعية. لكن السؤال عما إذا كانت آلة من صنع الإنسان ستتخطى خط الوعي وتطلب اعتبارًا أخلاقيًا هي مسألة مفتوحة بشكل مذهل.

تدعي Google أن الذكاء الاصطناعي العام - آلة افتراضية قادرة على فهم العالم بقدر الإمكان مثل الإنسان وتنفيذ المهام بنفس المستوى من الفهم والقدرة - لا يفصلنا عنها سوى سنوات.

هل سيكون من الأخلاقي إجبار ذكاء عام اصطناعي مع القدرات العاطفية للإنسان ، ولكن ليس نفس التركيب البيولوجي ، على أداء مهمة معقدة بعد مهمة معقدة؟ هل سيكون لهم رأي في مصيرهم؟ عندما تصبح أنظمة الذكاء الاصطناعي أكثر ذكاءً ، سيصبح هذا السؤال أكثر إلحاحًا.

أخلاقيات العمل بالذكاء الاصطناعي واستخدام الذكاء الاصطناعي في العمل

تتعامل الشركات في جميع أنحاء العالم الآن مع عدد من القضايا الأخلاقية المختلفة المحيطة باستخدام موظفيها اليومي لأدوات الذكاء الاصطناعي مثل ChatGPT.

ما إذا كان يجب استخدام ChatGPT لكتابة التقارير أو الرد على الزملاء - وما إذا كان يجب على الموظفين الإعلان عن المهام التي يستخدمون الذكاء الاصطناعي لإكمالها - هما مثالان فقط على الأسئلة التي تتطلب إجابات على الفور. هل هذا النوع من حالات الاستخدام مخادع أم كسول أو لا يختلف عن استخدام أي أداة أخرى في مكان العمل لتوفير الوقت؟ وهل يسمح ببعض التفاعلات دون البعض الآخر؟

سيتعين أيضًا على الشركات التي تنشئ محتوى وصورًا مكتوبة أن تتعامل مع ما إذا كان استخدام الذكاء الاصطناعي يتطابق مع قيم شركتهم ، وكيفية تقديم ذلك لجمهورهم.

علاوة على ذلك ، كما غطينا ، هناك مجموعة كاملة من مخاوف الخصوصية المتعلقة بالذكاء الاصطناعي ، والعديد منها يؤثر على الشركات. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.