استقال نصف فريق السلامة في OpenAI بسبب مخاوف بشأن AGI Mount
نشرت: 2024-08-28لقد ترك ما يقرب من نصف فريق السلامة في OpenAI الشركة في الأشهر القليلة الماضية، وفقًا للمبلغ عن المخالفات والموظف السابق دانييل كوكوتاجلو.
تأتي هذه الأخبار بعد أسبوع واحد فقط من توقيع العديد من الموظفين السابقين على خطاب ينتقد الشركة ومديرها التنفيذي، سام ألتمان ، لفشلهما في أخذ مخاطر الذكاء الاصطناعي على محمل الجد، خاصة عندما يتعلق الأمر بتطوير أشكال مستقلة من الذكاء الاصطناعي مثل الذكاء الاصطناعي العام (أجي).
تم انتقاد ألتمان أيضًا لرفضه مشروع قانون في ولاية كاليفورنيا يهدف إلى تنظيم نماذج الذكاء الاصطناعي الأكبر حجمًا، بينما كان يتحدث بصوت عالٍ عن أهمية التنظيم في الصناعة، حيث يواصل صانع روبوتات الدردشة ومختبر الأبحاث الخاص بالذكاء الاصطناعي إعطاء الأولوية لمشروع AGI الخاص به على كل شيء آخر.
فريق السلامة في OpenAI يسقط مثل الذباب بسبب مخاوف AGI
يواجه فريق OpenAI Superalignment، الذي تم تأسيسه في عام 2023 للتخفيف من مخاطر الذكاء الاصطناعي "الفائق الذكاء"، أزمة كبيرة.
وفقًا للمقابلة الحصرية التي أجراها دانييل كوكوتايلو، العضو السابق في الفريق، مع مجلة Fortune، فقد استقال حوالي 14 عضوًا في الفريق طوال الأشهر القليلة الماضية، تاركين قوة عاملة مكونة من 16 فردًا. لقد كانت الهجرة الجماعية بطيئة وليست سريعة الغليان، حسبما يكشف كوكوتايلو، مع استمرار OpenAI لإعطاء الأولوية للأرباح على سلامة الذكاء الاصطناعي.
🔎 هل تريد تصفح الويب بخصوصية؟ 🌎 أو تظهر وكأنك في بلد آخر؟
احصل على خصم ضخم بنسبة 86% على Surfshark مع هذا العرض الخاص من tech.co.
"لم يكن الأمر مثل شيء منسق. "أعتقد أن الأمر مجرد نوع من الاستسلام الفردي للأشخاص،" - دانييل كوكوتاجلو، موظف سابق في OpenAI
في حين أن فريق Superalignment مكلف بالتعامل مع مجموعة واسعة من عوامل خطر الذكاء الاصطناعي، فمن المرجح أن تتماشى هذه الاستقالات مع اعتقاد كوكوتايلو بأن OpenAI "قريبة إلى حد ما" من تطوير الذكاء الاصطناعي العام - وهو نظام ذكاء اصطناعي مستقل للغاية سيكون قادرًا على التفوق على البشر في الأداء. معظم المهام.
تم توضيح سعي OpenAI لتحقيق الذكاء الاصطناعي العام في بيان مهمتها. ومع ذلك، بدلاً من إفادة "البشرية جمعاء" كما تنص مهمتها، يعتقد المطلعون على الشركة مثل كوكوتايلو أنه إذا استمرت الشركة في مسارها الحالي، فإن التكنولوجيا القوية يمكن أن تشكل "خطر إلحاق أضرار جسيمة بالمجتمع" مثل "الهجمات السيبرانية غير المسبوقة". أو المساعدة في “صنع أسلحة بيولوجية”.
علاوة على ذلك، وفقًا لكوكوتايلو، واجه أعضاء فريق Superalignment الذين حاولوا نشر بحث حول مخاطر الذكاء الاصطناعي العام "تأثيرًا مخيفًا" من المديرين التنفيذيين لشركة OpenAI و"قدرًا متزايدًا من التأثير من قبل أجنحة الاتصالات والضغط في OpenAI". على ما هو مناسب للنشر.
يتخبط سام التمان على تنظيم الذكاء الاصطناعي
بالإضافة إلى التصويت بأقدامهم، وقع دانييل كوكوتاجلو وزميله الباحث السابق ويليام سوندرز على خطاب مفتوح الأسبوع الماضي ينتقدون فيه الشركة علنًا بسبب مخاوفهم الأمنية.
في الرسالة، تناولوا احتمال أن تسبب نماذج الذكاء الاصطناعي "ضررًا كارثيًا للجمهور" إذا تركت دون تنظيم. وأشاروا أيضًا إلى سجل إنجازات OpenAI المشبوه عندما يتعلق الأمر بالسلامة، بما في ذلك افتقار الشركة إلى حماية المبلغين عن المخالفات، ونشرها المبكر لـ GPT-4 ، وممارساتها الأمنية الباهتة التي أدت إلى اختراق أمني كبير في عام 2023 ، واستقالة إيليا سوتسكيفر. ، رئيس الأمن السابق للشركة.
"لقد دعا سام ألتمان، رئيسنا السابق، مرارًا وتكرارًا إلى تنظيم الذكاء الاصطناعي. والآن، عندما أصبح التنظيم الفعلي مطروحًا على الطاولة، فهو يعارضه». – دانييل كوكوتاجلو وويليام سوندرز في رسالة مفتوحة
ومن الجدير بالذكر أن المبلغين عن المخالفات لفتوا الانتباه أيضًا إلى نفاق الرئيس التنفيذي لشركة OpenAI، سام ألتمان، عندما يتعلق الأمر بتنظيم الذكاء الاصطناعي. وأعربوا عن "خيبة أملهم" لأن الشركة قررت ممارسة الضغط ضد SB 1047 - وهو مشروع قانون مقترح يفرض اختبار السلامة لنماذج الذكاء الاصطناعي التي كلف تطويرها أكثر من 100 مليون دولار - على الرغم من دعوات ألمان المتكررة لمزيد من تنظيم الذكاء الاصطناعي.
حتى أن كوكوتاجلو وسوندرز قارنوا استجابتها بـ Anthropic ، وهو منافس لروبوتات الدردشة التي تعمل بالذكاء الاصطناعي والذي قرر الامتثال لمشروع قانون SB 1047 حيث اتفقا على أن له فائدة صافية.
OpenAI عازمة على الذكاء الاصطناعي العام، على الرغم من التكاليف المحتملة
وفقًا لشركة OpenAI، فإن أسباب رفض SB 1047 ذات شقين. أولاً، يدعي أن الشركات ستغادر كاليفورنيا إذا تم إقرار مشروع القانون. ثانيًا، تعتقد الشركة أن التنظيم يجب أن "يتم تشكيله وتنفيذه على المستوى الفيدرالي"، بسبب الآثار المترتبة على الأمن القومي لتطوير الذكاء الاصطناعي.
وقد تم بالفعل رفض هذه الأسباب من قبل سعوديرز وكوكوتاجلو لكونها غير بناءة وسوء النية، ويعتقد العديد من الموظفين السابقين، بما في ذلك إيليا سوتسكيفر، أن رفض ألتمان التنظيم مستمد من وضع "منتجات لامعة"، وتطوير الذكاء الاصطناعي العام "فوق الأمان". .
على الرغم من تقرير حديث صادر عن المعلومات يكشف أن منشئ ChatGPT قد يتكبد خسائر تبلغ حوالي 5 مليارات دولار في عام 2024، وينفد أمواله بالكامل في العام المقبل، تظل OpenAI صامدة عندما يتعلق الأمر بتطوير الذكاء الاصطناعي العام. وقد ادعى ألتمان سابقًا أنه لا يهم كم سيكلفهم هذا الاختراق، حيث قال لستانفورد إي كورنر "سواء أحرقنا 500 مليون دولار، أو 5 مليارات دولار، أو 50 مليار دولار سنويًا، فأنا لا أهتم" لأن بعض الإنجازات للبشرية هي " نفيس".
ومع تجاهل الشركة للتحديات المالية التي تواجهها بقدر ما تتجاهل الدعوات المهمة للتنظيم، فمن غير المرجح أن يكون هناك أي شيء يمنع OpenAI من متابعة الذكاء الاصطناعي العام - حتى مع انهيار فريق الذكاء الفائق الخاص بها. على الرغم من أن عواقب مهمة OpenAI's AGI لم يتم تحديدها بعد، إلا أن هناك خطوات يمكنك اتخاذها للحفاظ على بياناتك آمنة عند استخدام ChatGPT.
تعرف على كيفية إيقاف تدريب ChatGPT على بياناتك، واكتشف كيفية استخدام chatbot بأمان هنا .