ครึ่งหนึ่งของทีมความปลอดภัยของ OpenAI ลาออกเนื่องจากความกังวลเรื่อง AGI Mount
เผยแพร่แล้ว: 2024-08-28เกือบครึ่งหนึ่งของทีมความปลอดภัยของ OpenAI ได้ละทิ้งบริษัทในช่วงหลายเดือนที่ผ่านมา ตามที่ผู้แจ้งเบาะแสและอดีตพนักงาน Daniel Kokotajlo กล่าว
ข่าวดังกล่าวเกิดขึ้นเพียงหนึ่งสัปดาห์หลังจากอดีตพนักงานหลายคนลงนามในจดหมายเรียกร้องให้บริษัทและ CEO Sam Altman ล้มเหลวในการให้ความสำคัญกับความเสี่ยงด้านปัญญาประดิษฐ์อย่างจริงจัง โดยเฉพาะอย่างยิ่งในการพัฒนารูปแบบอัตโนมัติของ AI เช่นปัญญาประดิษฐ์ทั่วไป (เอจีไอ).
อัลท์แมนยังถูกวิพากษ์วิจารณ์ว่าปฏิเสธร่างกฎหมายของรัฐแคลิฟอร์เนียที่มุ่งควบคุมโมเดล AI ที่ใหญ่กว่า ในขณะเดียวกันก็แสดงความเห็นอย่างมากเกี่ยวกับความสำคัญของกฎระเบียบในอุตสาหกรรม ในขณะที่ผู้สร้างแชทบอท AI และห้องปฏิบัติการวิจัยยังคงจัดลำดับความสำคัญของ โครงการ AGI เหนือสิ่งอื่นใด
ทีมความปลอดภัยของ OpenAI ตกต่ำเหมือนแมลงวันเนื่องจากข้อกังวลของ AGI
ทีม Superalignment ของ OpenAI ซึ่งก่อตั้งขึ้นในปี 2566 เพื่อลดความเสี่ยงของ AI "อัจฉริยะขั้นสูง" กำลังเผชิญกับวิกฤตครั้งใหญ่
ตามการสัมภาษณ์พิเศษของอดีตสมาชิกในทีม Daniel Kokotajlo สำหรับ Fortune สมาชิกในทีมประมาณ 14 คนได้ลาออกตลอดหลายเดือนที่ผ่านมา เหลือพนักงานโครงกระดูกเพียง 16 คน การอพยพเป็นการเคี่ยวอย่างช้าๆ แทนที่จะเป็นการเดือดอย่างรวดเร็ว Kokotajlo เผยในขณะที่ OpenAI ยังคงดำเนินต่อไป เพื่อจัดลำดับความสำคัญของผลกำไรมากกว่าความปลอดภัยของ AI
🔎 ต้องการท่องเว็บแบบส่วนตัวหรือไม่? ✈ หรือดูเหมือนคุณอยู่ประเทศอื่น?
รับส่วนลด Surfshark มากถึง 86% ด้วยข้อเสนอพิเศษของ tech.co
“มันไม่เหมือนสิ่งที่ประสานงานกัน ฉันคิดว่ามันเป็นเพียงผู้คนที่ยอมแพ้เป็นรายบุคคล” – Daniel Kokotajlo อดีตพนักงาน OpenAI
ในขณะที่ทีม Superalignment ได้รับมอบหมายให้จัดการกับปัจจัยเสี่ยงด้าน AI ที่หลากหลาย การลาออกเหล่านี้มีแนวโน้มที่จะสอดคล้องกับความเชื่อของ Kokotajlo ที่ว่า OpenAI นั้น "ค่อนข้างใกล้เคียง" กับการพัฒนา AGI ซึ่งเป็นระบบ AI ที่เป็นอิสระสูงที่จะสามารถทำได้ดีกว่ามนุษย์ใน งานส่วนใหญ่
การแสวงหา AGI ของ OpenAI นั้นเปิดเผยไว้ในพันธกิจของตน อย่างไรก็ตาม แทนที่จะสร้างประโยชน์ให้กับ “มนุษยชาติทั้งมวล” ตามพันธกิจ คนในบริษัทอย่าง Kokotajlo เชื่อว่าหากบริษัทยังคงดำเนินไปตามวิถีปัจจุบัน เทคโนโลยีอันทรงพลังอาจก่อให้เกิด “ความเสี่ยงต่อความเสียหายร้ายแรงต่อสังคม” เช่น “การโจมตีทางไซเบอร์ที่ไม่เคยเกิดขึ้นมาก่อน ” หรือการให้ความช่วยเหลือในการ “สร้างอาวุธชีวภาพ”
ยิ่งไปกว่านั้น ตามที่ Kokotajlo กล่าว สมาชิกของทีม Superalignment ที่พยายามเผยแพร่งานวิจัยเกี่ยวกับความเสี่ยงของ AGI ต้องเผชิญกับ "ผลกระทบที่น่าขนลุก" จากผู้บริหารของ OpenAI และ "อิทธิพลที่เพิ่มขึ้นจากฝ่ายสื่อสารและการล็อบบี้ของ OpenAI" เกี่ยวกับสิ่งที่เหมาะสมในการเผยแพร่
รองเท้าแตะ Sam Altman เกี่ยวกับระเบียบ AI
นอกเหนือจากการลงคะแนนเสียงด้วยเท้าแล้ว Daniel Kokotajlo และอดีตนักวิจัย William Saunders ยังได้ลงนามในจดหมายเปิดผนึกเมื่อสัปดาห์ที่แล้ว โดยเรียกร้องให้บริษัททราบถึงข้อกังวลด้านความปลอดภัยของพวกเขา
ในจดหมาย พวกเขากล่าวถึงศักยภาพของโมเดล AI ที่จะก่อให้เกิด "อันตรายร้ายแรงต่อสาธารณะ" หากปล่อยทิ้งไว้โดยไม่มีการควบคุม พวกเขายังชี้ให้เห็นถึงประวัติอันคลุมเครือของ OpenAI ในเรื่องความปลอดภัย รวมถึงการที่บริษัทขาดการคุ้มครองผู้แจ้งเบาะแส การใช้งาน GPT-4 ก่อนเวลาอันควร แนวทางปฏิบัติด้านความปลอดภัยที่ขาดความดแจ่มใส ซึ่งส่งผลให้เกิด การละเมิดความปลอดภัยครั้งใหญ่ในปี 2566 และการลาออกของ Ilya Sutskever บริษัทอดีตหัวหน้าฝ่ายความมั่นคง
“Sam Altman อดีตเจ้านายของเรา เรียกร้องให้มีกฎระเบียบด้าน AI หลายครั้ง ตอนนี้เมื่อกฎระเบียบที่แท้จริงอยู่บนโต๊ะ เขาก็คัดค้าน” – Daniel Kokotajlo และ William Saunders ในจดหมายเปิดผนึก
โดยเฉพาะอย่างยิ่งผู้แจ้งเบาะแสยังดึงความสนใจไปที่ความหน้าซื่อใจคด ของ CEO ของ OpenAI Sam Altman เมื่อพูดถึงกฎระเบียบของ AI พวกเขาแสดง "ความผิดหวัง" ที่บริษัทตัดสินใจล็อบบี้ต่อต้าน SB 1047 ซึ่งเป็นร่างกฎหมายที่เสนอซึ่งกำหนดให้มีการทดสอบความปลอดภัยสำหรับโมเดล AI ที่มีราคาสูงกว่า 100 ล้านดอลลาร์ในการพัฒนา แม้ว่า Alman จะเรียกร้องให้มีการควบคุม AI มากขึ้นก็ตาม
Kokotajlo และ Saunders ยังเปรียบเทียบการตอบสนองต่อ Anthropic ซึ่งเป็นคู่แข่งแชทบอท AI ที่ตัดสินใจปฏิบัติตามร่างกฎหมาย SB 1047 เนื่องจากพวกเขาตกลงกันว่ามีผลประโยชน์สุทธิ
OpenAI ทุ่มสุดตัวกับ AGI แม้ว่าจะมีต้นทุนที่อาจเกิดขึ้นก็ตาม
จากข้อมูลของ OpenAI สาเหตุของการปฏิเสธ SB 1047 มีสองเท่า ประการแรก อ้างว่าบริษัทต่างๆ จะออกจากแคลิฟอร์เนียหากร่างกฎหมายดังกล่าวผ่าน ประการที่สอง บริษัทเชื่อว่ากฎระเบียบควรได้รับการ “กำหนดรูปแบบและนำไปใช้ในระดับรัฐบาลกลาง” เนื่องจากผลกระทบด้านความมั่นคงของชาติจากการพัฒนา AI
เหตุผลเหล่านี้ได้ถูกเพิกเฉยโดย Sauders และ Kokotajlo เนื่องจากไม่สร้างสรรค์และไม่สุจริต และอดีตพนักงานหลายคน รวมถึง Ilya Sutskever เชื่อว่าการปฏิเสธกฎระเบียบของ Altman เกิดจากการใส่ "ผลิตภัณฑ์ที่แวววาว" และการพัฒนา AGI "เหนือความปลอดภัย" .
แม้ว่ารายงานล่าสุดจากข้อมูลที่เปิดเผยว่าผู้สร้าง ChatGPT อาจขาดทุนประมาณ 5 พันล้านดอลลาร์ในปี 2567 และจะหมดเงินทั้งหมดในปีหน้า แต่ OpenAI ยังคงแน่วแน่ในการพัฒนา AGI ก่อนหน้านี้ Altman อ้างว่าไม่สำคัญว่าความก้าวหน้าครั้งนี้จะต้องเสียค่าใช้จ่ายเท่าไร โดยบอกกับ Stanford eCorner ว่า "ไม่ว่าเราจะเผาเงิน 500 ล้านดอลลาร์ 5 พันล้านดอลลาร์หรือ 50 พันล้านดอลลาร์ต่อปี ฉันก็ไม่สนใจ" เนื่องจากความก้าวหน้าบางอย่างสำหรับมนุษยชาตินั้น " ล้ำค่า”.
เนื่องจากบริษัทมองข้ามความท้าทายทางการเงินของตนเองพอๆ กับเรียกร้องให้มีกฎระเบียบที่สำคัญ จึงไม่น่าจะมีอะไรขัดขวาง OpenAI จากการไล่ตาม AGI ได้เลย แม้ว่าทีม Superintelligence จะล่มสลายก็ตาม แม้ว่าผลลัพธ์ที่ตามมาของภารกิจ AGI ของ OpenAI จะยังไม่ได้รับการพิจารณา แต่ก็มีขั้นตอนต่างๆ ที่คุณสามารถทำได้เพื่อรักษาข้อมูลของคุณให้ปลอดภัยเมื่อใช้ ChatGPT
เรียนรู้วิธีหยุดการฝึกอบรม ChatGPT เกี่ยวกับข้อมูลของคุณ และดู วิธีใช้แชทบอทอย่างปลอดภัยได้ที่นี่