ปัญญาประดิษฐ์ (AI) เป็นอันตรายหรือไม่?

เผยแพร่แล้ว: 2023-05-31

ในวันจันทร์ที่ 22 พฤษภาคม 2023 บัญชี Twitter ที่ผ่านการยืนยันชื่อ “Bloomberg Feed” ได้แชร์ทวีตที่อ้างว่ามีการระเบิดที่เพนตากอนพร้อมกับรูปภาพ หากคุณสงสัยว่าสิ่งนี้เกี่ยวข้องกับปัญญาประดิษฐ์ (AI) รูปภาพนั้นเป็นภาพที่สร้างโดย AI โดยทวีตดังกล่าวกลายเป็นไวรัลอย่างรวดเร็วและจุดประกายให้ตลาดหุ้นตกต่ำในช่วงสั้นๆ สิ่งต่าง ๆ อาจเลวร้ายกว่านี้มาก — เป็นเครื่องเตือนใจอย่างชัดเจนถึงอันตรายของปัญญาประดิษฐ์

อันตรายจากปัญญาประดิษฐ์

ไม่ใช่แค่ข่าวปลอมที่เราต้องกังวล มีความเสี่ยงในทันทีหรือที่อาจเกิดขึ้นที่เกี่ยวข้องกับ AI ตั้งแต่ความเสี่ยงที่เกี่ยวข้องกับความเป็นส่วนตัวและความปลอดภัย ไปจนถึงปัญหาอคติและลิขสิทธิ์ เราจะดำดิ่งสู่อันตรายของปัญญาประดิษฐ์เหล่านี้ ดูว่ากำลังทำอะไรเพื่อลดความเสี่ยงในปัจจุบันและอนาคต และถามว่าความเสี่ยงของ AI มีมากกว่าประโยชน์หรือไม่

สารบัญ

    ข่าวปลอม

    ย้อนกลับไปเมื่อ Deepfakes มาถึงครั้งแรก ความกังวลเกิดขึ้นว่าพวกมันอาจถูกนำไปใช้โดยมีเจตนาร้าย เช่นเดียวกับคลื่นลูกใหม่ของเครื่องกำเนิดภาพ AI เช่น DALL-E 2, Midjourney หรือ DreamStudio เมื่อวันที่ 28 มีนาคม พ.ศ. 2566 ภาพของสมเด็จพระสันตะปาปาฟรานซิสในเสื้อแจ็กเก็ตปักเป้า Balenciaga สีขาวที่สร้างขึ้นโดย AI ปลอม และกำลังเพลิดเพลินกับการผจญภัยต่างๆ รวมถึงการเล่นสเก็ตบอร์ดและการเล่นโป๊กเกอร์กลายเป็นไวรัล เว้นแต่คุณจะศึกษาภาพอย่างใกล้ชิด มันยากที่จะแยกแยะภาพเหล่านี้ออกจากของจริง

    ในขณะที่ตัวอย่างกับสมเด็จพระสันตะปาปาเป็นเรื่องสนุกอย่างไม่ต้องสงสัย แต่ภาพ (และทวีตประกอบ) เกี่ยวกับเพนตากอนนั้นเป็นอย่างอื่น ภาพปลอมที่สร้างขึ้นโดย AI มีพลังในการทำลายชื่อเสียง ยุติการแต่งงานหรืออาชีพ สร้างความไม่สงบทางการเมือง และแม้แต่เริ่มสงครามหากใช้โดยคนผิด กล่าวโดยสรุปคือ ภาพที่สร้างขึ้นโดย AI เหล่านี้มีศักยภาพที่จะเป็นอันตรายอย่างใหญ่หลวงหากนำไปใช้ในทางที่ผิด

    ด้วยตัวสร้างภาพ AI ที่ทุกคนสามารถใช้ได้อย่างอิสระ และ Photoshop ได้เพิ่มตัวสร้างภาพ AI ลงในซอฟต์แวร์ยอดนิยม ทำให้โอกาสในการปรับแต่งภาพและสร้างข่าวปลอมมีมากขึ้นกว่าเดิม

    ความเป็นส่วนตัว ความปลอดภัย และการแฮ็ค

    ความเป็นส่วนตัวและความปลอดภัยยังเป็นข้อกังวลอย่างมากเมื่อพูดถึงความเสี่ยงของ AI โดยมีหลายประเทศที่ห้ามใช้ ChatGPT ของ OpenAI แล้ว อิตาลีสั่งแบนโมเดลดังกล่าวเนื่องจากปัญหาความเป็นส่วนตัว โดยเชื่อว่าไม่เป็นไปตามกฎระเบียบคุ้มครองข้อมูลทั่วไปของสหภาพยุโรป (GDPR) ขณะที่รัฐบาลจีน เกาหลีเหนือ และรัสเซียสั่งแบนเนื่องจากเกรงว่าจะเผยแพร่ข้อมูลที่ผิด

    เหตุใดเราจึงกังวลเกี่ยวกับความเป็นส่วนตัวเมื่อพูดถึง AI แอพและระบบ AI รวบรวมข้อมูลจำนวนมากเพื่อเรียนรู้และคาดการณ์ แต่ข้อมูลนี้ถูกจัดเก็บและประมวลผลอย่างไร? มีความเสี่ยงอย่างแท้จริงที่จะเกิดการละเมิดข้อมูล การแฮ็ก และข้อมูลตกไปอยู่ในมือผู้ไม่หวังดี

    ไม่ใช่แค่ข้อมูลส่วนบุคคลของเราเท่านั้นที่มีความเสี่ยงเช่นกัน การแฮก AI เป็นความเสี่ยงอย่างแท้จริง — มันยังไม่เกิดขึ้น แต่หากผู้ไม่หวังดีสามารถแฮกเข้าสู่ระบบ AI ได้ สิ่งนี้อาจส่งผลร้ายแรง ตัวอย่างเช่น แฮ็กเกอร์สามารถควบคุมยานพาหนะไร้คนขับ แฮ็กระบบรักษาความปลอดภัยของ AI เพื่อเข้าสู่สถานที่ที่มีความปลอดภัยสูง และแม้แต่แฮ็กระบบอาวุธที่มีการรักษาความปลอดภัยด้วย AI

    ผู้เชี่ยวชาญจากหน่วยงานโครงการวิจัยขั้นสูงด้านกลาโหมของกระทรวงกลาโหมสหรัฐฯ (DARPA) ตระหนักถึงความเสี่ยงเหล่านี้และกำลังดำเนินการในโครงการรับประกันความแข็งแกร่งของ AI ต่อการหลอกลวง (GARD) ของ DARPA เพื่อจัดการกับปัญหาตั้งแต่เริ่มต้น เป้าหมายของโครงการคือเพื่อให้แน่ใจว่าการต่อต้านการแฮ็กและการปลอมแปลงถูกสร้างขึ้นในอัลกอริทึมและ AI

    การละเมิดลิขสิทธิ์

    อันตรายอีกอย่างหนึ่งของ AI คือการละเมิดลิขสิทธิ์ นี่อาจฟังดูไม่ร้ายแรงเท่ากับอันตรายอื่นๆ ที่เรากล่าวถึง แต่การพัฒนาโมเดล AI เช่น GPT-4 ทำให้ทุกคนมีความเสี่ยงเพิ่มขึ้นในการละเมิดลิขสิทธิ์

    ทุกครั้งที่คุณขอให้ ChatGPT สร้างบางสิ่งให้กับคุณ ไม่ว่าจะเป็นบล็อกโพสต์เกี่ยวกับการท่องเที่ยวหรือชื่อใหม่สำหรับธุรกิจของคุณ คุณกำลังป้อนข้อมูลนั้นซึ่งจะใช้ตอบคำถามในอนาคต ข้อมูลที่ส่งกลับมาให้คุณอาจละเมิดลิขสิทธิ์ของผู้อื่น ซึ่งเป็นเหตุผลว่าทำไมการใช้เครื่องตรวจจับการลอกเลียนแบบและแก้ไขเนื้อหาที่สร้างโดย AI ก่อนเผยแพร่จึงสำคัญมาก

    อคติทางสังคมและข้อมูล

    AI ไม่ใช่มนุษย์ ดังนั้นมันจึงไม่สามารถมีอคติได้ จริงไหม? ผิด. ผู้คนและข้อมูลถูกใช้เพื่อฝึกโมเดล AI และแชทบอท ซึ่งหมายความว่าข้อมูลหรือบุคลิกที่มีอคติจะส่งผลให้ AI มีอคติ มีอคติสองประเภทใน AI: อคติทางสังคมและอคติข้อมูล

    ด้วยอคติที่มีอยู่มากมายในสังคมทุกวัน จะเกิดอะไรขึ้นเมื่ออคติเหล่านี้กลายเป็นส่วนหนึ่งของ AI? โปรแกรมเมอร์ที่รับผิดชอบในการฝึกอบรมแบบจำลองอาจมีความคาดหวังที่ลำเอียง ซึ่งจะทำให้พวกเขาเข้าสู่ระบบ AI

    หรือข้อมูลที่ใช้ในการฝึกและพัฒนา AI อาจไม่ถูกต้อง มีอคติ หรือรวบรวมโดยไม่สุจริต สิ่งนี้นำไปสู่อคติทางข้อมูล ซึ่งอาจเป็นอันตรายพอๆ กับอคติทางสังคม ตัวอย่างเช่น หากระบบสำหรับการจดจำใบหน้าได้รับการฝึกฝนโดยใช้ใบหน้าของคนผิวขาวเป็นหลัก ก็อาจมีปัญหาในการจดจำใบหน้าจากชนกลุ่มน้อย ทำให้การกดขี่ดำเนินต่อไป

    หุ่นยนต์แย่งงานของเรา

    การพัฒนาแชทบ็อตเช่น ChatGPT และ Google Bard ได้ทำให้เกิดความกังวลใหม่เกี่ยวกับ AI: ความเสี่ยงที่หุ่นยนต์จะมาแย่งงานของเรา เราเห็นนักเขียนในอุตสาหกรรมเทคโนโลยีถูกแทนที่ด้วย AI แล้ว นักพัฒนาซอฟต์แวร์กังวลว่าพวกเขาจะตกงานเพราะบอท และบริษัทต่างๆ ที่ใช้ ChatGPT เพื่อสร้างเนื้อหาบล็อกและเนื้อหาโซเชียลมีเดียแทนที่จะจ้างนักเขียนที่เป็นมนุษย์

    จากรายงาน The Future of Jobs Report 2020 ของ World Economic Forum คาดว่า AI จะเข้ามาแทนที่งาน 85 ล้านตำแหน่งทั่วโลกภายในปี 2025 แม้ว่า AI จะไม่ได้แทนที่นักเขียน แต่หลายคนก็ใช้ AI เป็นเครื่องมืออยู่แล้ว ผู้ที่อยู่ในงานที่มีความเสี่ยงที่จะถูกแทนที่ด้วย AI อาจต้องปรับตัวเพื่อความอยู่รอด ตัวอย่างเช่น นักเขียนอาจกลายเป็นวิศวกรพร้อมรับคำของ AI ทำให้พวกเขาทำงานกับเครื่องมือเช่น ChatGPT สำหรับการสร้างเนื้อหาแทนที่จะถูกแทนที่ด้วยโมเดลเหล่านี้

    ความเสี่ยงด้าน AI ที่อาจเกิดขึ้นในอนาคต

    สิ่งเหล่านี้ล้วนเป็นความเสี่ยงที่เกิดขึ้นทันทีหรือเกิดขึ้นทันที แต่สิ่งที่เกี่ยวกับอันตรายที่อาจเกิดขึ้นจาก AI ที่มีโอกาสน้อยแต่ยังคงเป็นไปได้ในอนาคต สิ่งเหล่านี้รวมถึงสิ่งต่างๆ เช่น AI ที่ถูกตั้งโปรแกรมให้ทำร้ายมนุษย์ เช่น อาวุธอัตโนมัติที่ถูกฝึกมาเพื่อสังหารในระหว่างสงคราม

    จากนั้นจึงมีความเสี่ยงที่ AI อาจมุ่งความสนใจไปที่เป้าหมายที่ตั้งโปรแกรมไว้อย่างเดียว พัฒนาพฤติกรรมการทำลายล้างในขณะที่พยายามบรรลุเป้าหมายนั้นด้วยค่าใช้จ่ายทั้งหมด แม้ว่ามนุษย์จะพยายามหยุดยั้งสิ่งนี้ไม่ให้เกิดขึ้นก็ตาม

    Skynet สอนเราว่าจะเกิดอะไรขึ้นเมื่อ AI มีความรู้สึก อย่างไรก็ตาม แม้ว่า Blake Lemoine วิศวกรของ Google อาจพยายามโน้มน้าวทุกคนว่า LaMDA ซึ่งเป็นโปรแกรมสร้างแชทบ็อตอัจฉริยะของ Google นั้นมีความรู้สึกย้อนกลับไปในเดือนมิถุนายน 2022 โชคดีที่ยังไม่มีหลักฐานใดๆ ในปัจจุบันที่บ่งชี้ว่าเป็นเรื่องจริง

    ความท้าทายของการควบคุม AI

    ในวันจันทร์ที่ 15 พฤษภาคม 2020 Sam Altman CEO ของ OpenAI เข้าร่วมการพิจารณาคดีของรัฐสภาครั้งแรกเกี่ยวกับปัญญาประดิษฐ์ โดยเตือนว่า "หากเทคโนโลยีนี้ผิดพลาด OpenAI CO แสดงอย่างชัดเจนว่าเขาชอบกฎระเบียบและนำแนวคิดมากมายของเขาเองมาสู่การพิจารณาคดี ปัญหาคือ AI กำลังพัฒนาอย่างรวดเร็ว จึงยากที่จะรู้ว่าจะเริ่มต้นควบคุมจากที่ใด

    สภาคองเกรสต้องการหลีกเลี่ยงการทำผิดพลาดแบบเดียวกับที่เกิดขึ้นในตอนต้นของยุคโซเชียลมีเดีย และทีมผู้เชี่ยวชาญร่วมกับผู้นำเสียงข้างมากในวุฒิสภา ชัค ชูเมอร์ กำลังทำงานเกี่ยวกับกฎระเบียบที่กำหนดให้บริษัทต่าง ๆ ต้องเปิดเผยว่าพวกเขาใช้แหล่งข้อมูลใดในการฝึกอบรมแบบจำลองและใคร ฝึกฝนพวกเขา อาจต้องใช้เวลาสักระยะหนึ่งก่อนที่การควบคุมของ AI จะมีความชัดเจน และไม่ต้องสงสัยเลยว่าจะมีการตอบโต้กลับจากบริษัท AI

    การคุกคามของปัญญาประดิษฐ์ทั่วไป

    นอกจากนี้ยังมีความเสี่ยงในการสร้างปัญญาประดิษฐ์ทั่วไป (AGI) ที่สามารถทำงานทุกอย่างที่มนุษย์ (หรือสัตว์) สามารถทำได้ มักถูกกล่าวถึงในภาพยนตร์ไซไฟ เราอาจยังห่างไกลจากการสร้างดังกล่าวหลายสิบปี แต่ถ้าและเมื่อเราสร้าง AGI มันอาจเป็นภัยคุกคามต่อมนุษยชาติ

    บุคคลสาธารณะหลายคนสนับสนุนความเชื่อที่ว่า AI เป็นภัยคุกคามที่มีอยู่ต่อมนุษย์ รวมถึง Stephen Hawking, Bill Gates และแม้แต่ Eric Schmidt อดีต CEO ของ Google ที่กล่าวว่า “ปัญญาประดิษฐ์อาจก่อให้เกิดความเสี่ยงที่มีอยู่จริง และรัฐบาลจำเป็นต้องรู้วิธีที่จะทำให้แน่ใจ เทคโนโลยีไม่ได้ถูกใช้ในทางที่ผิดโดยคนชั่ว”

    ปัญญาประดิษฐ์เป็นอันตรายหรือไม่ และความเสี่ยงมีมากกว่าประโยชน์ของมันหรือไม่ คณะลูกขุนยังคงตัดสินอยู่ แต่เราได้เห็นหลักฐานของความเสี่ยงบางอย่างรอบตัวเราแล้วในตอนนี้ อันตรายอื่น ๆ มีโอกาสน้อยที่จะบรรลุผลในเร็ว ๆ นี้ ถ้าเป็นเช่นนั้น สิ่งหนึ่งที่ชัดเจนคือ: ไม่ควรประเมินอันตรายของ AI ต่ำเกินไป สิ่งสำคัญที่สุดคือเราต้องมั่นใจว่า AI ได้รับการควบคุมอย่างเหมาะสมตั้งแต่เริ่มต้น เพื่อลดและหวังว่าจะลดความเสี่ยงใดๆ ในอนาคต