ความท้าทายด้าน AI ในปี 2024: ข้อมูลเชิงลึกจาก 3 นักวิจัย AI ชั้นนำ

เผยแพร่แล้ว: 2024-01-13

ปี 2023 เป็นจุดเปลี่ยนของวิวัฒนาการปัญญาประดิษฐ์และบทบาทของปัญญาประดิษฐ์ในสังคม

ปีนี้เป็นปีแห่งการกำเนิดของ AI เจนเนอเรชั่น ซึ่งย้ายเทคโนโลยีจากเงามืดมาสู่เวทีกลางในจินตนาการของสาธารณชน นอกจากนี้ยังเห็นละครในห้องประชุมในสตาร์ทอัพ AI ครองวงจรข่าวเป็นเวลาหลายวัน

และเห็นว่าฝ่ายบริหารของ Biden ออกคำสั่งผู้บริหาร และสหภาพยุโรปผ่านกฎหมายที่มุ่งควบคุม AI การเคลื่อนไหวที่อาจอธิบายได้ดีที่สุดว่าเป็นความพยายามที่จะบังเหียนม้าที่ควบม้าไปแล้ว

เราได้รวบรวมคณะนักวิชาการด้าน AI เพื่อมองไปข้างหน้าถึงปี 2024 และอธิบายถึงปัญหาที่นักพัฒนา AI ผู้กำกับดูแล และผู้คนในชีวิตประจำวันมักจะเผชิญ พร้อมทั้งให้ความหวังและข้อเสนอแนะ


Casey Fiesler รองศาสตราจารย์ด้านวิทยาการสารสนเทศ มหาวิทยาลัยโคโลราโด โบลเดอร์

ปี 2023 เป็นปีแห่ง AI กระแสฮือฮา ไม่ว่าการเล่าเรื่องจะเป็นว่า AI จะช่วยโลกหรือทำลายมัน แต่ก็มักจะรู้สึกราวกับว่าการมองเห็นว่า AI อาจจะเป็นอย่างไรในสักวันหนึ่งนั้นครอบงำความเป็นจริงในปัจจุบัน

แม้ว่าฉันคิดว่าการคาดการณ์ถึงอันตรายในอนาคตเป็นองค์ประกอบสำคัญในการเอาชนะหนี้ด้านจริยธรรมในเทคโนโลยี แต่การถูกครอบงำด้วยการโฆษณาเกินจริงนั้นเสี่ยงต่อการสร้างวิสัยทัศน์ของ AI ที่ดูเหมือนเป็นเวทมนตร์มากกว่าเทคโนโลยีที่ยังคงสามารถกำหนดรูปแบบได้ด้วยตัวเลือกที่ชัดเจน

แต่การควบคุมต้องอาศัยความเข้าใจในเทคโนโลยีดังกล่าวมากขึ้น

หนึ่งในข้อถกเถียงด้าน AI ที่สำคัญในปี 2023 คือเรื่องเกี่ยวกับบทบาทของ ChatGPT และแชทบอทที่คล้ายกันในด้านการศึกษา

ในครั้งนี้ของปีที่แล้ว พาดหัวข่าวที่เกี่ยวข้องส่วนใหญ่มุ่งเน้นไปที่วิธีที่นักเรียนอาจใช้ข้อมูลดังกล่าวเพื่อโกง และวิธีที่นักการศึกษาพยายามขัดขวางไม่ให้พวกเขาทำเช่นนั้น ในรูปแบบที่มักส่งผลเสียมากกว่าผลดี

อย่างไรก็ตาม ปีที่ผ่านมา มีการตระหนักกันว่าความล้มเหลวในการสอนนักเรียนเกี่ยวกับ AI อาจทำให้พวกเขาเสียเปรียบ และโรงเรียนหลายแห่งก็ยกเลิกการสั่งห้าม

ฉันไม่คิดว่าเราควรจะปรับปรุงการศึกษาเพื่อให้ AI เป็นศูนย์กลางของทุกสิ่ง แต่ถ้านักเรียนไม่เรียนรู้ว่า AI ทำงานอย่างไร พวกเขาจะไม่เข้าใจข้อจำกัดของมัน และเหตุนี้จึงมีประโยชน์และเหมาะสมในการใช้งานและ มันไม่ใช่ยังไง

นี่ไม่ใช่แค่เรื่องจริงสำหรับนักเรียนเท่านั้น ยิ่งผู้คนเข้าใจวิธีการทำงานของ AI มากเท่าไร พวกเขาก็ยิ่งมีอำนาจในการใช้และวิจารณ์มันได้มากขึ้นเท่านั้น

ดังนั้น การคาดการณ์ของฉันหรือบางทีอาจเป็นความหวังของฉันสำหรับปี 2024 ก็คือจะมีการผลักดันการเรียนรู้ครั้งใหญ่

ในปี 1966 Joseph Weizenbaum ผู้สร้างแชทบอทของ ELIZA เขียนว่าเครื่องจักร "มักจะเพียงพอที่จะทำให้ตาพร่าแม้แต่ผู้สังเกตการณ์ที่มีประสบการณ์มากที่สุด" แต่เมื่อ "การทำงานภายในของพวกเขาได้รับการอธิบายในภาษาที่เข้าใจง่ายเพียงพอที่จะทำให้เกิดความเข้าใจ เวทมนตร์ของมันก็พังทลายลง ”

ความท้าทายของปัญญาประดิษฐ์เชิงสร้างสรรค์ก็คือ ตรงกันข้ามกับการจับคู่รูปแบบและวิธีการแทนที่ขั้นพื้นฐานของ ELIZA การค้นหาภาษาที่ "เรียบง่ายเพียงพอ" เพื่อทำให้เวทมนตร์ของ AI พังทลายนั้นยากกว่ามาก

ฉันคิดว่ามันเป็นไปได้ที่จะทำให้สิ่งนี้เกิดขึ้น ฉันหวังว่ามหาวิทยาลัยที่เร่งรีบในการจ้างผู้เชี่ยวชาญด้าน AI ทางเทคนิคมากขึ้น จะพยายามจ้างนักจริยธรรมด้าน AI มากพอๆ กัน ฉันหวังว่าสื่อต่างๆ จะช่วยขจัดกระแสเกินจริงได้ ฉันหวังว่าทุกคนจะสะท้อนถึงการใช้เทคโนโลยีนี้และผลที่ตามมาของพวกเขาเอง

และฉันหวังว่าบริษัทเทคโนโลยีจะรับฟังคำวิพากษ์วิจารณ์อย่างรอบรู้เพื่อพิจารณาว่าทางเลือกใดที่ยังคงกำหนดอนาคต ความท้าทายหลายประการในปีหน้าเกี่ยวข้องกับปัญหาของ AI ที่สังคมกำลังเผชิญอยู่


Kentaro Toyama ศาสตราจารย์ด้านข้อมูลชุมชน มหาวิทยาลัยมิชิแกน

ในปี 1970 Marvin Minsky ผู้บุกเบิก AI และผู้ไม่เชื่อเรื่องโครงข่ายประสาทเทียม กล่าวกับนิตยสาร Life ว่า “ในอีกสามถึงแปดปีข้างหน้า เราจะมีเครื่องจักรที่มีความฉลาดโดยทั่วไปของมนุษย์โดยเฉลี่ย”

ด้วยความแปลกประหลาด ทันทีที่ปัญญาประดิษฐ์ตรงกันและเริ่มเกินสติปัญญาของมนุษย์ ซึ่งยังไม่ถึงจุดนี้ สามารถพูดได้อย่างปลอดภัยว่า Minsky ลดลงอย่างน้อย 10 เท่า การคาดการณ์เกี่ยวกับ AI ถือเป็นเรื่องอันตราย

อย่างไรก็ตาม การคาดการณ์ในช่วง 1 ปีข้างหน้าดูเหมือนจะไม่เสี่ยงนัก AI คาดหวังอะไรได้บ้างในปี 2024?

ก่อนอื่น การแข่งขันได้เริ่มต้นขึ้นแล้ว! ความก้าวหน้าใน AI นั้นมั่นคงนับตั้งแต่สมัยที่ Minsky รุ่งเรือง แต่การเปิดตัว ChatGPT ต่อสาธารณะในปี 2022 ได้เริ่มต้นการแข่งขันเต็มรูปแบบเพื่อผลกำไร ความรุ่งโรจน์ และอำนาจสูงสุดระดับโลก

คาดหวัง AI ที่ทรงพลังยิ่งขึ้น นอกเหนือจากแอปพลิเคชัน AI ใหม่มากมาย

คำถามทางเทคนิคที่สำคัญคือวิศวกร AI จะจัดการกับการเรียนรู้เชิงลึกของจุดอ่อนในปัจจุบันได้เร็วแค่ไหนและละเอียดเพียงใด สิ่งที่อาจเรียกว่าการใช้เหตุผลยากทั่วไป เช่น ตรรกะแบบนิรนัย

การปรับแต่งอัลกอริธึมโครงข่ายประสาทเทียมอย่างรวดเร็วจะเพียงพอหรือไม่ หรือจะต้องใช้แนวทางที่แตกต่างโดยพื้นฐาน ตามที่นักประสาทวิทยา Gary Marcus แนะนำ

กองทัพนักวิทยาศาสตร์ AI กำลังแก้ไขปัญหานี้ ฉันจึงคาดว่าจะมีความคืบหน้าในปี 2567

ในขณะเดียวกันแอปพลิเคชัน AI ใหม่ก็มีแนวโน้มที่จะส่งผลให้เกิดปัญหาใหม่เช่นกัน ในไม่ช้าคุณอาจเริ่มได้ยินเกี่ยวกับแชทบอท AI และผู้ช่วยที่พูดคุยกัน โดยมีการสนทนาทั้งหมดในนามของคุณแต่ลับหลังคุณ

บางส่วนจะยุ่งเหยิง ไม่ว่าจะเป็นแบบตลก โศกนาฏกรรม หรือทั้งสองอย่าง

Deepfakes รูปภาพและวิดีโอที่สร้างโดย AI ซึ่งยากต่อการตรวจจับมีแนวโน้มที่จะอาละวาดแม้ว่าจะมีกฎระเบียบใหม่ก็ตาม ซึ่งก่อให้เกิดอันตรายที่ไม่ปลอดภัยต่อบุคคลและระบอบประชาธิปไตย 1. ทุกที่ และมีแนวโน้มที่จะเกิดภัยพิบัติ AI ประเภทใหม่ที่ไม่เคยเกิดขึ้นมาก่อนเมื่อห้าปีก่อน

เมื่อพูดถึงปัญหา ผู้คนที่ส่งเสียงเตือนที่ดังที่สุดเกี่ยวกับ AI เช่น Elon Musk และ Sam Altman ดูเหมือนจะไม่สามารถหยุดตัวเองจากการสร้าง AI ที่ทรงพลังยิ่งกว่านี้ได้

ฉันคาดหวังให้พวกเขาทำสิ่งเดียวกันมากขึ้นต่อไป พวกเขาเหมือนคนวางเพลิงที่เรียกไฟมาจุดไฟเผาตัวเอง และขอร้องให้เจ้าหน้าที่ควบคุมพวกเขาไว้

และสิ่งที่ฉันหวังมากที่สุดในปี 2024 แม้ว่าจะดูเหมือนมาช้าก็ตาม ก็คือกฎระเบียบด้าน AI ที่แข็งแกร่งขึ้นในระดับชาติและระดับนานาชาติ


อัญชนา ซูซาร์ลา ศาสตราจารย์ด้านระบบสารสนเทศ มหาวิทยาลัยมิชิแกนสเตต

ในปีนี้นับตั้งแต่เปิดตัว ChatGPT การพัฒนาโมเดล AI เชิงสร้างสรรค์ยังคงดำเนินต่อไปอย่างรวดเร็ว

ตรงกันข้ามกับ ChatGPT เมื่อปีที่แล้วซึ่งรับข้อความแจ้งเป็นอินพุตและสร้างเอาต์พุตข้อความ โมเดล AI เจนเนอเรทีฟคลาสใหม่ได้รับการฝึกฝนให้เป็นหลายรูปแบบ ซึ่งหมายความว่าข้อมูลที่ใช้ในการฝึกอบรมไม่ได้มาจากแหล่งข้อความเท่านั้น เช่น Wikipedia และ Reddit รวมถึงจากวิดีโอบน YouTube เพลงใน Spotify และข้อมูลเสียงและภาพอื่นๆ ด้วย

ด้วยโมเดลภาษาขนาดใหญ่หลายรูปแบบ (LLM) รุ่นใหม่ที่ขับเคลื่อนแอปพลิเคชันเหล่านี้ คุณสามารถใช้การป้อนข้อความเพื่อสร้างไม่เพียงแต่รูปภาพและข้อความเท่านั้น แต่ยังรวมถึงเสียงและวิดีโอด้วย

บริษัทต่างๆ กำลังเร่งพัฒนา LLM ที่สามารถนำไปใช้กับฮาร์ดแวร์ที่หลากหลายและในแอปพลิเคชันที่หลากหลาย รวมถึงการเรียกใช้ LLM บนสมาร์ทโฟนของคุณ

การเกิดขึ้นของ LLM แบบน้ำหนักเบาและ LLM แบบโอเพ่นซอร์สเหล่านี้สามารถนำไปสู่โลกแห่งตัวแทน AI ที่เป็นอิสระ ซึ่งเป็นโลกที่สังคมไม่จำเป็นต้องเตรียมพร้อม

ความสามารถด้าน AI ขั้นสูงเหล่านี้มอบพลังการเปลี่ยนแปลงอันมหาศาลในการใช้งานตั้งแต่ธุรกิจไปจนถึงการแพทย์เฉพาะทาง

ความกังวลหลักของฉันคือความสามารถขั้นสูงดังกล่าวจะก่อให้เกิดความท้าทายใหม่ในการแยกความแตกต่างระหว่างเนื้อหาที่มนุษย์สร้างขึ้นและเนื้อหาที่สร้างโดย AI รวมถึงก่อให้เกิดความเสียหายต่ออัลกอริธึมประเภทใหม่

เนื้อหาสังเคราะห์ที่หลั่งไหลเข้ามาอย่างล้นหลามที่ผลิตโดย generative AI อาจเปิดโลกที่บุคคลและสถาบันที่เป็นอันตรายสามารถสร้างอัตลักษณ์สังเคราะห์และเรียบเรียงข้อมูลที่ผิดในวงกว้างได้

เนื้อหาที่สร้างโดย AI จำนวนมากที่เตรียมไว้เพื่อใช้ประโยชน์จากตัวกรองอัลกอริธึมและเครื่องมือแนะนำในไม่ช้าอาจเอาชนะฟังก์ชันที่สำคัญเช่นการตรวจสอบข้อมูล ความรู้ข้อมูล และบังเอิญจากเครื่องมือค้นหา แพลตฟอร์มโซเชียลมีเดีย และบริการดิจิทัล

คณะกรรมาธิการการค้าของรัฐบาลกลางได้เตือนเกี่ยวกับการฉ้อโกง การหลอกลวง การละเมิดความเป็นส่วนตัว และการปฏิบัติที่ไม่เป็นธรรมอื่น ๆ ที่เกิดขึ้นจากความง่ายดายในการสร้างเนื้อหาที่ได้รับความช่วยเหลือจาก AI

แม้ว่าแพลตฟอร์มดิจิทัล เช่น YouTube ได้กำหนดแนวทางนโยบายสำหรับการเปิดเผยเนื้อหาที่สร้างโดย AI แต่ก็จำเป็นต้องมีการตรวจสอบอันตรายจากอัลกอริทึมจากหน่วยงานต่างๆ เช่น FTC และผู้ร่างกฎหมายที่ทำงานเกี่ยวกับการคุ้มครองความเป็นส่วนตัว เช่น พระราชบัญญัติความเป็นส่วนตัวและการคุ้มครองข้อมูลของสหรัฐอเมริกา

ร่างกฎหมายใหม่ของทั้งสองฝ่ายที่นำมาใช้ในสภาคองเกรสมีจุดมุ่งหมายเพื่อประมวลความรู้ด้านอัลกอริทึมให้เป็นส่วนสำคัญของความรู้ด้านดิจิทัล

เนื่องจาก AI เกี่ยวพันกับทุกสิ่งที่ผู้คนทำมากขึ้น จึงชัดเจนว่าถึงเวลาแล้วที่จะมุ่งเน้นไปที่ไม่ใช่เพียงอัลกอริธึมในฐานะชิ้นส่วนของเทคโนโลยี แต่ต้องพิจารณาบริบทที่อัลกอริธึมทำงานใน: ผู้คน กระบวนการ และสังคม

หมายเหตุบรรณาธิการ: บทความนี้เขียนโดย Anjana Susarla ศาสตราจารย์ด้านระบบสารสนเทศ มหาวิทยาลัยรัฐมิชิแกน Casey Fiesler รองศาสตราจารย์ด้านวิทยาการสารสนเทศ มหาวิทยาลัยโคโลราโด โบลเดอร์ Kentaro Toyama ศาสตราจารย์ด้านข้อมูลชุมชน มหาวิทยาลัยมิชิแกน และเผยแพร่ซ้ำจาก The Conversation ภายใต้ใบอนุญาตครีเอทีฟคอมมอนส์ อ่านบทความต้นฉบับ

ติดตามเราบน Flipboard, Google News หรือ Apple News