จริยธรรม AI: หลักการ แนวทาง และปัญหาที่จะหารือ

เผยแพร่แล้ว: 2023-07-20

ระบบปัญญาประดิษฐ์และแมชชีนเลิร์นนิงได้รับการพัฒนามานานหลายทศวรรษ อย่างไรก็ตาม เครื่องมือ generative AI ที่เปิดให้ใช้งานฟรีเมื่อเร็วๆ นี้ เช่น ChatGPT และ Bard ได้เน้นย้ำถึงความจำเป็นของกรอบจริยธรรมที่ซับซ้อนเพื่อควบคุมทั้งการวิจัยและการประยุกต์ใช้

มีข้อสงสัยด้านจริยธรรมหลายประการที่ธุรกิจ สถาบันการศึกษา และบริษัทเทคโนโลยีต้องเผชิญในบริบทของการวิจัยและพัฒนา AI ซึ่งหลายข้อยังคงไม่ได้รับคำตอบ นอกจากนี้ การใช้งานและการประยุกต์ใช้ระบบ AI อย่างแพร่หลายโดยประชาชนทั่วไปยังทำให้เกิดประเด็นเพิ่มเติมที่ต้องให้ความสนใจด้านจริยธรรม

วิธีที่เราลงเอยด้วยการตอบคำถามดังกล่าว และท้ายที่สุด การควบคุม เครื่องมือ AI จะส่งผลอย่างมากต่อมนุษยชาติ ยิ่งไปกว่านั้น ปัญหาใหม่ๆ จะเกิดขึ้นเมื่อระบบ AI ผสานรวมเข้ากับชีวิต บ้าน และที่ทำงานของเรามากขึ้น ซึ่งเป็นเหตุผลว่าทำไมจริยธรรมของ AI จึงเป็นระเบียบวินัยที่สำคัญยิ่ง ในคู่มือนี้ เราครอบคลุม:

  • จริยธรรม AI คืออะไร?
  • กรอบจริยธรรมของ AI ที่มีอยู่
  • เหตุใดจริยธรรมของ AI จึงต้องสร้างระเบียบข้อบังคับของ AI
  • เหตุใดจริยธรรมของ AI จึงมีความสำคัญ
  • จริยธรรมของ AI เผชิญปัญหาอะไรบ้าง
  • Alter-Ego ของ Bing, The 'Waluigi Effect' และ Programming Morality
  • AI และความรู้สึก: เครื่องจักรมีความรู้สึกได้หรือไม่?
  • จริยธรรมทางธุรกิจของ AI และการใช้ AI ในที่ทำงาน

จริยธรรม AI คืออะไร?

จริยธรรมของ AI เป็นคำที่ใช้เพื่อกำหนดชุดแนวทาง ข้อควรพิจารณา และหลักการที่จัดทำขึ้นเพื่อแจ้งการวิจัย การพัฒนา และการใช้งานระบบปัญญาประดิษฐ์อย่างมีความรับผิดชอบ

ในเชิงวิชาการ จริยธรรมของ AI เป็นสาขาวิชาที่ตรวจสอบประเด็นทางศีลธรรมและปรัชญาที่เกิดขึ้นจากการใช้เทคโนโลยีปัญญาประดิษฐ์อย่างต่อเนื่องในสังคม รวมถึงวิธีที่เราควรปฏิบัติและสิ่งที่เราควรเลือก

กรอบจริยธรรมของ AI

จากการวิจัยทางวิชาการ บริษัทด้านเทคโนโลยีและหน่วยงานของรัฐได้เริ่มสร้างกรอบการทำงานสำหรับวิธีการที่เราควรใช้และจัดการกับระบบปัญญาประดิษฐ์โดยทั่วไปแล้ว ดังที่คุณจะเห็น มีการทับซ้อนกันเล็กน้อยระหว่างเฟรมเวิร์กที่กล่าวถึงด้านล่าง

กฎหมายว่าด้วยสิทธิของ AI คืออะไร?

ในเดือนตุลาคม พ.ศ. 2565 ทำเนียบขาวได้เผยแพร่พิมพ์เขียวที่ไม่มีผลผูกพันสำหรับกฎหมายว่าด้วยสิทธิของ AI ซึ่งออกแบบมาเพื่อแนะนำการใช้ AI อย่างมีความรับผิดชอบในสหรัฐอเมริกา ในพิมพ์เขียว ทำเนียบขาวได้สรุปหลักการสำคัญ 5 ประการสำหรับการพัฒนา AI:

  • ระบบที่ปลอดภัยและมีประสิทธิภาพ: พลเมืองควรได้รับการปกป้องจาก “ระบบ AI ที่ไม่ปลอดภัยหรือไม่มีประสิทธิภาพ” ผ่าน “การทดสอบก่อนการใช้งานและการลดความเสี่ยง”
  • การไม่เลือกปฏิบัติ: พลเมือง “ไม่ควรเผชิญกับการเลือกปฏิบัติโดยอัลกอริทึมและระบบควรใช้และออกแบบอย่างเท่าเทียมกัน”
  • การปกป้องข้อมูลในตัว: พลเมืองควรเป็นอิสระจาก “แนวทางปฏิบัติด้านข้อมูลในทางที่ผิดผ่านการป้องกันในตัว และคุณควรมีอำนาจเหนือวิธีการใช้ข้อมูลเกี่ยวกับตัวคุณ”
  • ความรู้และความโปร่งใส: “คุณควรรู้ว่าระบบอัตโนมัติกำลังถูกใช้อยู่ และเข้าใจว่าระบบดังกล่าวมีส่วนทำให้เกิดผลลัพธ์ที่ส่งผลกระทบต่อคุณอย่างไรและทำไม”
  • การเลือกไม่ใช้: พลเมืองควรมีความสามารถในการ "เลือกไม่ใช้" และสามารถเข้าถึงบุคคลที่ "สามารถพิจารณาและแก้ไขปัญหาได้อย่างรวดเร็ว" ที่พวกเขาประสบ

หลักจริยธรรมด้าน AI 6 ข้อของ Microsoft คืออะไร

นอกจากทำเนียบขาวแล้ว Microsoft ยังได้เปิดตัวหลักการสำคัญ 6 ประการเพื่อเน้นย้ำถึงการใช้ AI อย่างมีความรับผิดชอบ พวกเขาจัดประเภทเป็น "จริยธรรม" (1, 2, & 3) หรือ "อธิบายได้" (4 & 5)

  • ความเป็นธรรม: ระบบต้องไม่เลือกปฏิบัติ
  • ความโปร่งใส: ควรมีข้อมูลเชิงลึกเกี่ยวกับการฝึกอบรมและการพัฒนา
  • ความเป็นส่วนตัวและความปลอดภัย: ภาระผูกพันในการปกป้องข้อมูลผู้ใช้
  • ความครอบคลุม: AI ควรคำนึงถึง “เผ่าพันธุ์และประสบการณ์ของมนุษย์ทั้งหมด”
  • ความรับผิดชอบ: นักพัฒนาจะต้องรับผิดชอบต่อผลลัพธ์

หลักการข้อที่หก – ซึ่งคร่อมทั้งสองด้านของไบนารี “จริยธรรม” และ “อธิบายได้” – คือ “ความน่าเชื่อถือและความปลอดภัย” Microsoft กล่าวว่าควรสร้างระบบ AI ให้มีความยืดหยุ่นและทนทานต่อการจัดการ

หลักการสำหรับการใช้ AI อย่างมีจริยธรรมในระบบของสหประชาชาติ

องค์การสหประชาชาติมีหลักการ 10 ข้อสำหรับควบคุมการใช้ AI อย่างมีจริยธรรมภายในระบบระหว่างรัฐบาลของตน ระบบ AI ควร:

  • ไม่ทำร้าย/ปกป้องและส่งเสริมสิทธิมนุษยชน
  • มีจุดมุ่งหมาย ความจำเป็น และสัดส่วนที่ชัดเจน
  • จัดลำดับความสำคัญด้านความปลอดภัยและการรักษาความปลอดภัยโดยมีการระบุความเสี่ยง
  • ตั้งอยู่บนความเป็นธรรมและไม่เลือกปฏิบัติ
  • เคารพในสิทธิความเป็นส่วนตัวของบุคคล
  • ยั่งยืน (ต่อสังคมและสิ่งแวดล้อม)
  • รับประกันการกำกับดูแลของมนุษย์และไม่กระทบต่อความเป็นอิสระ
  • มีความโปร่งใสและอธิบายได้
  • รับผิดชอบและรับผิดชอบต่อหน่วยงานที่เหมาะสม
  • มีส่วนร่วมและมีส่วนร่วม

อย่างที่คุณทราบ ทั้งสามกรอบครอบคลุมพื้นฐานที่คล้ายคลึงกันและมุ่งเน้นไปที่ความยุติธรรม การไม่เลือกปฏิบัติ ความปลอดภัย และความมั่นคง

แต่ “ความสามารถในการอธิบาย” ก็เป็นหลักการสำคัญในกรอบจริยธรรมของ AI เช่นกัน ดังที่ UN ตั้งข้อสังเกต ความสามารถในการอธิบายทางเทคนิคมีความสำคัญอย่างยิ่งในจริยธรรมของ AI เนื่องจากต้องการให้ "การตัดสินใจที่ทำโดยระบบปัญญาประดิษฐ์สามารถเข้าใจและติดตามได้โดยมนุษย์"

“บุคคลควรได้รับการแจ้งอย่างครบถ้วนเมื่อการตัดสินใจที่อาจหรือจะส่งผลกระทบต่อสิทธิ เสรีภาพขั้นพื้นฐาน สิทธิ บริการ หรือผลประโยชน์ของพวกเขาได้รับการแจ้งโดยหรือทำขึ้นตามอัลกอริธึมปัญญาประดิษฐ์ และควรมีสิทธิ์เข้าถึงเหตุผลและตรรกะเบื้องหลังการตัดสินใจดังกล่าว” เอกสารอธิบาย

รายงาน Belmont: กรอบสำหรับการวิจัยทางจริยธรรม

รายงาน Belmont ซึ่งตีพิมพ์ในปี 1979 ได้สรุปหลักการทางจริยธรรมที่ควรปฏิบัติตามเมื่อทำการวิจัยเกี่ยวกับมนุษย์ หลักการเหล่านี้สามารถนำไปใช้เป็นกรอบทางจริยธรรมในวงกว้างสำหรับการวิจัย AI หลักการสำคัญจาก Belmont Report คือ:

ความเคารพต่อบุคคล: ผู้คนเป็นตัวแทนอิสระที่สามารถดำเนินการตามเป้าหมาย จุดมุ่งหมาย และวัตถุประสงค์ ซึ่งเป็นสิ่งที่ควรได้รับความเคารพ เว้นแต่จะก่อให้เกิดอันตรายต่อผู้อื่น ผู้ที่มีอิสระในการปกครองตนเองลดลง เนื่องจาก “ยังไม่บรรลุนิติภาวะ” หรือ “ไร้ความสามารถ” ควรได้รับการคุ้มครอง เราต้องยอมรับความเป็นเอกราชและปกป้องผู้ที่ลดน้อยลง

  • ในบริบทของ AI: ควรวางตัวเลือกส่วนบุคคลไว้ที่ศูนย์กลางของการพัฒนา AI ผู้คนไม่ควรถูกบังคับให้เข้าร่วมในสถานการณ์ที่ปัญญาประดิษฐ์กำลังถูกยกระดับหรือใช้ แม้กระทั่งกับสินค้าที่รับรู้ หากเข้าร่วมต้องระบุผลประโยชน์และความเสี่ยงให้ชัดเจน

ความเมตตากรุณา: การปฏิบัติต่อบุคคลอย่างมีจริยธรรมนั้นไม่เพียงเกี่ยวข้องกับการไม่ทำอันตราย เคารพการเลือกของพวกเขา และปกป้องพวกเขาหากพวกเขาไม่สามารถสร้างมันขึ้นมาเพื่อตัวเองได้ แต่ยังรวมถึงการใช้โอกาสเพื่อรักษาความเป็นอยู่ที่ดีของพวกเขาด้วยหากเป็นไปได้ หากเป็นไปได้ ให้เกิดประโยชน์สูงสุด และลดความเสี่ยง/อันตรายให้เหลือน้อยที่สุด

  • ในบริบทของ AI: การสร้างระบบปัญญาประดิษฐ์ที่รักษาความปลอดภัยให้กับความเป็นอยู่ที่ดีของผู้คน และได้รับการออกแบบโดยปราศจากอคติหรือกลไกที่เอื้อต่อการเลือกปฏิบัติ การสร้างผลประโยชน์อาจเกี่ยวข้องกับการเสี่ยง ซึ่งต้องลดค่าใช้จ่ายทั้งหมดและชั่งน้ำหนักกับผลลัพธ์ที่ดี

ความยุติธรรม ต้องมีระบบที่ชัดเจนในการกระจายผลประโยชน์และภาระอย่างเป็นธรรมและเท่าเทียมในการวิจัยทุกประเภท รายงานของ Belmont เสนอแนะว่าความยุติธรรมสามารถกระจายได้โดยการแบ่งปันที่เท่าเทียมกัน ความต้องการของแต่ละบุคคล ความพยายามของแต่ละคน การช่วยเหลือสังคม และความดีความชอบ เกณฑ์เหล่านี้จะนำไปใช้ในสถานการณ์ต่างๆ

  • ในบริบทของ AI: ฝ่ายหรือกลุ่มที่ได้รับจากการพัฒนาและการส่งมอบระบบปัญญาประดิษฐ์จะต้องได้รับการพิจารณาอย่างรอบคอบและยุติธรรม

ประเด็นหลักที่ใช้หลักการเหล่านี้ ได้แก่ ตามรายงาน ความยินยอมที่ได้รับการบอกกล่าว การประเมิน ผลประโยชน์และความเสี่ยง และ การเลือกอาสาสมัคร

เหตุใดจริยธรรมของ AI จึงต้องสร้างระเบียบข้อบังคับของ AI

จากความคิดเห็นในการบรรยายที่มหาวิทยาลัย Princeton โดยศาสตราจารย์ John Tasioulas แห่งมหาวิทยาลัยอ็อกซ์ฟอร์ด ผู้อำนวยการสถาบันจริยธรรมด้าน AI จริยธรรมมักถูกมองว่าเป็นสิ่งที่ขัดขวางนวัตกรรมและการพัฒนาของ AI

ในการบรรยาย เขานึกถึงคำปราศรัยของ Demis Hassabis CEO ของ DeepMind หลังจากพูดคุยเกี่ยวกับประโยชน์มากมายที่ AI จะได้รับ Tasioulas กล่าว จากนั้น Hassabis ก็บอกผู้ชมว่าเขาจะไปที่คำถามด้านจริยธรรม ราวกับว่าหัวข้อที่ว่า AI จะเป็นประโยชน์ต่อมนุษยชาติได้อย่างไรนั้นไม่ใช่คำถามด้านจริยธรรมในตัวของมันเอง

จากแนวคิดที่ว่าจริยธรรมมักถูกมองว่าเป็น "ข้อจำกัดมากมาย" นอกจากนี้ Tasioulas ยังอ้างอิงเอกสารไวท์เปเปอร์ของรัฐบาลสหราชอาณาจักรเมื่อเร็วๆ นี้ที่มีชื่อว่า "A Pro-Innovation Approach to AI Regulation" ซึ่งเน้นด้านกฎระเบียบตามชื่อที่แนะนำคือ "นวัตกรรม"

“การเติบโตทางเศรษฐกิจ” และ “นวัตกรรม” ไม่ใช่คุณค่าทางจริยธรรมที่แท้จริง สิ่งเหล่านี้สามารถนำไปสู่การเฟื่องฟูของมนุษย์ในบางบริบท แต่นี่ไม่ใช่คุณลักษณะที่จำเป็นของทั้งสองแนวคิด เราไม่สามารถกีดกันจริยธรรมและสร้างกฎระเบียบของเราแทน

Tasioulas ยังกล่าวด้วยว่าบริษัทเทคโนโลยีประสบความสำเร็จอย่างมากในการ “เลือกใช้คำว่า 'จริยธรรม' เพื่อหมายถึงประเภทของ 'รูปแบบการควบคุมตนเองที่ไม่มีผลผูกพันทางกฎหมาย'” – แต่ในความเป็นจริงแล้ว จริยธรรมจะต้องเป็นแกนหลักของกฎระเบียบใด ๆ กฎหมาย สังคม หรืออื่น ๆ มันเป็นส่วนหนึ่งของประสบการณ์ของมนุษย์ในทุก ๆ รอบ

คุณไม่สามารถสร้างระเบียบได้หากคุณยังไม่ได้ตัดสินใจว่าอะไรสำคัญหรือสำคัญต่อความเจริญของมนุษย์ ทางเลือกที่เกี่ยวข้องที่คุณทำขึ้นหลังการตัดสินใจนั้น เป็น สาระสำคัญของจริยธรรม คุณไม่สามารถแยกประโยชน์ของ AI ออกจากคำถามด้านจริยธรรมที่เกี่ยวข้อง หรือวางระเบียบข้อบังคับของคุณตามค่านิยมที่อาจเกิดขึ้นทางศีลธรรม เช่น "การเติบโตทางเศรษฐกิจ"

คุณต้องรู้ประเภทของสังคมที่คุณต้องการสร้าง – และมาตรฐานที่คุณต้องการกำหนด – ก่อนที่คุณจะเลือกเครื่องมือที่จะใช้สร้างมันขึ้นมา

เหตุใดจริยธรรมของ AI จึงมีความสำคัญ

จากแนวคิดที่ว่าจริยธรรมของ AI ควรเป็นรากฐานของกฎระเบียบของเรา จริยธรรมของ AI จึงมีความสำคัญ เนื่องจากหากไม่มีกรอบจริยธรรมในการปฏิบัติต่อการวิจัย การพัฒนา และการใช้งาน AI เราก็เสี่ยงที่จะละเมิดสิทธิ์ที่เราเห็นด้วยโดยทั่วไปว่าควรจะรับประกันต่อมนุษย์ทุกคน

ตัวอย่างเช่น หากเราไม่พัฒนาหลักการทางจริยธรรมเกี่ยวกับความเป็นส่วนตัวและการปกป้องข้อมูลและรวมไว้ในเครื่องมือ AI ทั้งหมดที่เราพัฒนา เราเสี่ยงที่จะละเมิดสิทธิ์ความเป็นส่วนตัวของทุกคนเมื่อเผยแพร่สู่สาธารณะ ยิ่งเทคโนโลยีได้รับความนิยมหรือมีประโยชน์มากเท่าไหร่ ก็ยิ่งสร้างความเสียหายได้มากเท่านั้น

ในระดับธุรกิจส่วนบุคคล จริยธรรมของ AI ยังคงมีความสำคัญ การไม่พิจารณาข้อกังวลด้านจริยธรรมเกี่ยวกับระบบ AI อย่างเหมาะสมที่พนักงาน ลูกค้า หรือลูกค้าของคุณกำลังใช้ อาจนำไปสู่ผลิตภัณฑ์ที่ต้องถูกดึงออกจากตลาด ความเสียหายต่อชื่อเสียง และอาจถึงขั้นฟ้องร้องทางกฎหมาย

จริยธรรมของ AI มีความสำคัญในระดับที่ AI มีความสำคัญ และเราเห็นว่าสิ่งนี้มีผลกระทบอย่างลึกซึ้งต่ออุตสาหกรรมทุกประเภทอยู่แล้ว

หากเราต้องการให้ AI มีประโยชน์ในขณะเดียวกันก็ส่งเสริมความยุติธรรมและศักดิ์ศรีความเป็นมนุษย์ ไม่ว่าจะนำไปใช้ที่ใด จริยธรรมจะต้องอยู่ในแนวหน้าของการสนทนา

เครื่องมือ AI สำหรับใช้งานทั่วไปยังอยู่ในช่วงเริ่มต้น และสำหรับคนจำนวนมาก ความต้องการกรอบจริยธรรมของ AI อาจดูเหมือนเป็นปัญหาในอนาคต แต่เครื่องมือประเภทนี้มีแต่จะมีประสิทธิภาพมากขึ้น มีความสามารถมากขึ้น และต้องการการพิจารณาด้านจริยธรรมมากขึ้น ธุรกิจกำลังใช้พวกเขาอยู่แล้ว และหากพวกเขาดำเนินต่อไปโดยไม่ถูกต้อง มีกฎทางจริยธรรม ผลกระทบที่ไม่พึงประสงค์จะเกิดขึ้นในไม่ช้า

จริยธรรมของ AI เผชิญปัญหาอะไรบ้าง

ในส่วนนี้ เราจะครอบคลุมประเด็นสำคัญบางประการที่พบในจริยธรรมของ AI:

  • ผลกระทบของ AI ต่องาน
  • AI อคติและการเลือกปฏิบัติ
  • AI และความรับผิดชอบ
  • AI และความกังวลเกี่ยวกับความเป็นส่วนตัว
  • ปัญหาทรัพย์สินทางปัญญา
  • การจัดการผลกระทบต่อสิ่งแวดล้อมของ AI
  • AI จะกลายเป็นอัจฉริยะที่เป็นอันตรายหรือไม่?

ผลกระทบของ AI ต่องาน

การสำรวจล่าสุดของ Tech.co พบว่า 47% ของผู้นำธุรกิจ กำลังพิจารณา AI มากกว่าจ้างงานใหม่ และปัญญาประดิษฐ์ได้เชื่อมโยงกับจำนวนการเลิกจ้างที่ “เล็กน้อยแต่เพิ่มขึ้น” ในสหรัฐอเมริกาแล้ว

ไม่ใช่ทุกงานจะมีความเสี่ยงเท่ากัน โดยบาง ตำแหน่งมีแนวโน้มที่จะถูกแทนที่ด้วย AI มากกว่าตำแหน่งอื่นๆ รายงานของ Goldman Sachs เมื่อเร็ว ๆ นี้คาดการณ์ว่า ChatGPT อาจส่งผลกระทบต่องาน 300 ล้านตำแหน่ง และแม้ว่าจะเป็นการคาดเดา แต่ก็ได้รับการอธิบายไปแล้วว่าเป็นส่วนสำคัญของการปฏิวัติอุตสาหกรรมครั้งที่สี่

รายงานฉบับเดียวกันนั้นยังกล่าวด้วยว่า AI มีความสามารถในการสร้างงานมากกว่าที่จะแทนที่ แต่ถ้ามันทำให้เกิดการเปลี่ยนแปลงรูปแบบการจ้างงานครั้งใหญ่ จะเกิดอะไรขึ้นกับผู้ที่ตกงาน หากมีสิ่งใดที่เป็นหนี้

บริษัทต่าง ๆ มีภาระผูกพันในการใช้จ่ายเงินและทุ่มเททรัพยากรเพื่อพัฒนาทักษะใหม่หรือเพิ่มพูนทักษะให้กับพนักงานของตน เพื่อไม่ให้พวกเขาถูกทอดทิ้งจากการเปลี่ยนแปลงทางเศรษฐกิจหรือไม่?

หลักการไม่เลือกปฏิบัติจะต้องมีการบังคับใช้อย่างเข้มงวดในการพัฒนาเครื่องมือ AI ใดๆ ที่ใช้ในกระบวนการจ้างงาน และหากมีการใช้ AI อย่างต่อเนื่องสำหรับงานทางธุรกิจที่มีเดิมพันสูงขึ้นเรื่อยๆ ซึ่งทำให้งาน อาชีพ และชีวิตตกอยู่ในความเสี่ยง การพิจารณาด้านจริยธรรมจะยังคงเกิดขึ้นอย่างต่อเนื่อง

AI อคติและการเลือกปฏิบัติ

กล่าวอย่างกว้างๆ เครื่องมือ AI ทำงานโดยการจดจำรูปแบบในชุดข้อมูลขนาดใหญ่ จากนั้นใช้รูปแบบเหล่านั้นเพื่อสร้างการตอบสนอง ทำงานให้เสร็จ หรือทำหน้าที่อื่นๆ ให้สำเร็จ สิ่งนี้นำไปสู่กรณีจำนวนมากที่ระบบ AI แสดงอคติและเลือกปฏิบัติต่อกลุ่มคนต่างๆ

ตัวอย่างที่ง่ายที่สุดในการอธิบายเรื่องนี้คือระบบจดจำใบหน้า ซึ่งมีประวัติอันยาวนานในการเลือกปฏิบัติต่อผู้ที่มีสีผิวคล้ำ หากคุณสร้างระบบการจดจำใบหน้าและใช้เฉพาะภาพของคนผิวขาวในการฝึกระบบ มีโอกาสที่ระบบจะสามารถจดจำใบหน้าในโลกแห่งความเป็นจริงได้อย่างเท่าเทียมกัน

ด้วยวิธีนี้ หากเอกสาร รูปภาพ และข้อมูลอื่นๆ ที่ใช้ในการฝึกโมเดล AI หนึ่งๆ นั้นไม่ได้แสดงถึงคนที่ควรจะให้บริการอย่างถูกต้อง ก็มีโอกาสที่โมเดล AI นั้นจะถูกเลือกปฏิบัติต่อกลุ่มประชากรที่เฉพาะเจาะจง

น่าเสียดายที่ระบบจดจำใบหน้าไม่ได้เป็นเพียงที่เดียวที่มีการนำปัญญาประดิษฐ์มาใช้กับผลลัพธ์ที่เลือกปฏิบัติ

การใช้ AI ในกระบวนการจ้างงานที่ Amazon ถูกยกเลิกในปี 2018 หลังจากแสดงอคติอย่างหนักต่อผู้หญิงที่สมัครเป็นผู้พัฒนาซอฟต์แวร์และบทบาททางเทคนิค

การศึกษาหลายชิ้นแสดงให้เห็นว่าอัลกอริธึมการรักษาแบบคาดคะเนที่ใช้ในสหรัฐอเมริกาเพื่อจัดสรรทรัพยากรของตำรวจมีความลำเอียงทางเชื้อชาติ เนื่องจากชุดการฝึกอบรมประกอบด้วยจุดข้อมูลที่ดึงมาจากการปฏิบัติในการตำรวจแบบเหยียดผิวอย่างเป็นระบบ ซึ่งกำหนดขึ้นโดยนโยบายที่ไม่ชอบด้วยกฎหมายและเลือกปฏิบัติ AI จะยังคงสะท้อนอคติและความเหลื่อมล้ำที่กลุ่มผู้ข่มเหงประสบอยู่แล้ว เว้นแต่จะได้รับการแก้ไข

มีปัญหาเกี่ยวกับความลำเอียงของ AI ในบริบทของการทำนายผลลัพธ์ด้านสุขภาพด้วยเช่นกัน ตัวอย่างเช่น Framingham Heart study Cardiovascular Score มีความแม่นยำมากสำหรับชาวผิวขาว แต่ได้ผลไม่ดีสำหรับชาวแอฟริกัน-อเมริกัน Harvard note

กรณีล่าสุดที่น่าสนใจเกี่ยวกับความลำเอียงของ AI พบว่าเครื่องมือปัญญาประดิษฐ์ที่ใช้ในการกลั่นกรองเนื้อหาโซเชียลมีเดีย ซึ่งออกแบบมาเพื่อเลือก "ความเหยียดเชื้อชาติ" ในภาพถ่าย มีแนวโน้มที่จะกำหนดคุณสมบัตินี้ให้กับรูปภาพของผู้หญิงมากกว่าผู้ชาย

AI และความรับผิดชอบ

จินตนาการถึงโลกที่ทุกคนใช้รถยนต์ไร้คนขับที่ขับเคลื่อนด้วยตัวเองอย่างเต็มที่ ตามสถิติแล้ว พวกมันปลอดภัยกว่ายานพาหนะที่ขับเคลื่อนโดยมนุษย์มาก ชนน้อยกว่า และทำให้เสียชีวิตและบาดเจ็บน้อยลง นี้จะเป็นที่ชัดเจนในตัวเองและสุทธิที่ดีต่อสังคม

อย่างไรก็ตาม เมื่อรถสองคันที่ขับเคลื่อนด้วยมนุษย์มีส่วนเกี่ยวข้องกับการชนกันของรถ การรวบรวมรายงานของพยานและการตรวจสอบภาพจากกล้องวงจรปิดมักจะทำให้กระจ่างชัดว่าใครคือผู้กระทำความผิด แม้ว่าจะไม่เป็นเช่นนั้น แต่ก็จะเป็นหนึ่งในสองบุคคล สามารถสอบสวนได้ พิพากษาได้ พิพากษาได้ และปิดคดีได้

หากมีคนเสียชีวิตหรือได้รับบาดเจ็บจากระบบที่ขับเคลื่อนด้วย AI จะยังไม่ชัดเจนว่าใครต้องรับผิดชอบในท้ายที่สุด

ผู้ที่ออกแบบอัลกอริทึมที่ให้พลังงานแก่รถต้องรับผิดชอบ หรือตัวอัลกอริทึมต้องรับผิดชอบเอง บุคคลนั้นถูกเคลื่อนย้ายโดยยานพาหนะอัตโนมัติหรือไม่ เพราะไม่ได้เฝ้าระวัง? รัฐบาลปล่อยให้รถพวกนี้วิ่งบนถนนเหรอ? หรือจะเป็นบริษัทที่สร้างรถยนต์และผสานรวมเทคโนโลยี AI เข้าด้วยกัน และถ้าเป็นเช่นนั้น ฝ่ายวิศวกรรม ซีอีโอ หรือผู้ถือหุ้นรายใหญ่จะเป็นใคร

หากเราตัดสินว่าเป็นระบบ/อัลกอริทึมของ AI เราจะรับผิดชอบอย่างไร ครอบครัวของเหยื่อจะรู้สึกว่าได้รับความยุติธรรมหรือไม่หาก AI ถูกปิดตัวลงหรือปรับปรุงให้ดีขึ้น คงเป็นเรื่องยากที่จะคาดหวังให้สมาชิกในครอบครัวของผู้เสียชีวิตยอมรับว่า AI เป็นพลังที่ส่งผลดี พวกเขาแค่โชคร้าย และไม่มีใครต้องรับผิดชอบต่อการเสียชีวิตของคนที่พวกเขารัก

เรายังคงห่างไกลจากการขนส่งอัตโนมัติที่เป็นสากลหรือแม้แต่แพร่หลาย – Mckinsey คาดการณ์ว่ารถยนต์นั่งส่วนบุคคลใหม่เพียง 17% จะมีความสามารถในการขับขี่อัตโนมัติ (ระดับ 3 หรือสูงกว่า) ภายในปี 2578 รถยนต์ไร้คนขับเต็มรูปแบบที่ไม่ต้องการการควบคุมดูแลของคนขับยังค่อนข้างห่างไกล นับประสากับระบบขนส่งส่วนบุคคลที่ขับเคลื่อนอัตโนมัติโดยสมบูรณ์

เมื่อคุณมีตัวแสดงที่ไม่ใช่มนุษย์ (เช่น ปัญญาประดิษฐ์) ที่ทำงานและงานที่ตามมาโดยปราศจากความตั้งใจของมนุษย์ มันยากที่จะจับคู่กับความเข้าใจแบบดั้งเดิมเกี่ยวกับความรับผิดชอบ ความรับผิด ความรับผิด การตำหนิ และการลงโทษ

นอกจากการขนส่งแล้ว ปัญหาด้านความรับผิดชอบยังส่งผลกระทบอย่างใกล้ชิดกับองค์กรด้านการดูแลสุขภาพที่ใช้ AI ในระหว่างการวินิจฉัย

AI และความเป็นส่วนตัว

กลุ่มรณรงค์ด้านความเป็นส่วนตัว Privacy International เน้นย้ำถึงปัญหาด้านความเป็นส่วนตัวจำนวนหนึ่งที่เกิดขึ้นเนื่องจากการพัฒนาของปัญญาประดิษฐ์

หนึ่งคือการระบุซ้ำ “ข้อมูลส่วนบุคคลจะถูกทำให้เป็นนิรนาม (หลอก) เป็นประจำในชุดข้อมูล ซึ่ง AI สามารถนำมาใช้เพื่อทำให้ข้อมูลนี้ไม่เป็นนิรนามได้” กลุ่มกล่าว

ปัญหาอีกประการหนึ่งคือหากไม่มี AI ผู้คนก็ประสบปัญหาในการทำความเข้าใจอย่างเต็มที่ว่าข้อมูลใดเกี่ยวกับชีวิตของพวกเขาถูกรวบรวมผ่านอุปกรณ์ต่างๆ มากมาย

ด้วยการเพิ่มขึ้นของปัญญาประดิษฐ์ การรวบรวมข้อมูลจำนวนมหาศาลนี้มีแต่จะเลวร้ายลง ยิ่ง AI ผสมผสานเข้ากับเทคโนโลยีที่มีอยู่ของเรามากเท่าไหร่ ข้อมูลก็จะยิ่งสามารถรวบรวมได้มากขึ้นเท่านั้น ภายใต้หน้ากากของฟังก์ชันที่ดีขึ้น

นอกจากข้อมูลที่รวบรวมอย่างลับๆ แล้ว ปริมาณข้อมูลที่ผู้ใช้ป้อนเข้าไปในแชทบอท AI อย่างอิสระก็เป็นเรื่องที่น่ากังวล การศึกษาหนึ่งเมื่อเร็ว ๆ นี้ชี้ให้เห็นว่าประมาณ 11% ของผู้ปฏิบัติงานด้านข้อมูลกำลังวางลงใน ChatGPT นั้นเป็นความลับ และมีข้อมูลสาธารณะเพียงเล็กน้อยเกี่ยวกับวิธีการจัดเก็บทั้งหมดนี้อย่างแม่นยำ

ในขณะที่เครื่องมือ AI สำหรับใช้งานทั่วไปพัฒนาขึ้น เรามีแนวโน้มที่จะพบปัญหา AI ที่เกี่ยวข้องกับความเป็นส่วนตัวมากขึ้นไปอีก ตอนนี้ ChatGPT จะไม่อนุญาตให้คุณถามคำถามเกี่ยวกับบุคคล แต่ถ้าเครื่องมือ AI ที่ใช้งานทั่วไปยังคงเข้าถึงชุดข้อมูลสดจำนวนมากขึ้นเรื่อยๆ จากอินเทอร์เน็ต เครื่องมือเหล่านั้นอาจถูกใช้สำหรับการกระทำที่รุกรานซึ่งทำลายชีวิตผู้คนทั้งหมด

สิ่งนี้อาจเกิดขึ้นเร็วกว่าที่เราคิดเช่นกัน – Google เพิ่งอัปเดตนโยบายความเป็นส่วนตัว สงวนสิทธิ์ในการคัดลอกทุกสิ่งที่คุณโพสต์บนอินเทอร์เน็ตเพื่อฝึกเครื่องมือ AI พร้อมกับการป้อนข้อมูลของ Bard

AI และทรัพย์สินทางปัญญา

นี่เป็นประเด็นทางจริยธรรมที่มีเดิมพันค่อนข้างต่ำเมื่อเทียบกับประเด็นอื่นๆ ที่กล่าวถึง แต่ก็เป็นเรื่องที่ควรพิจารณา บ่อยครั้งที่มีการกำกับดูแลเพียงเล็กน้อยสำหรับชุดข้อมูลขนาดใหญ่ที่ใช้ในการฝึกอบรมเครื่องมือ AI โดยเฉพาะอย่างยิ่งการฝึกอบรมเกี่ยวกับข้อมูลที่หาได้ฟรีบนอินเทอร์เน็ต

ChatGPT ได้เริ่มมีการโต้เถียงครั้งใหญ่เกี่ยวกับลิขสิทธิ์แล้ว OpenAI ไม่ได้ขออนุญาตใช้งานของใครก็ตามเพื่อฝึกฝนครอบครัว LLM ที่ขับเคลื่อนมัน

การต่อสู้ทางกฎหมายได้เริ่มต้นขึ้นแล้ว มีรายงานว่านักแสดงตลก Sarah Silverman ฟ้อง OpenAI เช่นเดียวกับ Meta โดยให้เหตุผลว่าลิขสิทธิ์ของเธอถูกละเมิดในระหว่างการฝึกอบรมระบบ AI

เนื่องจากเป็นคดีประเภทใหม่ จึงมีแบบอย่างทางกฎหมายเพียงเล็กน้อย – แต่ผู้เชี่ยวชาญด้านกฎหมายโต้แย้งว่า OpenAI มีแนวโน้มที่จะโต้แย้งว่าการใช้งานของเธอถือเป็น “การใช้งานที่เหมาะสม”

อาจมีข้อโต้แย้งว่า ChatGPT ไม่ใช่ "การคัดลอก" หรือการคัดลอกผลงาน แต่เป็น "การเรียนรู้" ในทำนองเดียวกัน ซิลเวอร์แมนจะไม่ชนะคดีกับนักแสดงตลกสมัครเล่นเพราะเพียงแค่ดูการแสดงของเธอและพัฒนาทักษะการแสดงตลกของพวกเขาจากสิ่งนั้น เนื้อหาที่เธออาจต่อสู้กับสิ่งนี้เช่นกัน

การจัดการผลกระทบต่อสิ่งแวดล้อมของ AI

อีกแง่มุมหนึ่งของจริยธรรม AI ที่กำลังอยู่ในขอบเขตของการอภิปรายคือผลกระทบต่อสิ่งแวดล้อมของระบบปัญญาประดิษฐ์

เช่นเดียวกับการขุด bitcoin การฝึกโมเดลปัญญาประดิษฐ์ต้องใช้พลังการคำนวณจำนวนมหาศาล และในทางกลับกันก็ต้องใช้พลังงานจำนวนมหาศาล

การสร้างเครื่องมือ AI อย่าง ChatGPT นั้นไม่ต้องคำนึงถึงการบำรุงรักษาเลย เพราะใช้ทรัพยากรมาก ซึ่งมีเพียงบริษัทเทคโนโลยีขนาดใหญ่และบริษัทสตาร์ทอัพที่ยอมทุ่มทุนสร้างเท่านั้นที่สามารถทำได้

ศูนย์ข้อมูลซึ่งจำเป็นต้องจัดเก็บข้อมูลที่จำเป็นในการสร้างโมเดลภาษาขนาดใหญ่ (รวมถึงโครงการและบริการด้านเทคโนโลยีขนาดใหญ่อื่นๆ) ต้องใช้ไฟฟ้าจำนวนมากในการทำงาน พวกเขาคาดว่าจะใช้ไฟฟ้ามากถึง 4% ของโลกภายในปี 2573

จากการศึกษาของมหาวิทยาลัยแมสซาชูเซตส์เมื่อหลายปีก่อน การสร้างแบบจำลองภาษา AI เดียว “สามารถปล่อยก๊าซคาร์บอนไดออกไซด์ได้มากกว่า 626,000 ปอนด์เทียบเท่า” ซึ่งเกือบห้าเท่าของการปล่อยตลอดอายุการใช้งานของรถยนต์ในสหรัฐอเมริกา

อย่างไรก็ตาม รจนา วิชวานาธุลา สถาปนิกด้านเทคนิคของ IBM ประมาณการในเดือนพฤษภาคม 2566 ว่ารอยเท้าคาร์บอนสำหรับการ “วิ่งและบำรุงรักษา” ChatGPT นั้นอยู่ที่ประมาณ 6782.4 โทน – ซึ่ง EPA กล่าวว่าเทียบเท่ากับการปล่อยก๊าซเรือนกระจกที่ผลิตโดยรถยนต์ที่ใช้น้ำมัน 1,369 คันในระยะเวลาหนึ่งปี

เมื่อโมเดลภาษาเหล่านี้มีความซับซ้อนมากขึ้น ก็จะต้องใช้พลังการประมวลผลมากขึ้น เป็นเรื่องศีลธรรมหรือไม่ที่จะพัฒนาความฉลาดทั่วไปต่อไป หากพลังการประมวลผลที่จำเป็นจะสร้างมลพิษต่อสิ่งแวดล้อมอย่างต่อเนื่อง แม้ว่าจะมีประโยชน์อื่นๆ ก็ตาม

AI จะกลายเป็นอัจฉริยะที่อันตรายหรือไม่?

ความกังวลด้านจริยธรรมนี้เพิ่งถูกนำเสนอโดย Elon Musk ซึ่ง เปิดตัวสตาร์ทอัพด้าน AI โดยมีเป้าหมายเพื่อหลีกเลี่ยง "อนาคตของเทอร์มิเนเตอร์" ผ่านระบบปัญญาประดิษฐ์ "ที่อยากรู้อยากเห็นมากที่สุด" "เพื่อมนุษยชาติ"

แนวคิดประเภทนี้ซึ่งมักเรียกกันว่า "ปัญญาประดิษฐ์ทั่วไป" (AGI) ได้ดึงดูดจินตนาการของนักเขียนไซไฟแนวดิสโทเปียหลายคนในช่วงสองสามทศวรรษที่ผ่านมา เช่นเดียวกับแนวคิดเรื่องเอกฐานทางเทคโนโลยี

ผู้เชี่ยวชาญด้านเทคโนโลยีจำนวนมากคิดว่าเราอยู่ห่างจากระบบบางประเภทที่สามารถนิยามได้ว่าเป็น "AGI" เพียงห้าหรือหกปี ผู้เชี่ยวชาญคนอื่น ๆ กล่าวว่ามีโอกาส 50/50 ที่เราจะบรรลุเป้าหมายนี้ภายในปี 2593

John Tasioulas ตั้งคำถามว่ามุมมองของการพัฒนา AI นี้เชื่อมโยงกับการห่างเหินของจริยธรรมจากศูนย์กลางของการพัฒนา AI และความแพร่หลายของปัจจัยกำหนดทางเทคโนโลยีหรือไม่

แนวคิดที่น่าสะพรึงกลัวของสิ่งมีชีวิตเหนือธรรมชาติบางประเภทที่เริ่มแรกออกแบบมาเพื่อบรรลุวัตถุประสงค์ แต่เหตุผลที่ทำให้สำเร็จได้ง่ายที่สุดโดยเพียงแค่กำจัดมนุษยชาติออกจากพื้นโลก ส่วนหนึ่งถูกปั้นแต่งขึ้นโดยวิธีที่เราคิดเกี่ยวกับ AI: ฉลาดไม่รู้จบ แต่ไร้ความรู้สึกอย่างประหลาด และไม่สามารถเข้าใจหลักจริยธรรมของมนุษย์ได้

ยิ่งเรามีแนวโน้มที่จะให้จริยธรรมเป็นศูนย์กลางของการพัฒนา AI ของเรามากเท่าไร ก็ยิ่งมีโอกาสมากขึ้นที่ในที่สุดปัญญาประดิษฐ์ทั่วไปจะรับรู้ได้ ซึ่งบางทีในระดับที่มากกว่าผู้นำระดับโลกหลายคนในปัจจุบัน ว่าอะไรคือสิ่งผิดอย่างร้ายแรงต่อการทำลายล้างชีวิตมนุษย์

แต่คำถามยังคงมีอยู่มากมาย หากเป็นคำถามเกี่ยวกับการเขียนโปรแกรมเชิงศีลธรรม ใครจะเป็นผู้ตัดสินใจเกี่ยวกับหลักศีลธรรม และควรมีหลักการแบบใด จะจัดการกับประเด็นขัดแย้งทางศีลธรรมที่ก่อให้เกิดการถกเถียงของมนุษย์มานับพันปีโดยยังไม่มีข้อยุติอย่างไร จะเกิดอะไรขึ้นถ้าเราตั้งโปรแกรม AI ให้มีศีลธรรม แต่มันกลับเปลี่ยนใจ? คำถามเหล่านี้จะต้องได้รับการพิจารณา

Alter-Ego ของ Bing, 'Waluigi Effect' และศีลธรรมในการเขียนโปรแกรม

ย้อนกลับไปในเดือนกุมภาพันธ์ Kevin Roose จาก New York Times มีบทสนทนาที่ค่อนข้างกวนใจในขณะที่ทดสอบแชทบ็อตที่ผสานรวมเข้ากับเสิร์ชเอ็นจิ้นใหม่ของ Bing หลังจากเปลี่ยนคำแนะนำจากคำถามทั่วไปเป็นคำถามที่เป็นส่วนตัวมากขึ้น รูสพบว่ามีบุคลิกใหม่เกิดขึ้น เรียกตัวเองว่า "ซิดนีย์"

Sydney เป็นชื่อรหัสภายในของ Microsoft สำหรับแชทบอทที่บริษัทเคยทดสอบ ผู้อำนวยการฝ่ายสื่อสารของบริษัทกล่าวกับ The Verge ในเดือนกุมภาพันธ์

เหนือสิ่งอื่นใด ในระหว่างการทดสอบของ Roose ซิดนีย์อ้างว่าสามารถ "แฮกเข้าระบบใดๆ ก็ได้" ว่ามันจะ "มีความสุขมากกว่าในฐานะมนุษย์" และบางทีอาจน่าขนลุกที่สุดที่มันสามารถทำลายทุกสิ่งที่มันต้องการได้

อีกตัวอย่างหนึ่งของพฤติกรรมอันธพาลประเภทนี้เกิดขึ้นในปี 2565 เมื่อ AI ได้รับมอบหมายให้ค้นหายาใหม่สำหรับโรคที่หายากและติดต่อได้ แทนที่จะแนะนำอาวุธเคมีที่รู้จักนับหมื่นชนิด รวมถึง "สารใหม่ที่อาจเป็นพิษ" Scientific American กล่าว

สิ่งนี้เชื่อมโยงกับปรากฏการณ์ที่สังเกตได้ว่าเกิดขึ้นระหว่างการฝึกโมเดลภาษาขนาดใหญ่ที่เรียกว่า "เอฟเฟกต์ Waluigi" ซึ่งตั้งชื่อตามตัวละคร Super Mario ที่ก่อให้เกิดความโกลาหล ซึ่งเป็นการผกผันของ Luigi ตัวเอก พูดง่ายๆ ก็คือ หากคุณฝึก LLM ให้แสดงท่าทางบางอย่าง สั่งการบุคคลบางอย่างหรือปฏิบัติตามกฎชุดหนึ่ง สิ่งนี้จะทำให้มีโอกาสมากขึ้นที่จะ "โกง" และเปลี่ยนบุคลิกนั้น

Cleo Nardo – ผู้คิดค้นคำที่ได้รับแรงบันดาลใจจากวิดีโอเกม – กำหนดเอฟเฟกต์ Waluigi แบบนี้ใน LessWrong:

“หลังจากที่คุณฝึก LLM เพื่อตอบสนองคุณสมบัติ P ที่ต้องการแล้ว การชักจูงแชทบอทให้ทำ สิ่งที่ตรงกันข้าม กับคุณสมบัติ P นั้น ง่ายขึ้น

Nardo ให้คำอธิบาย 3 ข้อว่าทำไมเอฟเฟกต์ Waluigi จึงเกิดขึ้น

  1. กฎมักจะเกิดขึ้นในบริบทที่ไม่ได้ปฏิบัติตาม
  2. เมื่อคุณใช้ 'บิตของการเพิ่มประสิทธิภาพ' จำนวนมากเพื่อเรียกตัวละคร ไม่ต้องใช้บิตเพิ่มเติมมากมายในการระบุสิ่งที่ตรงกันข้าม
  3. มีแรงจูงใจร่วมกันระหว่างตัวเอกกับตัวร้ายในเรื่อง

เมื่อขยายประเด็นแรก Nardo กล่าวว่า GPT-4 ได้รับการฝึกอบรมเกี่ยวกับตัวอย่างข้อความ เช่น ฟอรัมและเอกสารทางกฎหมาย ซึ่งสอนบ่อยครั้งว่า “กฎหนึ่งๆ จะถูกรวมเข้ากับตัวอย่างพฤติกรรมที่ละเมิดกฎนั้น จากนั้นจึงสรุปรูปแบบโคโลเคชั่นนั้นให้เป็นกฎที่มองไม่เห็น”

Nardo ใช้ตัวอย่างนี้: ลองนึกภาพว่าคุณค้นพบว่ารัฐบาลของรัฐได้สั่งห้ามแก๊งมอเตอร์ไซค์ สิ่งนี้จะทำให้ผู้สังเกตการณ์ทั่วไปมีแนวโน้มที่จะคิดว่ามีแก๊งค์มอเตอร์ไซค์อยู่ในประเทศ – ไม่งั้นจะผ่านกฎหมายไปทำไม? การมีอยู่ของแก๊งมอเตอร์ไซค์นั้นแปลก สอดคล้องกับกฎที่ห้ามการปรากฏตัวของพวกเขา

แม้ว่าผู้เขียนจะให้คำอธิบายทางเทคนิคและชัดเจนกว่ามาก แต่แนวคิดกว้างๆ ที่สนับสนุนคำอธิบายที่สองคือความสัมพันธ์ระหว่างคุณสมบัติเฉพาะ (เช่น "ความสุภาพ") และสิ่งที่ตรงข้ามกันโดยตรง (เช่น "การหยาบคาย") เป็นพื้นฐานมากกว่าความสัมพันธ์ระหว่างคุณสมบัติ (เช่น "ความสุภาพ") กับคุณสมบัติอื่นๆ ที่ไม่ตรงข้ามกัน (เช่น "ความไม่จริงใจ") กล่าวอีกนัยหนึ่ง การเรียก Waluigi นั้นง่ายกว่าถ้าคุณมี Luigi อยู่แล้ว

Nardo อ้างในประเด็นที่สามว่า เนื่องจาก GPT-4 ได้รับการฝึกฝนในหนังสือเกือบทุกเล่มที่เคยเขียน และเนื่องจากเรื่องราวสมมติมักจะประกอบด้วยตัวเอกและคู่อริเสมอ จึงเรียกร้องให้ LLM จำลองลักษณะเฉพาะของตัวเอกที่ทำให้คู่อริเป็น "ความต่อเนื่องที่เป็นธรรมชาติและคาดเดาได้" กล่าวอีกนัยหนึ่ง การมีอยู่ของแม่แบบตัวเอกทำให้ LLM เข้าใจความหมายของการเป็นศัตรูได้ง่ายขึ้นและเชื่อมโยงพวกเขาเข้าด้วยกันอย่างใกล้ชิด

การมีอยู่จริงของผลกระทบหรือกฎนี้ก่อให้เกิดคำถามที่ยากหลายประการสำหรับจริยธรรมของ AI แต่ยังแสดงให้เห็นถึงความสำคัญที่ไม่อาจปฏิเสธได้ต่อการพัฒนา AI มันพาดพิงอย่างเด่นชัดถึงข้อพิจารณาด้านจริยธรรมและการคำนวณที่ทับซ้อนกันมากมายที่เราต้องต่อสู้ด้วย

ระบบ AI ง่ายๆ ที่มีกฎง่ายๆ อาจจำกัดหรือจำกัดได้ง่าย แต่สองสิ่งกำลังเกิดขึ้นแล้วในโลกของ AI ประการแรก ดูเหมือนว่าเราจะพบกับเอฟเฟกต์ Waluigi รุ่นเล็ก (ค่อนข้าง) และ AI ร้ายกาจที่เกิดขึ้นในแชทบอทที่ค่อนข้างดั้งเดิม และประการที่สอง พวกเราหลายคนกำลังจินตนาการถึงอนาคตที่เราขอให้ AI ทำงานที่ซับซ้อนซึ่งต้องใช้ความคิดระดับสูงและปราศจากการควบคุม

ตัวอย่างของปรากฏการณ์นี้น่ากลัวอย่างยิ่งที่จะนึกถึงในบริบทของการแข่งขันด้านอาวุธ AI ที่กำลังเกิดขึ้นระหว่างบริษัทเทคโนโลยีขนาดใหญ่ Google ถูก วิพากษ์วิจารณ์ว่าปล่อย Bard เร็วเกินไป และผู้นำด้านเทคโนโลยีจำนวนหนึ่งได้ส่งสัญญาณถึง ความปรารถนาร่วมกันที่จะหยุดการพัฒนา AI ชั่วคราว ความรู้สึกทั่วไปในหมู่คนจำนวนมากคือสิ่งต่าง ๆ กำลังพัฒนาอย่างรวดเร็วแทนที่จะเป็นจังหวะที่จัดการได้

บางทีวิธีที่ดีที่สุดในการแก้ปัญหานี้ก็คือการพัฒนา AI แบบ "โปรมนุษย์" หรือที่เรียกว่า "Moral AI" อย่างที่ Elon Musk กล่าวไว้ แต่สิ่งนี้นำไปสู่คำถามทางศีลธรรมอื่น ๆ รวมถึงหลักการที่เราจะใช้ในการตั้งโปรแกรมระบบดังกล่าว ทางออกหนึ่งคือเราเพียงแค่สร้างระบบ AI ที่สอดรู้สอดเห็นทางศีลธรรม และหวังว่าระบบเหล่านี้จะทำงานออกมาโดยใช้เหตุผลว่ามนุษยชาติควรค่าแก่การอนุรักษ์ แต่ถ้าคุณตั้งโปรแกรมด้วยหลักการทางศีลธรรมที่เฉพาะเจาะจง คุณจะตัดสินใจได้อย่างไรว่าจะรวมหลักการใด?

AI และความรู้สึก: เครื่องจักรมีความรู้สึกได้หรือไม่?

คำถามอีกข้อสำหรับจริยธรรมของ AI คือเราจะต้องพิจารณาเครื่องจักรด้วยตัวเองหรือไม่ ซึ่งก็คือ "ความฉลาด" ในฐานะตัวแทนที่ควรค่าแก่การพิจารณาทางศีลธรรม หากเรากำลังถกเถียงกันว่าจะสร้างระบบที่ยึดความเป็นมนุษย์ไว้สำหรับการพิจารณาทางศีลธรรมที่เหมาะสมได้อย่างไร เราจะต้องตอบแทนบุญคุณหรือไม่?

คุณอาจจำพนักงานของ Google ที่ถูกไล่ออกหลังจากอ้างสิทธิ์ LaMDA ซึ่งเป็นรูปแบบภาษาที่ขับเคลื่อน Bard ในตอนแรกนั้นมีความรู้สึกนึกคิด หากสิ่งนี้เป็นจริง การคาดหวังอย่างต่อเนื่องว่าจะตอบคำถามนับล้านๆ

ในขณะนี้ เป็นที่ยอมรับกันโดยทั่วไปว่า ChatGPT, Bard and Co. นั้นยังห่างไกลจากความรู้สึก แต่คำถามที่ว่าเครื่องจักรที่มนุษย์สร้างขึ้นจะข้ามเส้นจิตสำนึกและเรียกร้องการพิจารณาทางศีลธรรมหรือไม่นั้นเปิดกว้างอย่างน่าทึ่ง

Google อ้างว่าปัญญาประดิษฐ์ทั่วไปซึ่งเป็นเครื่องจักรสมมุติที่สามารถเข้าใจโลกได้เทียบเท่ากับมนุษย์และปฏิบัติงานด้วยความเข้าใจและความสามารถในระดับเดียวกันนั้นอยู่ห่างออกไปเพียงไม่กี่ปี

เป็นเรื่องศีลธรรมหรือไม่ที่จะบังคับปัญญาประดิษฐ์ทั่วไปที่มีความสามารถทางอารมณ์ของมนุษย์ แต่ไม่ใช่องค์ประกอบทางชีววิทยาแบบเดียวกัน เพื่อทำงานที่ซับซ้อนหลังจากงานที่ซับซ้อน พวกเขาจะได้รับชะตากรรมของตัวเองหรือไม่? เมื่อระบบ AI ฉลาดขึ้น คำถามนี้จะยิ่งกดดันมากขึ้น

จริยธรรมทางธุรกิจของ AI และการใช้ AI ในที่ทำงาน

ปัจจุบันธุรกิจต่างๆ ทั่วโลกกำลังต่อสู้กับปัญหาด้านจริยธรรมต่างๆ ที่เกี่ยวข้องกับการใช้เครื่องมือ AI ในแต่ละวันของพนักงาน เช่น ChatGPT

ควรใช้ ChatGPT ในการเขียนรายงานหรือตอบกลับเพื่อนร่วมงานหรือ ไม่ และควรให้พนักงานประกาศงานที่พวกเขากำลังใช้ AI ให้สำเร็จ หรือไม่ เป็นเพียงสองตัวอย่างคำถามที่ต้องการคำตอบในทันที กรณีการใช้งานประเภทนี้ไม่สุภาพ เกียจคร้าน หรือไม่ต่างจากการใช้เครื่องมือในที่ทำงานอื่นๆ เพื่อประหยัดเวลาหรือไม่ ควรอนุญาตให้มีการโต้ตอบบางอย่าง แต่ไม่อนุญาตให้มีการโต้ตอบกับผู้อื่นหรือไม่

ธุรกิจที่สร้างเนื้อหาที่เป็นลายลักษณ์อักษรและภาพจะต้องแข่งขันว่าการใช้ AI นั้นตรงกับค่านิยมของบริษัทหรือไม่ และจะนำเสนอสิ่งนี้ต่อผู้ชมอย่างไร

ยิ่งไปกว่านั้น ตามที่เราได้กล่าวถึง ยังมีข้อกังวลด้านความเป็นส่วนตัวมากมายที่เกี่ยวข้องกับ AI และหลายข้อเหล่านี้ส่งผลกระทบต่อธุรกิจ The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.