อาชญากรไซเบอร์ใช้ประโยชน์จากเครื่องมือ AI เช่น ChatGPT เพื่อสร้างการโจมตีแบบฟิชชิ่งที่น่าเชื่อยิ่งขึ้น สร้างความตื่นตระหนกให้กับผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์
เผยแพร่แล้ว: 2023-12-02หากคุณสังเกตเห็นการเพิ่มขึ้นอย่างรวดเร็วของอีเมลที่ดูน่าสงสัยในปีที่ผ่านมา ส่วนหนึ่งอาจเป็นเพราะหนึ่งในแชทบอท AI ที่เราชื่นชอบ - ChatGPT ฉันรู้ พวกเราหลายคนเคยพูดคุยกันอย่างใกล้ชิดและเป็นส่วนตัวโดยที่เราได้เรียนรู้เกี่ยวกับตัวเองด้วย ChatGPT และเราไม่อยากเชื่อว่า ChatGPT จะช่วยหลอกลวงเราได้
จากข้อมูลของบริษัทรักษาความปลอดภัยทางไซเบอร์ SlashNext พบว่า ChatGPT และกลุ่ม AI ของบริษัทกำลังถูกใช้เพื่อส่งอีเมลฟิชชิ่งในอัตราที่รวดเร็ว รายงานนี้จัดทำขึ้นจากความเชี่ยวชาญด้านภัยคุกคามของบริษัท และได้ทำการสำรวจผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์มากกว่าสามร้อยคนในอเมริกาเหนือ กล่าวคือ มีการอ้างว่าอีเมลฟิชชิ่งที่เป็นอันตรายเพิ่มขึ้น 1,265% โดยเฉพาะฟิชชิ่งข้อมูลรับรอง ซึ่งเพิ่มขึ้น 967% นับตั้งแต่ไตรมาสที่สี่ของปี 2022 ฟิชชิ่งข้อมูลรับรองมุ่งเป้าไปที่ข้อมูลส่วนบุคคลของคุณ เช่น ชื่อผู้ใช้ ID รหัสผ่าน หรือพินส่วนตัว โดยการแอบอ้างเป็น บุคคล กลุ่ม หรือองค์กรที่เชื่อถือได้ผ่านทางอีเมลหรือช่องทางการสื่อสารที่คล้ายกัน
ผู้ที่เป็นอันตรายกำลังใช้เครื่องมือปัญญาประดิษฐ์เชิงสร้างสรรค์ เช่น ChatGPT เพื่อเขียนข้อความฟิชชิ่งที่สวยงามและตรงเป้าหมายโดยเฉพาะ เช่นเดียวกับฟิชชิ่ง ข้อความอีเมลทางธุรกิจที่ถูกประนีประนอม (BEC) ก็เป็นอีกประเภทหนึ่งของกลโกงทางอาญาทางไซเบอร์ที่มีจุดมุ่งหมายเพื่อฉ้อโกงบริษัททางการเงิน รายงานสรุปว่าภัยคุกคามที่ขับเคลื่อนด้วย AI เหล่านี้กำลังเพิ่มขึ้นอย่างรวดเร็ว โดยเติบโตอย่างรวดเร็วในเชิงปริมาณและมีความซับซ้อนเพียงใด
รายงานระบุว่าการโจมตีแบบฟิชชิ่งเฉลี่ยอยู่ที่ 31,000 ครั้งต่อวัน และประมาณครึ่งหนึ่งของผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ที่ตอบแบบสำรวจรายงานว่าพวกเขาถูกโจมตีแบบ BEC เมื่อพูดถึงฟิชชิ่ง 77% ของผู้เชี่ยวชาญเหล่านี้รายงานว่าพวกเขาถูกโจมตีแบบฟิชชิ่ง
ผู้เชี่ยวชาญเข้ามาชั่งน้ำหนัก
Patrick Harr ซีอีโอของ SlashNext เปิดเผยว่าการค้นพบนี้ “ทำให้ความกังวลเกี่ยวกับการใช้ AI ทั่วไปที่เอื้อต่อการเติบโตแบบทวีคูณของฟิชชิ่ง” เขาอธิบายเพิ่มเติมว่าเทคโนโลยีกำเนิด AI ช่วยให้อาชญากรไซเบอร์สามารถเร่งความเร็วในการโจมตีได้รวดเร็ว ในขณะเดียวกันก็เพิ่มความหลากหลายของการโจมตีด้วย พวกมันสามารถสร้างการโจมตีที่ออกแบบเพื่อสังคมได้หลายพันครั้งด้วยรูปแบบที่หลากหลาย - และคุณจะต้องล้มเหลวเพียงครั้งเดียวเท่านั้น
Harr ชี้ไปที่ ChatGPT ซึ่งมีการเติบโตอย่างมากในช่วงปลายปีที่แล้ว เขาตั้งข้อสังเกตว่าบอท AI เจนเนอเรชั่นทำให้มือใหม่เข้าสู่เกมฟิชชิ่งและการหลอกลวงได้ง่ายขึ้นมาก และตอนนี้ได้กลายเป็นเครื่องมือพิเศษในคลังแสงของผู้ที่มีทักษะและประสบการณ์มากกว่า ซึ่งตอนนี้สามารถขยายขนาดและกำหนดเป้าหมายการโจมตีของพวกเขาได้มากขึ้น อย่างง่ายดาย. เครื่องมือเหล่านี้สามารถช่วยสร้างข้อความที่น่าเชื่อถือและโน้มน้าวใจได้มากขึ้น ซึ่งนักต้มตุ๋นหวังว่าจะฟิชชิงผู้คนทันที
Chris Steffen ผู้อำนวยการฝ่ายวิจัยของ Enterprise Management Associates ยืนยันมากเมื่อให้สัมภาษณ์กับ CNBC โดยระบุว่า "หมดยุคของ 'เจ้าชายแห่งไนจีเรีย' แล้ว" เขากล่าวต่อไปว่าขณะนี้อีเมล "มีความน่าเชื่อถือและฟังดูถูกต้องตามกฎหมายอย่างยิ่ง" ผู้ไม่ประสงค์ดีจะเลียนแบบและแอบอ้างบุคคลอื่นโดยใช้น้ำเสียงและลีลาการโน้มน้าวใจ หรือแม้แต่ส่งจดหมายโต้ตอบที่ดูเป็นทางการซึ่งดูเหมือนว่ามาจากหน่วยงานรัฐบาลและผู้ให้บริการทางการเงิน พวกเขาสามารถทำได้ดีกว่าเดิมโดยใช้เครื่องมือ AI ในการวิเคราะห์งานเขียนและข้อมูลสาธารณะของบุคคลหรือองค์กรเพื่อปรับแต่งข้อความ ทำให้อีเมลและการสื่อสารดูเหมือนของจริง
ยิ่งไปกว่านั้น ยังมีหลักฐานว่ากลยุทธ์เหล่านี้ได้รับผลตอบแทนจากผู้ไม่ประสงค์ดีแล้ว Harr อ้างถึงรายงานอาชญากรรมทางอินเทอร์เน็ตของ FBI ซึ่งถูกกล่าวหาว่าการโจมตีแบบ BEC ทำให้ธุรกิจต้องสูญเสียเงินประมาณ 2.7 พันล้านดอลลาร์ พร้อมด้วยการสูญเสีย 52 ล้านดอลลาร์จากฟิชชิ่งประเภทอื่น Motherlode นั้นมีกำไรมาก และผู้หลอกลวงก็มีแรงจูงใจที่จะเพิ่มความพยายามในการฟิชชิ่งและ BEC ของพวกเขา
จะต้องทำอย่างไรเพื่อล้มล้างภัยคุกคาม
ผู้เชี่ยวชาญและยักษ์ใหญ่ด้านเทคโนโลยีบางรายตอบโต้ โดย Amazon, Google, Meta และ Microsoft ให้คำมั่นว่าพวกเขาจะดำเนินการทดสอบเพื่อต่อสู้กับความเสี่ยงด้านความปลอดภัยทางไซเบอร์ นอกจากนี้ บริษัทต่างๆ ยังใช้ประโยชน์จาก AI ในเชิงป้องกัน โดยใช้เพื่อปรับปรุงระบบการตรวจจับ ตัวกรอง และอื่นๆ Harr ย้ำว่าการวิจัยของ SlashNext เน้นย้ำว่าสิ่งนี้รับประกันได้อย่างสมบูรณ์ เนื่องจากอาชญากรไซเบอร์ใช้เครื่องมือเช่น ChatGPT เพื่อโจมตีเหล่านี้อยู่แล้ว
SlashNext พบ BEC ในเดือนกรกฎาคมที่ใช้ ChatGPT พร้อมด้วย WormGPT WormGPT เป็นเครื่องมืออาชญากรรมในโลกไซเบอร์ที่ได้รับการเผยแพร่ว่าเป็น “ทางเลือกหมวกดำสำหรับรุ่น GPT ที่ออกแบบมาโดยเฉพาะสำหรับกิจกรรมที่เป็นอันตราย เช่น การสร้างและเปิดการโจมตี BEC” ตาม Harr มีรายงานว่า Chatbot ที่เป็นอันตรายอีกตัวหนึ่งคือ FraudGPT ก็ถูกเผยแพร่เช่นกัน Harr กล่าวว่า FraudGPT ได้รับการโฆษณาว่าเป็นเครื่องมือ 'พิเศษ' ที่ออกแบบมาสำหรับผู้ฉ้อโกง แฮกเกอร์ ผู้ส่งอีเมลขยะ และบุคคลที่คล้ายกัน โดยมีรายการฟีเจอร์มากมาย
ส่วนหนึ่งของการวิจัยของ SlashNext คือการพัฒนา AI “การแหกคุก” ซึ่งเป็นการโจมตีแชทบอท AI ที่ออกแบบมาอย่างชาญฉลาด ซึ่งเมื่อเข้ามาจะทำให้ระบบรักษาความปลอดภัยและความถูกต้องตามกฎหมายของแชทบอท AI ถูกลบออกไป นี่เป็นประเด็นสำคัญในการสืบสวนในสถาบันวิจัยที่เกี่ยวข้องกับ AI หลายแห่ง
บริษัทและผู้ใช้ควรดำเนินการอย่างไร
หากคุณรู้สึกว่าสิ่งนี้อาจเป็นภัยคุกคามร้ายแรงทั้งในด้านอาชีพการงานหรือส่วนตัว คุณก็พูดถูก แต่ก็ไม่ได้สิ้นหวังไปซะหมด ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์กำลังระดมความคิดหาวิธีตอบโต้และตอบสนองต่อการโจมตีเหล่านี้ มาตรการหนึ่งที่หลายบริษัทดำเนินการคือการให้ความรู้และการฝึกอบรมผู้ใช้ปลายทางอย่างต่อเนื่องเพื่อดูว่าพนักงานและผู้ใช้ถูกจับตามองโดยอีเมลเหล่านี้หรือไม่
ปริมาณอีเมลที่น่าสงสัยและกำหนดเป้าหมายที่เพิ่มขึ้นหมายความว่าการแจ้งเตือนที่นี่และที่นั่นอาจไม่เพียงพออีกต่อไป และขณะนี้บริษัทต่างๆ จะต้องฝึกฝนอย่างต่อเนื่องอย่างมากในการทำให้ผู้ใช้ตระหนักถึงความปลอดภัย ผู้ใช้ปลายทางไม่ควรได้รับการเตือนเท่านั้น แต่ยังควรได้รับการสนับสนุนให้รายงานอีเมลที่ดูเป็นการฉ้อโกงและหารือเกี่ยวกับข้อกังวลที่เกี่ยวข้องกับความปลอดภัยด้วย สิ่งนี้ไม่เพียงนำไปใช้กับบริษัทและการรักษาความปลอดภัยทั่วทั้งบริษัทเท่านั้น แต่ยังใช้กับเราในฐานะผู้ใช้รายบุคคลด้วยเช่นกัน หากยักษ์ใหญ่ด้านเทคโนโลยีต้องการให้เราเชื่อถือบริการอีเมลของตนสำหรับความต้องการอีเมลส่วนตัวของเรา พวกเขาจะต้องสร้างการป้องกันต่อไปด้วยวิธีเหล่านี้
เช่นเดียวกับการเปลี่ยนแปลงระดับวัฒนธรรมในธุรกิจและบริษัทต่างๆ Steffen ยังย้ำถึงความสำคัญของเครื่องมือกรองอีเมลที่สามารถรวมความสามารถของ AI และช่วยป้องกันไม่ให้ข้อความที่เป็นอันตรายส่งถึงผู้ใช้ เป็นการต่อสู้ที่ไม่มีวันจบสิ้นซึ่งต้องมีการทดสอบและการตรวจสอบอย่างสม่ำเสมอ เนื่องจากภัยคุกคามมีการพัฒนาอยู่เสมอ และเมื่อความสามารถของซอฟต์แวร์ AI พัฒนาขึ้น ภัยคุกคามที่ใช้สิ่งเหล่านี้ก็จะเพิ่มขึ้นเช่นกัน
บริษัทต่างๆ ต้องปรับปรุงระบบรักษาความปลอดภัยของตน และไม่มีโซลูชันเดียวที่สามารถจัดการกับอันตรายทั้งหมดที่เกิดจากการโจมตีทางอีเมลที่สร้างโดย AI ได้อย่างเต็มที่ Steffen อธิบายว่ากลยุทธ์ Zero-trust สามารถช่วยเติมเต็มช่องว่างการควบคุมที่เกิดจากการโจมตี และช่วยป้องกันองค์กรส่วนใหญ่ ผู้ใช้แต่ละรายควรตื่นตัวมากขึ้นต่อความเป็นไปได้ที่จะถูกฟิชชิงและถูกหลอก เนื่องจากมีเพิ่มมากขึ้น
การมองโลกในแง่ร้ายเกี่ยวกับปัญหาประเภทนี้อาจเป็นเรื่องง่าย แต่เราสามารถระวังสิ่งที่เราเลือกที่จะคลิกได้มากขึ้น ใช้เวลาสักครู่แล้วตรวจสอบข้อมูลทั้งหมด คุณสามารถค้นหาที่อยู่อีเมลที่คุณได้รับอีเมลใดฉบับหนึ่งและดูว่ามีใครมีปัญหาที่เกี่ยวข้องหรือไม่ มันเป็นโลกออนไลน์ที่ยุ่งยาก และคุ้มค่ามากขึ้นที่จะรักษาสติปัญญาของคุณไว้