การพัฒนาอย่างรวดเร็วของโมเดล AI อย่าง ChatGPT, Gemini, Claude และอื่นๆ ที่อิงจากโมเดลการประมวลด้วยผลภาษาธรรมชาติ (Natural Language) กำลังสร้างการเปลี่ยนแปลงครั้งใหญ่ในบริบทของการสแกม (Scam) หรือการหลอกลวงออนไลน์ด้วย AI Deepfake ธุรกิจต่างๆ จึงต้องเผชิญกับคำถามสำคัญที่ว่า เครื่องมือเหล่านี้มีศักยภาพอะไรบ้าง และจะเกิดความเสี่ยงอะไรบ้าง หากความสามารถของ AI ตกไปอยู่ในมือของเหล่าสแกมเมอร์
ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ (Cybersecurity) ต่างเตือนว่า ปัญหาเรื่องการหลอกลวงจะรุนแรงขึ้นเมื่ออาชญากรสามารถใช้ประโยชน์จาก Generative AI เพื่อสร้างกลการหลอกลวงที่มีความซับซ้อนมากขึ้น นอกจากนี้ AI Deepfakes ยังสามารถใช้เพื่อเผยแพร่ข่าวปลอม จัดการราคาหุ้น หรือแม้แต่ทำลายชื่อเสียงขององค์กรและรายได้ของบริษัท
ระบบการตรวจจับและป้องกันการฉ้อโกงแบบเดิมอย่างไฟร์วอลล์ (Firewall) อาจด้อยประสิทธิภาพและไม่สามารถรับมือกับภัยคุกคามสมัยใหม่ เนื่องด้วยการเพิ่มขึ้นของการฉ้อโกงรูปแบบใหม่ที่ใช้ประโยชน์จาก AI โดยรายงานจาก CNBC ได้กล่าวถึงศักยภาพของการฉ้อโกงด้วย AI ที่ใช้ Deepfake และการลงทุนหลายล้านดอลลาร์เพื่อพัฒนากลยุทธ์การหลอกลวงที่มีความซับซ้อนมากยิ่งขึ้น ซึ่งการป้องกันที่มีประสิทธิภาพต้องอาศัยเครื่องมือและโซลูชันสมัยใหม่อย่าง Next-Generation Firewall (NGFW) หรือระบบ ZTNA (Zero Trust Network Access) เป็นต้น
รายงานจาก CNBC ได้รวบรวมสถิติที่น่าสนใจ ดังนี้
- พนักงานสถาบันทางการเงินแห่งหนึ่งในฮ่องกงถูกหลอกให้โอนเงินจำนวน 25 ล้านดอลลาร์ให้กับผู้มิจฉาชีพที่ใช้เทคโนโลยี AI Deepfake ซึ่งปลอมเป็นหัวหน้าเจ้าหน้าที่การเงิน (CFO) ของบริษัท และหลอกให้พนักงานโอนเงินผ่านวิดีโอคอล
- ในอีกกรณีหนึ่งที่คล้ายกันในประเทศจีน พนักงานสถาบันทางการเงินถูกหลอกให้โอนเงินจำนวน 1.86 ล้านหยวนจีน (ประมาณ 262,000 ดอลลาร์) ไปยังบัญชีของมิจฉาชีพ หลังจากวิดีโอคอลกับ AI Deepfake ที่ปลอมตัวเป็นหัวหน้า
- ในปี 2019 ซีอีโอของบริษัทพลังงานในอังกฤษถูกหลอกให้โอนเงินจำนวน €220,000 (ประมาณ 238,000 ดอลลาร์) ให้กับมิจฉาชีพที่เลียนแบบเจ้าของบริษัทแม่ด้วยเทคโนโลยี Deepfake
ซีอีโอบริษัท Mandiant เรียกร้องถึงการรับมือกับอาชญากรไซเบอร์
คุณ Kevin Mandia ซีอีโอบริษัท Mandiant องค์กรผู้ให้บริการด้าน Cybersecurity ภายใต้ Google Cloud ได้มากล่าวถึงเทคโนโลยี Deepfake และ AI ในการประชุม RSA 2024 จัดขึ้นในซานฟรานซิสโก
โดยในการแถลงต่อ DarkReading เขากล่าวว่า
- เพื่อต่อกรกับเทคโนโลยี Deepfake ที่ซับซ้อน คอนเทนต์ครีเอเตอร์ควรฝัง "ลายน้ำ" (Watermarks) พร้อมกับข้อมูล Metadata ที่ไม่สามารถเปลี่ยนแปลงได้ พร้อมใบรับรองดิจิทัล และไฟล์ที่ลงลายเซ็น เพื่อรับประกันความเป็นจริงของข้อมูล
- คุณ Mandia ยังได้กล่าวอีกว่า ตอนนี้ถึงเวลาแล้วที่จะเพิ่มความเสี่ยงให้กับเหล่าอาชญากรไซเบอร์ โดยได้แนะนำให้เพิ่มการแบ่งปันการระบุตัวตน (Sharing Attribution) เพื่อเพิ่มความเสี่ยงสำหรับอาชญากรไซเบอร์ที่หวังโจมตีองค์กร
Lohrman: AI Deepfake เป็นความเสี่ยงขนาดใหญ่ที่ต้องใช้แนวทางป้องกันแบบองค์รวม
In another statement from Dan Lohrman, who is an internationally recognized cybersecurity leader, keynote speaker, and author. In his Cybersecurity blog with Government Technology, He shared:
- AI Deepfake has become a major cybersecurity threat for governmental organizations. With carefully articulated fake messages and sophisticated videos that are extremely difficult to interpret.
- Traditional security awareness is no longer enough. We need a more holistic approach to “Human Risk Management” to change the security culture and empower employees to detect and report cyber threats.
- Specific measures need to be taken to (re)train employees at all levels to identify inconsistencies in deep fakes. It is essential to provide them with tools and processes to verify message authenticity and leverage AI-based enterprise-level technologies to automatically detect deepfake scams and fraudulent content.
Lohrman: AI Deepfake เป็นความเสี่ยงขนาดใหญ่ที่ต้องใช้แนวทางป้องกันแบบองค์รวม
Dan Lohrman หนึ่งในผู้นำด้านความปลอดภัยทางไซเบอร์ที่ได้รับการยอมรับในระดับนานาชาติ ได้กล่าวถึง AI Deepfake ในบทความของเขากับ Government Technology ว่า
- AI Deepfake ได้กลายเป็นภัยคุกคามด้านความปลอดภัยทางไซเบอร์ที่เป็นอันตรายต่อองค์กรภาครัฐอย่างมาก เนื่องด้วยข้อความปลอมที่สร้างขึ้นอย่างแนบเนียนและวิดีโอ AI แยกแยะจากวิดีโอจริงได้ยาก
- การรักษาความปลอดภัยแบบดั้งเดิมนั้นไม่เพียงพอ องค์กรต้องการแนวทางที่องค์รวมมากขึ้นในการจัดการ “ความเสี่ยงจากมนุษย์" (Human Risk) เพื่อสร้างวัฒนธรรมองค์กรที่ความปลอดภัยและเสริมทักษะให้พนักงานสามารถตรวจจับและรายงานภัยคุกคามไซเบอร์
- องค์กรควรวางมาตรการฝึกอบรมพนักงานในทุกระดับให้สามารถระบุเนื้อหาที่มาจาก AI Deepfake สิ่งสำคัญคือต้องมอบเครื่องมือและกระบวนการการตรวจสอบความถูกต้องของข้อความ และใช้ประโยชน์จากเทคโนโลยี AI-Based ระดับองค์กร เพื่อตรวจจับการหลอกลวงด้วย Deepfake และเนื้อหาฉ้อโกงโดยอัตโนมัติ
AI Deepfake คืออะไร?
เราสามารถให้คำนิยามง่ายๆ ได้ว่า AI Deepfake คือ ภาพ คลิปวิดีโอ หรือคลิปเสียงที่สร้างขึ้นจาก Machine Learing รูปแบบหนึ่งที่เรียกว่า Deep Learning หรือ "การเรียนรู้เชิงลึก" โดยเทคโนโลยี Deepfake ถูกนำมาใช้สำหรับการวิจัยทางวิทยาศาสตร์เป็นส่วนใหญ่ แต่เทคโนโลยีนี้ยังสามารถนำไปใช้งานเพื่อสร้างเนื้อหาปลอม หรือปลอมแปลงตัวตนเป็นบุคคลที่มีชื่อเสียง เช่น นักการเมือง ผู้นำประเทศ ดารา และอื่นๆ เพื่อหลอกลวงผู้คนโดยเจตนา
เทคโนโลยี Deepfake และหลักทำงาน
เทคโนโลยี Deepfake สามารถเชื่อมข้อมูลของบุคคลใดก็ตามในโลกเข้าไปในวิดีโอหรือภาพถ่าย โดยที่พวกเขาเหล่านั้นไม่เคยมีส่วนร่วมหรือไม่เคยมีอยู่จริงในตอนแรก เทคโนโลยีเกิดขึ้นโดยการใช้อัลกอริทึมการเรียนรู้เชิงลึก ในทางเทคนิค Deep Learing มีลักษณะคล้ายกับ Machine Learning ซึ่งเมื่ออัลกอริทึมได้รับตัวอย่าง ก็จะเรียนรู้และผลิตเนื้อหาที่คล้ายคลึงกับตัวอย่างนั้นๆ ออกมา เช่นเดียวกับรูปแบบการเรียนรู้ของมนุษย์ อย่างการที่เด็กทารกพยายามหยิบสิ่งของต่างๆ เข้าปาก เพื่อพิสูจน์ดูว่าอะไรที่กินได้หรือกินไม่ได้นั่นเอง
Machine Learning ถือเป็นหนึ่งองค์กรประกอบสำคัญในการสร้างเนื้อหา Deepfake ซึ่งมีส่วนช่วยเพิ่มความเร็วและลดต้นทุนในการสร้าง โดยในการทำวิดีโอ D eepfake ของใครบางคน ผู้สร้างจำเป็นต้องฝึก Neural Network ด้วยการป้อนวิดีโอของบุคคล (เหยื่อ) เพื่อให้ AI เรียนรู้ลักษณะหน้าตาของบุคคลนั้นๆ นอกจากนี้ อาจมีการป้อนข้อมูลวิดีโอเพิ่มเติมที่มีรายละเอียดใบหน้าหลายมุมและมีสภาพแสงที่แตกต่างกัน เพื่อให้ Deep Learning มีประสิทธิภาพมากที่สุด หลังจากนั้น พวกเขาจะรวมเครือข่ายที่ฝึกแล้วเข้ากับกราฟิกที่สร้างด้วยคอมพิวเตอร์ เพื่อวางใบหน้าของบุคคลนั้นๆ (เหยื่อ) ทับใบหน้าของอีกคน (มิจฉาชีพ) นั่นเอง
ตัวอย่างเหตุการณ์การหลอกลวงด้วย AI Deepfake
การฉ้อโกงด้วย Deepfake ได้กลายเป็นเหตุการณ์ที่แพร่หลายมากขึ้นในช่วงไม่กี่ปีที่ผ่านมา โดยมีกรณีการหลอกลวงด้วย AI ที่ได้รับความสนใจ ดังนี้
โฆษณา Taylor Swift ของปลอมที่สร้างขึ้นด้วย AI
บทความจาก NBC News ได้กล่าวถึงคลิปวิดีโอปลอมที่สร้างด้วย AI ที่ใช้ความรูปลักษณ์ของ Taylor Swift เพื่อโปรโมตชุดเครื่องครัว Le Creuset โดยโฆษณาดังกล่าวได้เลียนแบบเสียงของ Taylor อย่างแนบเนียน ประกอบกับภาพถ่ายเครื่องครัว เนื้อหาในโฆษณาระบุว่าเนื่องจากข้อผิดพลาดในการบรรจุสินค้า จึงมีชุดเครื่องครัว 3,000 ชุดที่ถูกแจกฟรีให้กับแฟนคลับของ Taylor Swift
โฆษณานี้ถูกโพสต์บนเพจ Facebook ที่ชื่อว่า "The Most Profitable Shares" และมียอดรับชมกว่า 2,300 ครั้ง ก่อนที่จะถูก Meta นำออกไป ทั้งนี้ บริษัท Le Creuset ให้การปฏิเสธการมีส่วนร่วม และระบุว่าพวกเขาไม่ได้เกี่ยวข้องกับโฆษณาหรือการแจกสินค้าตามที่กล่าว และโปรโมชันทั้งหมดของแบรนด์นั้นถูกจัดการโดยบัญชีอย่างเป็นทางการเท่านั้น
ยังมีเหตุการณ์ที่ใช้ AI Deepfake เลียนแบบดาราคนอื่นๆ อย่าง Scarlett Johansson และ Tom Hanks อีกด้วย เหตุการณ์เหล่านี้บ่งชี้ให้เห็นว่าเทคโนโลยี Deepfake นั้นเข้าถึงได้ง่ายขึ้น โดยเฉพาะในช่วงไม่กี่ปีที่ผ่านมา ส่งผลให้เกิดความกังวลว่าจะมีการนำไปใช้ในการหลอกลวง การสร้าง Deepfake โดยไม่ได้รับอนุญาต หรือยุยงให้เกิดประเด็นทางการเมือง
Deepfakes ใช้ในการฉ้อโกงความรักทำให้เหยื่อสูญเสียมากกว่า 650 ล้านดอลลาร์
WIRED ได้เผยแพร่บทความที่กล่าวว่า มิจฉาชีพใช้เทคโนโลยีการสลับใบหน้า (Face-Swapping) อย่างไรเพื่อดำเนินการ Romance Scam ที่มีความซับซ้อน โดย Yahoo Boys เป็นกลุ่มสแกมเมอร์ที่ในประเทศไนจีเรียที่เชี่ยวชาญด้านการดำเนินการ Romance Scam ซึ่ง Yahoo Boys ได้พัฒนาทดลองวิดีโอ Deepfake มานานกว่า 2 ปี ส่งผลให้ในช่วงปีที่ผ่านมา พวกสามารถหลอกลวงเหยื่อผ่านวิดีโอคอลด้วย Deepfake แบบเรียลไทม์ได้มากขึ้น กลุ่มสแกมเมอร์นี้ยังมีทักษะในการชักจูงเหยื่อ ด้วยการสร้างความไว้วางใจ ก่อนที่จะหลอกล่อให้โอนเงินจำนวนมาก แม้วิดีโอส่วนใหญ่ที่กลุ่ม Yahoo Boys สร้างขึ้นจะดูไม่สมจริง แต่ก็มีบางวิดีโอที่สามารถใช้ในการหลอกเหยื่อได้ โดยเฉพาะเมื่อมีการนำเทคนิค Social Engineering มาใช้กับเหยื่อเป็นระยะเวลาหนึ่ง จากการรายงานของ FBI พบว่า มีการสูญเงินกว่า 650 ล้านดอลลาร์ให้กับ Romance Scam และคาดว่าจะสูงขึ้นตามความก้าวหน้าของเทคโนโลยี AI Deepfake
Celebrity AI Scam: รู้ทันกลยุทธ์การหลอกลวงด้วยภาพดาราและการป้องกันตนเอง
บทความที่โพสต์โดย VERIFYThis กล่าวถึงวิดีโอ Deepfake ที่ถูกแชร์ต่อๆ กันบนโซเชียลมีเดีย ซึ่งใช้รูปลักษณ์ของดาราที่มีชื่อเสียงอย่าง Selena Gomes, Jennifer Aniston และ Taylor Swift โดยเนื้อหาในวิดีโอแสดงให้เห็นว่าดาราเหล่านี้กำลังนำเสนอผลิตภัณฑ์ แต่ในความจริงกลับเป็นวิดีโอปลอมที่สร้างด้วยซอฟต์แวร์ AI-Based อีกทั้งสแกมเมอร์ได้อาศัยการสัมภาษณ์ของ The Wall Street Journal และ Vogue เพื่อฝึกซอฟต์แวร์ในการสร้าง Deepfakes ที่เสมือนจริงของดาราเหล่านั้น นอกจากนี้ บทความดังกล่าวยังแบ่งปันเคล็ดลับสำหรับการสังเกตวิดีโอปลอม เช่น การสังเกตการเคลื่อนไหวของร่างกาย ภาพพื้นหลัง แหล่งที่มา และบริบทของเนื้อหา โดยมีข้อแนะนำให้ทำการค้นหาภาพย้อนกลับ (Reverse Image Seach) และการตรวจสอบลิงก์ก่อนคลิกเปิดอีกด้วย
การสแกมด้วย Deepfake ที่มุ่งเป้าหลายไปยังซีอีโอของ WPP ด้วยการเลียนแบบเสียง
จากรายงานโดย The Guardian ซีอีโอของกลุ่มบริษัทโฆษณาที่ใหญ่ที่สุดในโลกอย่าง WPP ตกเป็นเป้าหมายของการเลียนแบบด้วยเนื้อหา Deepfake โดยที่สแกมเมอร์ได้ใช้ AI เพื่อเลียนเสียงและใบหน้าของของซีอีโอ Mark Read เพื่อปลอมแปลงตัวตนในการประชุมผ่าน Microsoft Teams ซึ่งสแกมเมอร์พยายามขอเงินและข้อมูลส่วนตัวบุคคลจากผู้นำภายในหน่วยงาน โดยขอให้พวกเขาจัดตั้งธุรกิจใหม่ อย่างไรก็ตาม ความพยายามในการหลอกลวงดังกล่าวนั้นไม่สำเร็จ และ WPP ยืนยันว่าไม่มีความเสียหายทางการเงินแต่อย่างใด
การหลอกลวงด้วย Deepfake ในลักษณะดังกล่าวมีจำนวนเพิ่มขึ้นอย่างมหาศาล การโคลนเสียงด้วย AI สามารถหลอกล่อให้ธนาคารและสถาบันการเงินสูญเสียเงินจำนวนมาก ส่งผลให้ธุรกิจหลายแห่งลงทุนเร่งพัฒนาเทคโนโลยี AI รวมถึงพยายามต่อกรกับ AI และอันตรายที่อาจเกิดขึ้นจาก AI ไปพร้อมๆ กัน เนื่องด้วยเทคโนโลยี Deepfake เป็นที่เข้าถึงง่ายขึ้น การเลียนแบบเสียงของบุคคลที่น่าเชื่อจึงมีความสมจริงมากขึ้น โดยอาศัยการวิเคราะห์คลิปเสียงเพียงไม่กี่นาทีเท่านั้น
อาชญากรไซเบอร์ใช้ AI ในการขโมยเงิน 243,000 ล้านดอลลาร์จากบริษัทพลังงานของอังกฤษ
Trend Micro บริษัทความปลอดภัยที่มีชื่อเสียง ได้เผยแพร่บทความที่โดยพูดถึง กรณีการหลอกลวงซีอีโอผ่าน เนื้อหาเสียงจาก Deepfake ซึ่งส่งผลให้บริษัทพลังงานแห่งหนึ่งในอังกฤษสูญเสียงเงินถึง 243,000 ล้านดอลลาร์ โดยมีการระบุว่า สแกมเมอร์ได้ใช้ซอฟต์แวร์ AI เพื่อเลียนแบบเสียงของซีอีโอของบริษัทแม่ที่ตั้งอยู่ในเยอรมนี และหลอกล่อให้พนักงานโอนเงินด่วนไปยังซัพพลายเออร์ที่ฮังการี จากนั้น เงินดังกล่าวถูกโอนไปยังบัญชีที่ประเทศเม็กซิโกและสถานที่อื่นๆ ในภายหลัง
อย่างไรก็ตามแม้จะมีวิธีการโจมตีทางไซเบอร์รูปแบบใหม่ แต่ลักษณะการโจมตีทางไซเบอร์แบบดั้งเดิมยังคงแพร่หลาย เช่น การฟิชชิง (Phishing) และการโจมตีแบบ Business Email Compromise (BEC) ซึ่งอาจช่วยให้อาชญากรไซเบอร์ขโมยเงินได้ถึง 301 ล้านดอลลาร์ต่อเดือน นอกจากนี้ยังมีภัยคุกคามอย่าง Ransomware หรือมัลแวร์เรียกค่าไถ่ที่แฮกเกอร์สามารถเพื่อเข้ารหัสไฟล์ (Encryption) และเรียกค่าไถ่จากองค์กรเพื่อปลอดล็อกไฟล์ดังกล่าว
ดังนั้น เพื่อไม่ให้ตกเป็นเหยื่อของการโจมตีแบบ BEC สิ่งสำคัญคือต้องมองหาสัญญาณเตือนในธุรกรรมทางธุรกิจ ตรวจสอบอีเมลอย่างละเอียด และใช้เครื่องมือความปลอดภัยที่ตรวจจับลิงก์และอีเมลที่น่าสงสัยโดยอัตโนมัติ เช่น Endpoint Detection and Response (EDR) หรือ Managed Detection and Response (MDR)
บริษัทฮ่องกงถูกหลอกลวงด้วยเทคโนโลยี Deepfake สูญเงินถึง 25.7ล้านดอลลาร์
ตามรายงานที่เผยแพร่โดย Bank Info Security มีเหตุการณ์ที่มิจฉาชีพประสบความสำเร็จในการหลอกลวงพนักงานของบริษัทข้ามชาติที่ตั้งอยู่ในฮ่องกง โดยหลอกให้พนักงานโอนเงินจำนวน 200 ล้านดอลลาร์ฮ่องกง หรือ 25.7 ล้านดอลลาร์สหรัฐไปยังบัญชีของพวกเขาด้วยเทคโนโลยี Deepfake ซึ่งสแกมเมอร์ได้สร้างวิดีโอปลอมและติดต่อพนักงานผ่านการประชุมออนไลน์ โดยพวกปลอมตัวเป็น CFO ของบริษัท และสั่งให้พนักงานทำธุรกรรมทางการเงินที่เป็นความลับไปยังบัญชีที่ไม่เปิดเผย พนักงานที่ถูกหลอกทำธุรกรรมถึง 15 ครั้ง โดยแยกไปยังบัญชีธนาคารมากถึงห้าบัญชี
จากากรหลอกลวงดังกล่าว ตำรวจฮ่องกงได้ประกาศเตือนเกี่ยวกับกลยุทธ์หลอกลวงที่เกี่ยวข้องกับการใช้เทคโนโลยี AI ในการประชุมออนไลน์
พนักงานในมณฑลส่านซี ประเทศจีน ตกเป็นเหยื่อของ Deepfake สูญเงินถึง 258,000 ดอลลาร์
การหลอกลวงด้วย Deepfake อีกกรณีหนึ่งเกิดขึ้นที่มณฑลส่านซีของจีน ที่ผู้มิจฉาชีพใช้ AI เพื่อปลอมตัว ตามที่กล่าวในบทความ China Daily HK พนักงานสถาบันทางการเงินถูกหลอกให้โอนเงินจำนวน 1.86 ล้านหยวน (เทียบเท่า 258,000 ดอลลาร์) ให้กับมิจฉาชีพที่ปลอมตัวเป็นหัวหน้าผ่านการวิดีโอคอล โดยพนักงานได้รายงานต่อตำรวจทันทีหลังพบว่าบุคคลดังกล่าวเป็นมิจฉาชีพ อย่างไรก็ตาม ตำรวจและหน่วยงานที่เกี่ยวข้องสามารถยึดเงินคืนได้เพียง 1.56 ล้านหยวนจากจำนวนเงินทั้งหมด
การหลอกลวง Deepfake ในด้านการเมือง - กรณีการเลือกตั้งอินโดนีเซียและ Imran Khan
มีการคาดการณ์ว่า AI Deepfake ถูกใช้งานในการเลือกตั้ง โดยนักการเมืองและคู่แข่งเพื่อแสวงหาผลประโยชน์ส่วนตัว พร้อมเผยแพร่ข่าวปลอมของนักการเมืองฝ่ายตรงข้าม ซึ่งจากรายงานของ CNBC เหตุการณ์การหลอกลวงด้วย Deepfake ทั่วโลกเพิ่มขึ้นเป็นจำนวน 10 แบบ Year-Over-Year (YoY) จากปี 2022—2023 โดยอ้างอิงตามข้อมูลของบริษัทตรวจสอบข้อมูล Sumsub
ในเหตุการณ์หนึ่งก่อนการเลือกตั้งในอินโดนีเซียในวันที่ 14 กุมภาพันธ์ 2024 มีวิดีโอหนึ่งปรากฏขึ้นบนโลกออนไลน์ โดยมีภาพของอดีตประธานาธิบดีอินโดนีเซีย Suharto ออกมาสนับสนุนให้คนลงคะแนนให้กับพรรคการเมืองที่เขาเคยเป็นหัวหน้า ซึ่งวิดีโอดังกล่าวได้กลายเป็นกระแสไวรัลบนโซเชียลมีเดียและมียอดวิวถึง 4.7 ล้านครั้งบน "X"
ในอีกหนึ่งกรณีที่คล้ายกัน มีการเผยแพร่คลิปวิดีโอ Deepfake ของ Imran Khan อดีตนายกรัฐมนตรีปากีสถาน ปรากฏขึ้นในช่วงเวลาของการเลือกตั้งระดับชาติที่มีข้อความเชิงยั่วยุว่า พรรคของเขาจะคว่ำบาตรและปฏิเสธการเลือกตั้งระดับชาติ ซึ่งไม่เป็นความจริงแต่อย่างใด
เนื้อหา Deepfake ที่ปลอมแปลงตัวตนของนักการเมืองและบุคคลภาครัฐกลายนั้นเริ่มมีให้พบเห็นมากขึ้น โดยเฉพาะในปี 2024 ทีถือเป็นปีการเลือกตั้งระดับโลกที่ใหญ่ที่สุดในประวัติศาสตร์ของมนุษยชาติ
วิธีป้องกัน AI Deepfake
จากที่กล่าวไปข้างต้น จะเห็นได้ชัดเจนว่า ภัยคุกคามอย่างการหลอกลวงผ่าน AI Deepfake กำลังเติบโตอย่างทวีคูณ พร้อมกับมีความสมจริงมากยิ่งขึ้น ในทางตรงกันข้าม ก็มีการกำลังพัฒนาเทคโนโลยีใหม่เพื่อต่อต้าน Deepfake และภัยคุกคามใหม่ๆ เช่นกัน สิ่งสำคัญคือต้องทำความคุ้นเคยกับเครื่องมือและเทคโนโลยี ประยุกต์ใช้เข้ากับการทำงานและการดำเนินชีวิตประจำวัน เพื่อป้องกันตัวเองจากการหลอกลวง ก่อกวน และความเสียหายจากเทคโนโลยี Deepfake
ปัจจุบัน มีวิธีการตรวจจับ AI Deepfake ด้วยวิธีและเทคนิคที่หลากหลาย โดยมีแนวทางที่เป็นที่นิยม ดังนี้
- เครื่องมือตรวจจับขั้นสูง (Advanced Detection Tools)
- การระบุตัวตนแบบดิจิทัลด้วย Biometric
- เทคโนโลยี AI และ Blockchain
เครื่องมือตรวจจับขั้นสูง
โซลูชันความปลอดภัยไซเบอร์ที่ขับเคลื่อนด้วย AI เหล่าอาศัยอัลกอริทึม AI เพื่อระบุความผิดปกติในวิดีโอและเสียง Deepfake อย่างละเอียด เช่น พฤติกรรมการกะพริบตาที่ผิดปกติ การขยับปากที่ไม่ตรงกับเสียง หรือการเคลื่อนไหวที่ผิดปกติ ฟันที่ดูเหมือนแถบสีขาว สีผิวที่ไม่เป็นธรรมชาติ หรือแสงในวิดีโอที่ไม่สอดคล้องกัน และอื่นๆ นอกจากนี้ยังมีเครื่องมือ Cybersecurity สมัยใหม่อย่าง NGFW และ Secure Web Gateway ที่สามารถผสานรวมเข้ากับฟีเจอร์การตรวจจับ AI Deepfake
การระบุตัวตนแบบดิจิทัลด้วย Biometric
มาดูกันว่าการตรวจจับ AI Deepfake ด้วยการใช้ไบโอเมตริก (Biometric) หรือข้อมูลทางชีวมิติได้อย่างไร
วิธีการตรวจจับด้วย Biometric | คำอธิบาย |
---|---|
การสแกนใบหน้า | สามารถใช้เพื่อเปรียบเทียบวิดีโอหรือภาพกับฐานข้อมูลของบุคคลนั้นๆ เพื่อตรวจสอบความถูกต้อง |
การสแกนลายนิ้วมือ | Deepfake เป็นเนื้อหาทางดิจิทัล และไม่สามารถหลอกเครื่องสแกนลายนิ้วมือได้ง่ายๆ อีกทั้ง เครื่องสแกน FP ยังใช้ความร้อนเพื่อประเมินว่านิ้วมือถูกวางบนเครื่องสแกนจริง |
การสแกนฝ่ามือ | การสแกนฝ่ามือนี้ จะสร้างภาพของรูปแบบหลอดเลือดดำในฝ่ามือและเปรียบเทียบกับข้อมูลที่มี โดยเทคโนโลยี AI Deepfake ยังไม่สามารถหลอกการสแกนฝ่ามือได้ |
การสแกนเส้นเลือด | เทคโนโลยีนี้สามารถยืนยันตัวตนบุคคลผ่านภาพของหลอดเลือดภายในร่างกายที่เป็นลักษณะเหมือนตาข่าย โดยนักวิจัยมอง AI Deepfake นั้นยังไม่สามารถปลอมแปลงข้อมูลนี้ได้ |
การสแกนม่านตา | เทคนิคด้านไบโอเมตริกจดจำรูปแบบของจอประสาทตา โดยใช้อุปกรณ์พิเศษเพื่อจับภาพความละเอียดสูง ซึ่งทำให้ยากที่จะเลียนแบบด้วยเทคโนโลยี Deepfake |
การสแกนคลื่นไฟฟ้าหัวใจ (ECG) | คลื่นสัญญาณไฟฟ้าหัวใจของแต่ละคนมีเอกลักษณ์มากพอที่ใช้สำหรับการระบุตัวตนผู้ใช้งาน ด้วยเทคนิคไบโอเมตริกที่ซับซ้อนนี้ ทำให้ Depfake ไม่สามารถปลอมแปลงได้นั่นเอง |
เทคโนโลยี AI และ Blockchain
ด้วยการผสานรวมเทคโนโลยี AI และ Blockchain เข้าด้วยกัน จึงมีความเป็นไปได้ที่จะสามารถตรวจสอบประวัติของเนื้อหาดิจิทัล โดย AI สามารถตรวจสอบความถูกต้องของเนื้อหากับข้อมูลที่ถูกบันทึกใน Blockchain ด้วยการมุ่งเน้นไปยังการระบุความแตกต่างหรือเนื้อหาที่ถูกดัดแปลง นอกจากนี้ การใช้ Data Loss Prevention ร่วมกับเทคโนโลยี Blockchain สามารถช่วยเสริมการป้องกันการรั่วไหลของข้อมูลที่อาจถูกนำไปใช้สร้าง AI Deepfake ได้อีกด้วย
มุมมองของผู้นำอุตสาหกรรมเกี่ยวกับการฉ้อโกง Deepfake
Hugh Thompson ประธานบริหารของการประชุม RSA เป็นหนึ่งในผู้เชี่ยวชาญชั้นนำด้านความปลอดภัยทางไซเบอร์ อีกทั้งยังเป็นสมาชิกของ Aspen Cyber Security Group และ STS Forum Council ได้แชร์ข้อมูลเชิงลึกต่อ Fortune.com ดังนี้
- ผู้คนกว่า 40,000 คนจาก 130 ประเทศคาดว่าจะเข้าร่วมการประชุม RSA ครั้งที่ 33 ซึ่งมีเนื้อหาเกี่ยวกับความปลอดภัยทางไซเบอร์ โดยเน้นที่ภัยคุกคามที่เกิดใหม่อย่างการหลอกลวงด้วยเทคโนโลยี Deepfake
- การหลอกลวงผ่าน AI Deepfake กำลังมีความซับซ้อนมากขึ้น ผู้โจมตีสามารถฝัง Backdoor เช่น XZ Utils ลงในแอปพลิเคชันที่ใช้กันทั่วไป ซึ่งมีศักยภาพในสร้างความเสียหายแก่บริษัทหลายพันแห่งหากไม่ถูกตรวจพบ
Securus Communications ได้โพสต์บทความที่มุ่งเน้นไปยังการเพิ่มขึ้นของ Deepfake ในภูมิทัศน์ด้านความปลอดภัยทางไซเบอร์ โดยในบทความได้แบ่งปันข้อมูลเชิงลึกดังต่อไปนี้
- ตามการสำรวจของ iProov การรับรู้ถึงเทคโนโลยี Deepfake ได้เติบโตอย่างมีนัยสำคัญจาก 13% เป็น 29% จากในปี 2019 ถึง 2022 อย่างไรก็ตาม 57% ของผู้คนเชื่อว่าพวกเขาสามารถระบุ Deepfake ได้ ซึ่งอาจไม่เป็นความจริง ในกรณีที่เนื้อหา Deepfake ถูกสร้างขึ้นอย่างดี การสำรวจยังระบุว่า 80% ของผู้คนมีแนวโน้มที่จะใช้บริการที่มีมาตรการต่อต้าน Deepfake
- บทความยังกล่าวถึงกฎหมายสหรัฐอเมริกา (US Law) ที่เรียกว่า DEEPFAKES Accountability Act ที่กำหนดว่าการสร้างหรือเผยแพร่เนื้อหา Deepfakes โดยไม่ได้รับความยินยอมหรือแจ้งเตือนที่เหมาะสมเป็นการกระทำที่ผิดกฎหมาย
- รัฐบาลอังกฤษกำลังร่างกฎหมายอาญาฉบับใหม่ผ่าน Criminal Justice Bill เพื่อลงโทษการถ่ายหรือบันทึกภาพส่วนตัวของผู้คนโดยไม่ได้รับความยินยอม
สรุป
การพัฒนาของเทคโนโลยี Genrative AI และ Deepfake อาจเป็นปัจจัยที่ก่อให้เกิดภัยคุกคามในรูปแบบของการหลอกลวงออนไลน์ที่มีความซับซ้อนและเสมือนจริงดั่งตัวอย่างที่ได้กล่าวถึงข้างต้น ซึ่งกล่าวได้ว่า Deepfake สามารถปลอมแปลงตัวตนของใครในโลกก็ได้ ตั้งแต่ผู้บริหารบริษัทไปจนถึงผู้นำทางการเมืองและผู้มีชื่อเสียง เพื่อหลอกล่อให้เหยื่อโอนเงินจำนวนมหาศาลหรือเผยแพร่ข่าวเท็จและข้อมูลผิดๆ
เพื่อต่อกรกับภัยคุกคามลักษณะนี้ จำเป็นต้องมีแนวทางการรักษาความปลอดภัยที่หลากหลาย โดยใช้เครื่องมือที่ขับเคลื่อนด้วย AI ด้าน Cybersecurity อีกทั้ง ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ชั้นนำยังย้ำเตือนอยู่เสมอว่า การโจมตีเหล่านี้กำลังพัฒนาให้มีความซับซ้อน มีต้นทุนต่ำลง และเข้าถึงได้ง่ายมากในขึ้นทุกๆ วัน พวกเขาเน้นยังย้ำถึงความสำคัญของการใช้มาตรการทางเทคนิคและการตอบสนองที่ใช้ประโยชน์จาก AI พร้อมฝึกอบรมเพิ่มการรับรู้และการสังเกต Deepfake ให้กับพนักงานทุกระดับเพื่อให้สามารถระบุการฉ้อโกงหรือการหลอกลวงก่อนที่จะเกิดขึ้นได้
ท้ายที่สุด หน่วยงานที่ปกครองและหน่วยงานกำกับดูแลต้องปรับปรุงกฎหมายเกี่ยวกับการปลอมแปลงดิจิทัลและการสร้างเนื้อหาโดยไม่ได้รับความยินยอมอย่างต่อเนื่อง เพราะด้วย AI Deepfake ที่มีความสมจริงมากขึ้นทุกวัน มาตรการเชิงรุกต่างๆ จึงควรช่วยคัดกรองเฉพาะเนื้อหาที่เป็นจริงและสร้างความไว้วางใจในสื่อออนไลน์สำหรับบุคคล ธุรกิจ และสังคมโดยรวม
สำหรับข้อมูลเพิ่มเติมเกี่ยวกับโซลูชัน Cybersecurity, Cloud Computing Hybrid และ SD-WAN ของ Sangfor สามารถเยี่ยมชมเว็บไซต์ของเราได้ที่ www.sangfor.com