• 15 April 2024

การ์ทเนอร์ คาดการณ์ “Deepfakes” ที่เทคโนโลยีปัญญาประดิษฐ์ หรือ เอไอ เป็นผู้สร้างขึ้นจะทำให้อีกสองปีการใช้โซลูชันการยืนยันและพิสูจน์ตัวตนแบบเดิมๆ ไม่น่าเชื่อถืออีกต่อไป

ในปี 2569 การโจมตีแบบ Deepfakes ที่สร้างโดยปัญญาประดิษฐ์กับเทคโนโลยีระบุตัวตนบนใบหน้าหรือ Face Biometrics เป็นเหตุให้องค์กรประมาณ 30% มองว่าโซลูชันการยืนยันและพิสูจน์ตัวตนจะไม่น่าเชื่อถืออีกต่อไปหากนำมาใช้แบบเอกเทศ

อากิฟ ข่าน รองประธานฝ่ายวิจัย การ์ทเนอร์ กล่าวว่า ช่วงทศวรรษที่ผ่านมา มีจุดเปลี่ยนสำคัญด้านเอไอเกิดขึ้นหลายประการ ซึ่งนั่นทำให้เกิดการสร้างภาพสังเคราะห์ขึ้นได้

ภาพใบหน้าคนจริง ๆ ที่สร้างขึ้นเหล่านี้ หรือที่เรียกว่า “Deepfakes” นั้น เปิดโอกาสให้ผู้ไม่ประสงค์ดีสามารถนำมาใช้เพื่อทำลายระบบการพิสูจน์ทราบตัวตนด้วยไบโอเมตริกซ์หรือทำให้ระบบใช้การได้อย่างไม่มีประสิทธิภาพ

Free Eye Iris illustration and picture

ผลที่ตามมาก็คือ องค์กรต่าง ๆ อาจเริ่มตั้งคำถามถึงความน่าเชื่อถือของโซลูชันการยืนยันและพิสูจน์ตัวตน เนื่องจากไม่สามารถบอกได้ว่าใบหน้าบุคคลที่ได้รับการยืนยันนั้นเป็นบุคคลที่มีชีวิตจริงหรือเป็นของปลอมกันแน่

จากข้อมูลระบุว่า กระบวนการยืนยันและพิสูจน์ตัวตนโดยใช้เทคโนโลยีไบโอเมตริกซ์บนใบหน้าอาศัยการตรวจจับการโจมตีหลอก หรือ Presentation Attack Detection (PAD) เพื่อประเมินการมีชีวิตอยู่จริงของผู้ใช้

ผลการวิจัยโดยการ์ทเนอร์ชี้ว่า การโจมตีแบบ Presentation Attack ที่เป็นการปลอมแปลงข้อมูลอัตลักษณ์ทางกายภาพของบุคคลเป็นการโจมตีที่พบบ่อยที่สุด 

อย่างไรก็ตามการโจมตีแบบ Injection Attack ที่เป็นการแทรกโค้ดลงในโปรแกรมหรือแบบสอบถาม หรือมัลแวร์ในคอมพิวเตอร์เพื่อควบคุมคำสั่งผ่านระยะไกลในปี 2566 มีอัตราเพิ่มขึ้นถึง 200%

ดังนั้นเพื่อป้องกันการโจมตีดังกล่าวองค์กรจะต้องใช้การตรวจจับการโจมตีแบบ Injection Attack Detection (IAD) และการตรวจสอบภาพหรือ Image Inspection ร่วมด้วย

ที่มาข้อมูลและรูปภาพจาก กรุงเทพธุรกิจ

เขียนโดย แอดมินแพท

Leave a Reply

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *