Enison
ติดต่อ
  • หน้าแรก
  • บริการ
    • AI Hybrid BPO
    • แพลตฟอร์มจัดการลูกหนี้
    • แพลตฟอร์ม MFI
    • บริการสนับสนุนการสร้าง RAG
  • เกี่ยวกับ
  • บล็อก
  • ร่วมงานกับเรา

Footer

Enison

エニソン株式会社

🇹🇭

Chamchuri Square 24F, 319 Phayathai Rd Pathum Wan,Bangkok 10330, Thailand

🇯🇵

〒104-0061 2F Ginza Otake Besidence, 1-22-11 Ginza, Chuo-ku, Tokyo 104-0061 03-6695-6749

🇱🇦

20 Samsenthai Road, Nongduang Nua Village, Sikhottabong District, Vientiane, Laos

Services

  • AI Hybrid BPO
  • แพลตฟอร์มบริหารจัดการลูกหนี้
  • แพลตฟอร์ม MFI
  • บริการพัฒนา RAG

Support

  • ติดต่อ
  • ฝ่ายขาย

Company

  • เกี่ยวกับเรา
  • บล็อก
  • ร่วมงานกับเรา

Legal

  • ข้อกำหนดในการให้บริการ
  • นโยบายความเป็นส่วนตัว

© 2025-2026Enison Sole Co., Ltd. All rights reserved.

🇯🇵JA🇺🇸EN🇹🇭TH🇱🇦LO
5 ขั้นตอนวิธีดู Deepfake — คู่มือรับมือข่าวปลอมและเสียงสังเคราะห์จาก AI | บริษัท ยูนิ มอน จำกัด
  1. Home
  2. บล็อก
  3. 5 ขั้นตอนวิธีดู Deepfake — คู่มือรับมือข่าวปลอมและเสียงสังเคราะห์จาก AI

5 ขั้นตอนวิธีดู Deepfake — คู่มือรับมือข่าวปลอมและเสียงสังเคราะห์จาก AI

7 พฤษภาคม 2569
5 ขั้นตอนวิธีดู Deepfake — คู่มือรับมือข่าวปลอมและเสียงสังเคราะห์จาก AI

บทนำ

Deepfake หมายถึงสื่อที่สร้างขึ้นโดย Generative AI ไม่ว่าจะเป็นภาพ วิดีโอ หรือเสียง ซึ่งมีความแนบเนียนจนแยกไม่ออกว่าเป็นของจริงและถูกนำไปใช้เพื่อหลอกลวงผู้คน ในบทความนี้ เราจะสรุปวิธีสังเกต Deepfake ใน 5 ขั้นตอน พร้อมอธิบายวิธีรับมือกับข่าวปลอมจาก AI และการปลอมแปลงเสียง (Voice Clone) ขั้นตอนการตรวจสอบที่มาของสื่อด้วย C2PA / Content Credentials ไปจนถึงมาตรการป้องกันการฉ้อโกงด้วยการสวมรอย (BEC) ที่มุ่งเป้าไปยังองค์กร โดยเนื้อหาครอบคลุมทั้งสำหรับผู้อ่านทั่วไปที่อาจพบข้อมูลเท็จบนโซเชียลมีเดีย และพนักงานในองค์กรที่อาจได้รับข้อความปลอมในการทำงาน นอกจากนี้ หากอ่าน คู่มือเบื้องต้นเกี่ยวกับ AI และมาตรการรับมือความเสี่ยงทางไซเบอร์สำหรับ SME ควบคู่ไปด้วย จะช่วยให้คุณสามารถเตรียมความพร้อมด้านระบบก่อนนำ AI มาใช้ในการทำงานได้อย่างครบวงจร

5 ขั้นตอนก่อนการแชร์

ก่อนแชร์ Deepfake หรือข่าวปลอมจาก AI เพียงแค่ทำตาม 5 ขั้นตอน ได้แก่ การตรวจสอบแหล่งที่มา, การตรวจสอบจากหลายแหล่ง, การตรวจสอบ provenance, อย่าใช้เสียง/ภาพเป็นหลักฐานเพียงอย่างเดียว และการไตร่ตรองก่อนด่วนสรุป ก็สามารถป้องกันการแพร่กระจายของข้อมูลเท็จและภัยจากมิจฉาชีพได้เกือบทั้งหมด

เมื่อได้รับข่าวสาร รูปภาพ วิดีโอ หรือข้อความเสียง ก่อนที่จะกดแชร์ เพียงทำตาม 5 ขั้นตอนต่อไปนี้ จะช่วยเพิ่มความแม่นยำในการแยกแยะข้อมูลเท็จที่มาจาก AI ได้อย่างมาก

  1. ตรวจสอบแหล่งที่มา (Check the source) — ระบุว่าองค์กร สื่อ หรือบัญชีใดเป็นผู้เผยแพร่ และเป็นแหล่งข้อมูลที่เชื่อถือได้หรือไม่
  2. ตรวจสอบจากหลายแหล่ง (Cross-check with multiple sources) — อย่าใช้โพสต์เดียวเป็นหลักฐาน แต่ให้ตรวจสอบว่าสื่อช่องทางอื่นรายงานข้อมูลเดียวกันหรือไม่
  3. ตรวจสอบ provenance (ที่มาของไฟล์) — หากรูปภาพหรือไฟล์มีข้อมูลที่มา เช่น Content Credentials (C2PA) ให้ตรวจสอบประวัติการสร้างหรือการแก้ไข
  4. อย่าใช้เสียงหรือภาพเป็นหลักฐานเพียงอย่างเดียว (Don't rely solely on audio/images) — ในยุคที่ Voice Clone และ Deepfake แพร่หลาย อย่าตัดสินจากเสียงและวิดีโอเพียงอย่างเดียว
  5. 「ไตร่ตรองก่อนด่วนสรุป」 (Pause and reflect) — ยิ่งข้อมูลกระตุ้นอารมณ์ได้มากเท่าไร อย่าเพิ่งรีบด่วนสรุป ให้เว้นระยะเวลาสักพักเพื่อตรวจสอบซ้ำอีกครั้ง

รายการเหล่านี้ไม่จำเป็นต้องใช้เครื่องมือพิเศษใดๆ หากสามารถนำไปปรับใช้เป็นนิสัยในชีวิตประจำวันได้ ก็จะช่วยปกป้องตัวคุณและองค์กรจากการแพร่กระจายของข้อมูลที่ผิดพลาดได้ ต่อไปนี้คือการสรุปมุมมองที่จำเป็นสำหรับการดำเนินการในแต่ละขั้นตอน

ทำไมข้อมูลเท็จจาก AI ถึงอันตรายกว่าเดิม

ในยุคปัจจุบัน ข้อมูลเท็จที่เกิดจาก AI ไม่ว่าจะเป็นข้อความ ภาพ เสียง หรือวิดีโอ สามารถสร้างขึ้นได้ในราคาถูก รวดเร็ว และเป็นจำนวนมหาศาล ทั้ง NIST GenAI Profile และ UNESCO ได้ระบุว่า การทำลายความสมบูรณ์ของข้อมูล (information integrity) และการสูญเสียความเชื่อมั่นใน "หลักฐาน" คือความเสี่ยงหลักในยุค Generative AI

แม้ในอดีตจะมีข่าวปลอมอยู่บ้าง แต่ข้อความมักจะหยาบ ภาพตัดต่อก็ดูไม่เป็นธรรมชาติ ซึ่งยังพอมีช่องว่างให้สังเกตเห็นได้ แต่การแพร่หลายของ Generative AI ได้เปลี่ยนสถานการณ์นี้ไป โดยทำให้วิดีโอ Deepfake, การโคลนเสียง (voice clone) และข้อความฟิชชิงที่สร้างโดย AI สามารถทำได้ในราคาถูก รวดเร็ว และเป็นจำนวนมาก ซึ่งการที่ NIST ได้ระบุเรื่อง "information integrity (ความสมบูรณ์ของข้อมูล)" และการใช้เนื้อหาที่สร้างขึ้นโดย AI ในทางที่ผิด ไว้เป็นหนึ่งในความเสี่ยงหลักใน AI Risk Management Framework ของ Generative AI Profile นั้น ก็เป็นการสะท้อนถึงการเปลี่ยนแปลงนี้เช่นกัน

UNESCO ยังชี้ให้เห็นว่า Deepfake ไม่เพียงแต่เพิ่มข้อมูลเท็จในพื้นที่ข้อมูลเท่านั้น แต่ยังบั่นทอนความเชื่อมั่นใน "หลักฐาน" และ "ข้อเท็จจริง" อีกด้วย การที่การยืนยันแบบเดิมที่ว่า "เห็นจากวิดีโอจึงเป็นของจริง" หรือ "มีเสียงจึงเป็นตัวจริง" พังทลายลง ถือเป็นการเปลี่ยนแปลงเชิงโครงสร้างที่สำคัญที่สุด

4 รูปแบบของข้อมูลเท็จจาก AI — ข้อความ/ภาพ/เสียง/วิดีโอ

บทสรุป: รูปแบบความเสียหายจะแตกต่างกันอย่างมากตามประเภทของสื่อ (ข้อความ/ภาพ/เสียง/วิดีโอ) โดยสิ่งที่นำไปสู่ความเสียหายทางการเงินได้ง่ายที่สุดคือ การสั่งโอนเงินผ่านการปลอมแปลงเสียง (Voice Clone) และการสวมรอยผ่านวิดีโอดีปเฟก (Deepfake)

ดีปเฟกและข้อมูลเท็จที่สร้างโดย AI สามารถแบ่งออกได้เป็น 4 รูปแบบหลัก ซึ่งแต่ละรูปแบบมีความเสี่ยงและระดับความยากในการรับมือที่แตกต่างกัน

รูปแบบตัวอย่างความเสียหายหลัก
ข้อความข่าวปลอม, ประกาศภายในบริษัทปลอม, รีวิวสินค้าปลอม, ฟิชชิ่งที่สร้างโดย AIความเข้าใจผิด, การทำลายชื่อเสียงแบรนด์, การฉ้อโกงเงิน
ภาพภาพตัดต่อของนักการเมือง, ภาพเหตุการณ์ภัยพิบัติปลอม, โฆษณาสินค้าปลอมการปั่นกระแสสังคม, การสวมรอย, การละเมิดเครื่องหมายการค้า
เสียงการสั่งโอนเงินผ่านการปลอมแปลงเสียง, การหลอกลวงโดยสวมรอยเป็นคนในครอบครัวการฉ้อโกงเงิน, การทำลายความเชื่อมั่น
วิดีโอวิดีโอดีปเฟก, วิดีโอปลอมที่สวมรอยเป็น CEOBEC (การหลอกลวงทางธุรกิจ), การปั่นราคาหุ้น, การทำลายความน่าเชื่อถือ

ผลกระทบต่อบุคคลทั่วไปและภาคธุรกิจ (B2B)

ผลกระทบต่อประชาชนทั่วไปปรากฏในรูปแบบของการแชร์ข้อมูลเท็จไปยังครอบครัวและเพื่อนฝูง การตกเป็นเหยื่อของมิจฉาชีพผ่านโฆษณาปลอมบนโซเชียลมีเดีย รวมถึงการถูกนำภาพถ่ายและเสียงของตนไปสังเคราะห์โดยไม่ได้รับอนุญาต ในขณะที่ภาคธุรกิจ (B2B) ภัยคุกคามหลักคือการโจมตีด้วยข้อความที่ปลอมแปลงเป็นหัวหน้างาน คู่ค้า หรือหน่วยงานกำกับดูแล เพื่อหลอกให้โอนเงินหรือเปิดเผยข้อมูล รายงาน "Deepfake Threats to Organizations" ของ CISA, NSA และ FBI ได้ระบุว่า Deepfake ประเภทสวมรอยเป็นภัยคุกคามที่เกิดขึ้นจริงต่อองค์กรต่างๆ

สำหรับบริษัทญี่ปุ่นในภูมิภาคอาเซียนที่มีพนักงานหลากหลายภาษา มักมีการสื่อสารผ่านแชทหรือข้อความเสียงสั้นๆ ระหว่างสำนักงานใหญ่ ผู้จัดการในพื้นที่ และคู่ค้า ซึ่งช่องทางที่ขาดวัฒนธรรมการยืนยันตัวตนมักจะมีความเสี่ยงสูงที่จะตกเป็นเหยื่อของการสวมรอยด้วย AI

จุดสังเกตเพื่อจับผิดข้อความและภาพปลอม

AI生成テキストには「出典のない具体的な数字」「滑らかすぎる文体」「単独メディアのみの速報」といった見抜くためのパターンが残っており、ディープフェイク画像も「手指・歯・光・文字」のチェックポイントで判別できる。ただし、目視は最初のフィルタにすぎず、provenance(来歴)確認との多層防御が必要になる。

人間の目視は完璧ではないが、いくつかのパターンを知っておくだけで誤検知の頻度は下がる。重要なのは「見抜けたら本物、見抜けなかったら偽物」という二項対立ではなく、「目視は最初のフィルタであって、最終判断ではない」という前提で運用することだ。

5 สัญญาณของข้อความที่สร้างโดย AI

แม้ข้อความที่เขียนโดย AI จะมีความแม่นยำสูงขึ้น แต่ในบางสถานการณ์ก็ยังคงมีรูปแบบที่สังเกตได้ง่ายอยู่

  • ระบุตัวเลขที่ชัดเจนโดยไม่มีการอ้างอิงแหล่งที่มา
  • พาดหัวข่าวที่กระตุ้นอารมณ์อย่างรุนแรง แต่เนื้อหาภายในกลับเบาบาง
  • สำนวนการเขียนลื่นไหลจนเกินไปทำให้ใจความสำคัญดูคลุมเครือ
  • อ้างว่า "ตามที่ผู้เชี่ยวชาญกล่าว" แต่ไม่ระบุตัวตนว่าคือใคร
  • นำเสนอราวกับเป็นข่าวสด แต่ไม่พบข้อมูลเดียวกันในสื่ออื่น

การคิดว่า "ข้อความที่ลื่นไหลคือข้อความที่เชื่อถือได้" นั้นใช้ไม่ได้อีกต่อไป คุณภาพของสำนวนการเขียนและความถูกต้องของเนื้อหาเป็นตัวชี้วัดที่แยกจากกัน สิ่งที่ Google Search Central เน้นย้ำในแนวทางของ Helpful Content คือเนื้อหาที่ "เชื่อถือได้และมีมนุษย์เป็นศูนย์กลาง" ดังนั้นเนื้อหาที่ผลิตซ้ำจำนวนมากด้วย AI ซึ่งมีเนื้อหาเบาบางจึงไม่ได้รับการแนะนำในแง่ของคุณภาพการค้นหา

วิธีแยกแยะภาพที่สร้างโดย AI (มือ/ฟัน/แสง/ตัวอักษร)

แม้คุณภาพของภาพที่สร้างโดย AI จะสูงขึ้น แต่ในปัจจุบันยังมีจุดที่ต้องตรวจสอบอยู่บ่อยครั้ง ดังนี้:

  • นิ้วมือ: จำนวนนิ้ว, ความไม่เป็นธรรมชาติของข้อต่อ, รูปทรงของเล็บ
  • ฟันและหู: ความผิดปกติของการเรียงตัวของฟัน, เครื่องประดับที่ไม่สมมาตร
  • แสงและเงา: ความไม่สอดคล้องกันของทิศทางแสงและเงา, ความขัดแย้งของแหล่งกำเนิดแสงหลายจุด
  • ข้อมูลตัวอักษร: ตัวอักษรบนป้ายหรือพื้นหลังอ่านไม่ออก หรือบิดเบี้ยว
  • พื้นหลัง: รอยตัดที่ไม่เป็นธรรมชาติของการเบลอ, รายละเอียดใบหน้าของฝูงชนที่ผิดเพี้ยน

อย่างไรก็ตาม เมื่อโมเดลมีการพัฒนาขึ้นเรื่อยๆ สัญญาณเหล่านี้ก็จะค่อยๆ หายไป และกระแสจะเปลี่ยนไปเน้นที่การตรวจสอบที่มาทางเทคนิค เช่น Content Credentials ซึ่งจะกล่าวถึงในหัวข้อถัดไป

ข้อจำกัดของการพึ่งพา "การมองด้วยตาเปล่า"

การตรวจสอบด้วยสายตาเป็นเรื่องสะดวก แต่ไม่ควรปล่อยให้เป็นการตัดสินใจเพียงอย่างเดียว กรณีที่ภาพจาก AI ไม่สามารถแยกแยะได้ด้วยการมองเพียงผ่านๆ จะมีเพิ่มมากขึ้นเรื่อยๆ ในอนาคต สำหรับการตัดสินใจที่สำคัญ (เช่น สัญญา, การโอนเงิน, การรายงานข่าว, ประกาศภายในองค์กร) จำเป็นต้องใช้การป้องกันแบบหลายชั้น (Multi-layered defense) โดยนอกเหนือจากการตรวจสอบด้วยสายตาแล้ว ยังต้องรวมถึงการตรวจสอบแหล่งที่มา การเปรียบเทียบข้อมูลจากหลายแหล่ง และการตรวจสอบข้อมูล provenance หากเป็นไปได้

C2PA และ Content Credentials — การตรวจสอบที่มาของสื่อ (provenance)

C2PA และ Content Credentials — การตรวจสอบที่มาของสื่อ (provenance)

C2PA (Coalition for Content Provenance and Authenticity) คือมาตรฐานเปิดที่ใช้สำหรับระบุ "เวลาที่สร้าง ใครเป็นผู้สร้าง สร้างด้วยอะไร และมีการแก้ไขอย่างไร" ให้กับสื่อต่าง ๆ ในรูปแบบที่สามารถตรวจสอบการปลอมแปลงได้ โดยสิ่งที่ผู้ใช้งานจะได้เห็นในการนำไปใช้งานจริงคือ "Content Credentials" ซึ่งจะมีการบันทึกข้อมูลพร้อมลายเซ็นดิจิทัลว่าเนื้อหานั้นถูกสร้างขึ้นโดย AI หรือไม่

เพื่อรับมือกับ "ยุคสมัยที่ไม่สามารถแยกแยะด้วยตาเปล่าได้" จึงมีการพัฒนา C2PA และ Content Credentials ขึ้นมา ซึ่งเป็นกลไกในการระบุข้อมูลที่มา (Provenance) ของสื่อดิจิทัล ไม่ว่าจะเป็นภาพถ่าย วิดีโอ เสียง หรือเอกสาร ว่า "เวลาที่สร้าง ใครเป็นผู้สร้าง สร้างด้วยอะไร และมีการแก้ไขอย่างไร" ในรูปแบบที่สามารถตรวจสอบการปลอมแปลงได้

C2PA คืออะไรและทำงานอย่างไร

C2PA (Coalition for Content Provenance and Authenticity) คือมาตรฐานเปิดสำหรับตรวจสอบที่มา (provenance) และความถูกต้อง (authenticity) ของสื่อ โดยมี Adobe, Microsoft, BBC และองค์กรอื่นๆ อีกมากมายเข้าร่วม ซึ่งกำลังขยายตัวเป็นมาตรฐานที่ครอบคลุมทั่วทั้งอุตสาหกรรม ในทางเทคนิคแล้ว เป็นกลไกที่ฝังข้อมูลเมตา (Manifest) พร้อมลายเซ็นดิจิทัลลงในไฟล์สื่อ เพื่อให้สามารถตรวจสอบย้อนหลังได้

สำหรับการนำไปใช้งานจริง สิ่งที่ผู้ใช้จะเห็นคือ "Content Credentials" ซึ่งในภาพถ่ายจากกล้องที่รองรับ ภาพที่แก้ไขด้วยโปรแกรมตัดต่อที่รองรับ หรือภาพ AI ที่สร้างจากเครื่องมือที่รองรับ จะมีการบันทึกข้อมูลอุปกรณ์ที่ใช้ถ่าย ประวัติการแก้ไข และระบุว่าเป็นการสร้างโดย AI หรือไม่ไว้ด้วย

ขั้นตอนการตรวจสอบ Content Credentials

เมื่อได้รับสื่อที่มีการกำกับ Content Credentials ไว้ ขั้นตอนการตรวจสอบจะเป็นดังนี้:

  1. มองหาไอคอนที่มาของสื่อ (media provenance icon) ผ่านส่วนขยายของเบราว์เซอร์ โปรแกรมดูข้อมูลเฉพาะ หรือ UI ของโซเชียลมีเดียที่รองรับ
  2. คลิกที่ไอคอนเพื่อตรวจสอบแหล่งที่มา ผู้แก้ไข ประวัติการแก้ไข และดูว่าเป็นเนื้อหาที่สร้างโดย AI หรือไม่
  3. ตรวจสอบความถูกต้องของลายเซ็นดิจิทัล (signature verification) เพื่อยืนยันว่าไม่มีการดัดแปลงแก้ไขตามความจำเป็น

ในคำแนะนำเกี่ยวกับเนื้อหาที่สร้างโดย Generative AI นั้น Google ได้แนะนำให้มีการใส่ข้อมูลเมตา (Metadata) เช่น IPTC DigitalSourceType ลงในภาพที่สร้างโดย AI ซึ่ง Content Credentials ถือเป็นกลไกที่ทำให้ข้อมูลเมตาดังกล่าวมีความครอบคลุมและสามารถตรวจสอบได้มากขึ้น

ข้อจำกัดและการใช้งานจริง

一方でC2PAは万能ではない。すべてのメディアに来歴情報が付与されているわけではないし、一度スクリーンショットを撮られると署名は失われる。SNSが投稿時にメタデータを除去するケースもある。したがって現場では、

  • Content Credentialsがあれば積極的に確認する
  • なくても直ちに偽物と決めつけない(古い写真や非対応機器の場合がある)
  • 重要な判断時は、別経路(発信者への直接確認・複数の信頼ソース)と組み合わせる

という多層的な使い方が現実的だ。来歴情報は「シロを保証する」ものというより、「シロの確認を高速化する」ツールとして使うほうが運用に乗る。


ในทางกลับกัน C2PA ไม่ใช่สิ่งที่ครอบคลุมทุกอย่าง ไม่ใช่สื่อทุกประเภทที่จะมีข้อมูลที่มา (Provenance) กำกับไว้ และหากมีการถ่ายภาพหน้าจอ (Screenshot) ลายเซ็นดิจิทัลก็จะสูญหายไป นอกจากนี้ ยังมีกรณีที่โซเชียลมีเดียลบข้อมูลเมตา (Metadata) ออกเมื่อมีการโพสต์ ดังนั้นในทางปฏิบัติแล้ว:

  • หากมี Content Credentials ให้ตรวจสอบอย่างจริงจัง
  • หากไม่มี ก็อย่าเพิ่งด่วนสรุปว่าเป็นของปลอม (อาจเป็นภาพเก่าหรือมาจากอุปกรณ์ที่ไม่รองรับ)
  • เมื่อต้องตัดสินใจเรื่องสำคัญ ให้ใช้วิธีตรวจสอบร่วมกับช่องทางอื่น (การสอบถามโดยตรงจากผู้เผยแพร่ หรือตรวจสอบจากแหล่งข้อมูลที่เชื่อถือได้หลายแห่ง)

การใช้งานแบบหลายชั้นเช่นนี้ถือว่าสมเหตุสมผลกว่า ข้อมูลที่มาควรถูกใช้เป็นเครื่องมือสำหรับ "เร่งความเร็วในการตรวจสอบความถูกต้อง" มากกว่าที่จะใช้เป็นสิ่งที่ "รับประกันความบริสุทธิ์" ของเนื้อหา

Voice Clone และ Business Email Compromise — กรณีศึกษาในภาคธุรกิจ

มีการโจมตีที่เกิดขึ้นจริงโดยใช้ AI โคลนเสียงของผู้บริหารจากตัวอย่างเสียงเพียงไม่กี่สิบวินาที แล้วส่งข้อความเสียงไปหาพนักงานบัญชีเพื่อสั่งให้ "โอนเงินด่วน" FTC ของสหรัฐฯ ได้ออกคำเตือนแก่ผู้บริโภค ในขณะที่ CISA, NSA และ FBI ได้ออกประกาศเตือนร่วมกันโดยระบุว่าเป็นภัยคุกคามร้ายแรงที่มุ่งเป้าไปยังองค์กรต่างๆ

ความเสี่ยงจากข้อมูลเท็จที่สร้างโดย AI (AI Disinformation) ที่ส่งผลกระทบต่อองค์กรอย่างรุนแรงที่สุดคือ การใช้การโคลนเสียง (Voice Cloning) ร่วมกับการฉ้อโกงทางอีเมลธุรกิจ (Business Email Compromise หรือ BEC) FTC ของสหรัฐฯ ได้ออกคำเตือนแก่ผู้บริโภคเกี่ยวกับการฉ้อโกงที่ใช้การโคลนเสียง โดยมีการรายงานถึงวิธีการที่มิจฉาชีพแอบอ้างเป็นครอบครัวหรือคนรู้จักเพื่อขอให้โอนเงินฉุกเฉิน ซึ่งกลไกเดียวกันนี้ได้ถูกนำมาปรับใช้กับลำดับชั้นภายในองค์กรในรูปแบบของ BEC ประเภทการปลอมแปลงตัวตน (Impersonation BEC)

สถานการณ์ "คำสั่งโอนเงินโดยปลอมเป็นหัวหน้า"

กระบวนการโจมตีโดยทั่วไปมีลักษณะดังนี้ ผู้โจมตีจะเริ่มจากการรวบรวมตัวอย่างเสียงและใบหน้าของผู้บริหารจากโซเชียลมีเดียหรือเอกสาร IR ของบริษัท จากนั้นจะสร้างข้อความเสียงหรือคลิปวิดีโอสั้นๆ แล้วส่งไปยังพนักงานบัญชี โดยมีเนื้อหาทำนองว่า "ช่วยโอนเงินจากบัญชีนี้ไปยังคู่ค้าต่างประเทศให้ด่วนที่สุด เหตุผลจะอธิบายให้ฟังภายหลัง" ซึ่งน้ำเสียงและวิธีการพูดจะเหมือนกับตัวจริงแทบทุกประการ พนักงานบัญชีตัดสินว่าเป็นของจริงเนื่องจากได้ยินเสียงและเห็นภาพของตัวบุคคลนั้นโดยตรง ไม่ใช่แค่ทางอีเมล จึงดำเนินการโอนเงินไป

เงื่อนไขที่ทำให้เกิดความเสียหายคือการที่องค์กรยังคงมีความเชื่อใจโดยปริยายว่า "หากมีเสียงหรือวิดีโอ ก็คือตัวจริง" ในเมื่อปัจจุบัน AI สามารถสร้างเสียงและภาพได้อย่างง่ายดายแล้ว สมมติฐานนี้จึงไม่สามารถนำมาใช้ได้อีกต่อไป

การป้องกันด้วยการตรวจสอบสองช่องทาง

เสาหลักของการป้องกันคือการบังคับใช้กฎที่ต้องตรวจสอบคำสั่งสำคัญผ่านช่องทางที่แตกต่างกัน 2 ช่องทางเสมอ

  • คำสั่งทางเสียงจะต้องได้รับการยืนยันซ้ำผ่านอีเมล แชท หรือการพบปะต่อหน้า
  • คำสั่งโอนเงินที่เน้นความเร่งด่วน ยิ่งต้องจงใจเว้นระยะเวลาและโทรกลับไปสอบถาม
  • การแจ้งเปลี่ยนบัญชีจากคู่ค้า จะต้องโทรศัพท์ติดต่อไปยังหมายเลขที่ลงทะเบียนไว้แล้วเท่านั้น
  • กำหนดให้มี "รหัสลับ (Codeword)" ระหว่างผู้บริหาร ฝ่ายบัญชี และคู่ค้า

ในคำแนะนำเรื่อง Phishing ของ CISA ก็ได้ระบุว่า การสร้างสถานการณ์เร่งด่วนและการใช้อำนาจในทางที่ผิด เป็นรูปแบบทั่วไปของการโจมตี กฎที่ว่า "ยิ่งเร่งด่วน ยิ่งต้องหยุดคิด" เป็นสิ่งที่แม้แต่ธุรกิจขนาดกลางและขนาดย่อมก็สามารถนำไปใช้ได้ตั้งแต่วันนี้

คำถามที่พบบ่อย (FAQ)

นี่คือคำถามที่พบบ่อยเกี่ยวกับ Deepfake และข้อมูลเท็จหรือภาพปลอมที่สร้างโดย AI

Q1. AI สามารถสร้างข่าวปลอมได้จริงหรือ?

ใช่ AI สามารถสร้างข่าวปลอมที่ลื่นไหลและปรับเปลี่ยนตามบริบทได้ อย่างไรก็ตาม "การอ่านที่เป็นธรรมชาติ" กับ "ความถูกต้อง" เป็นคนละเรื่องกัน และไม่ได้เป็นการรับประกันความจริงของเนื้อหาแต่อย่างใด NIST GenAI Profile ได้ระบุว่าความสมบูรณ์ของข้อมูล (information integrity) เป็นความเสี่ยงหลักของ Generative AI และ Google Search Central ก็แนะนำให้เน้นเนื้อหาที่สร้างโดยมนุษย์ที่น่าเชื่อถือเป็นสำคัญ

Q2. สามารถแยกแยะภาพที่สร้างโดย AI ได้หรือไม่?

ทำได้เพียงบางส่วน จุดที่ใช้สังเกตได้ในปัจจุบัน ได้แก่ ความไม่เป็นธรรมชาติของนิ้วมือ ความสอดคล้องของแสงและเงา ตัวอักษรบนป้าย และขอบของส่วนที่เบลอ อย่างไรก็ตาม เมื่อโมเดลมีการพัฒนาขึ้นเรื่อยๆ การตรวจสอบด้วยสายตาจะทำได้ยากขึ้น ดังนั้น การใช้ Content Credentials (C2PA) เพื่อตรวจสอบประวัติ การยืนยันแหล่งที่มา และการตรวจสอบเปรียบเทียบจากหลายแหล่งข้อมูล จึงเป็นวิธีที่ใช้งานได้จริงมากกว่า

Q3. ป้อนข้อมูลส่วนตัวให้ AI ได้หรือไม่?

จำเป็นต้องพิจารณาอย่างรอบคอบ ก่อนที่จะป้อนข้อมูลลูกค้า เอกสารภายในบริษัท หรือข้อมูลที่ละเอียดอ่อน ควรตรวจสอบข้อกำหนดการใช้งาน นโยบายการเก็บรักษาข้อมูล และการนำข้อมูลไปใช้ในการเรียนรู้ (training) ของบริการนั้นๆ เสียก่อน ทั้งนี้ UNESCO ได้ระบุว่าการปกป้องข้อมูลและความเป็นส่วนตัวเป็นประเด็นสำคัญควบคู่ไปกับเรื่อง misinformation และ deepfake ในบริบทของ AI literacy สำหรับรายละเอียดเพิ่มเติม โปรดดูที่ วิธีใช้ AI อย่างปลอดภัยในลาว? คู่มือปฏิบัติเพื่อการคุ้มครองข้อมูลส่วนบุคคล

บทสรุป

บทสรุป

AI น่ากลัวไม่ใช่เพราะตัวมันเอง แต่เป็นเพราะมันสามารถสร้างของปลอมที่แนบเนียนจนแยกไม่ออกว่าของจริงหรือของปลอมได้ในราคาถูก รวดเร็ว และเป็นจำนวนมหาศาล ดังนั้น สิ่งสำคัญจึงไม่ใช่การมองหาเครื่องมือตรวจจับพิเศษ แต่คือการสร้างนิสัย เช่น ขั้นตอน 5 ประการก่อนแชร์, การตรวจสอบด้วยสายตา, Content Credentials และการตรวจสอบผ่านสองช่องทาง ในยุคที่ความจริงของข้อมูลสั่นคลอนเพราะ AI พฤติกรรมที่น่าเชื่อถือที่สุดคือการกลับไปใช้ "นิสัยคลาสสิก" อย่างการ "หยุดคิดและตรวจสอบ"

บทความที่ควรอ่านถัดไป

  • จะเริ่มรับมือความเสี่ยงด้าน AI และไซเบอร์สำหรับ SMEs จากตรงไหน? 6 เช็กลิสต์ที่ทำเสร็จได้ใน 30 นาที — ชุดพื้นฐาน 4 ประการที่ควรเตรียมพร้อมก่อนใช้ AI รวมถึงการป้องกันองค์กรจาก Deepfake
  • จะใช้ AI อย่างปลอดภัยในลาวได้อย่างไร? คู่มือปฏิบัติเพื่อคุ้มครองข้อมูลส่วนบุคคล — กฎการปฏิบัติงานเพื่อไม่ให้ข้อมูลส่วนบุคคลและข้อมูลที่ละเอียดอ่อนรั่วไหลไปยัง AI

เอกสารอ้างอิง

  • UNESCO. Deepfakes and the crisis of knowing. https://www.unesco.org/en/articles/deepfakes-and-crisis-knowing
  • UNESCO. AI and society: how to build a more responsible future. https://www.unesco.org/en/articles/ai-and-society-how-build-more-responsible-future
  • NIST. Artificial Intelligence Risk Management Framework: Generative AI Profile. https://www.nist.gov/publications/artificial-intelligence-risk-management-framework-generative-artificial-intelligence
  • FTC. Fighting back against harmful voice cloning. https://consumer.ftc.gov/consumer-alerts/2024/04/fighting-back-against-harmful-voice-cloning
  • CISA. NSA, FBI, and CISA Release Cybersecurity Information Sheet on Deepfake Threats. https://www.cisa.gov/news-events/alerts/2023/09/12/nsa-fbi-and-cisa-release-cybersecurity-information-sheet-deepfake-threats
  • C2PA. Verifying Media Content Sources. https://c2pa.org/
  • Google Search Central. Creating Helpful, Reliable, People-First Content. https://developers.google.com/search/docs/fundamentals/creating-helpful-content
  • Google Search Central. Google Search's Guidance on Generative AI Content. https://developers.google.com/search/docs/fundamentals/using-gen-ai-content

ผู้เขียน・ผู้ตรวจสอบ

Chi
Enison

Chi

ศึกษาเอกวิทยาการสารสนเทศที่มหาวิทยาลัยแห่งชาติลาว และระหว่างศึกษาได้มีส่วนร่วมในการพัฒนาซอฟต์แวร์ทางสถิติ สั่งสมพื้นฐานด้านการวิเคราะห์ข้อมูลและการเขียนโปรแกรมอย่างเป็นรูปธรรม ตั้งแต่ปี 2021 ได้ก้าวเข้าสู่เส้นทางการพัฒนา Web และแอปพลิเคชัน และตั้งแต่ปี 2023 เริ่มสั่งสมประสบการณ์การพัฒนาอย่างจริงจังทั้งในด้าน Frontend และ Backend ในบริษัทปัจจุบันรับผิดชอบการออกแบบและพัฒนาบริการ Web ที่ใช้ AI โดยมีส่วนร่วมในโครงการที่นำการประมวลผลภาษาธรรมชาติ (NLP) การเรียนรู้ของเครื่อง (Machine Learning) และ Generative AI รวมถึงโมเดลภาษาขนาดใหญ่ (LLM) มาผสานรวมกับระบบงานจริง มีความกระตือรือร้นในการติดตามเทคโนโลยีล่าสุดอยู่เสมอ และให้ความสำคัญกับความรวดเร็วในการดำเนินงานตั้งแต่การพิสูจน์แนวคิดทางเทคนิคไปจนถึงการนำไปใช้งานจริง

ติดต่อเรา

บทความแนะนำ

เริ่มต้นรับมือ AI และความเสี่ยงทางไซเบอร์สำหรับ SME อย่างไร? 6 เช็กลิสต์เตรียมความพร้อมใน 30 นาที
อัปเดต: 6 พฤษภาคม 2569

เริ่มต้นรับมือ AI และความเสี่ยงทางไซเบอร์สำหรับ SME อย่างไร? 6 เช็กลิสต์เตรียมความพร้อมใน 30 นาที

โครงการ AI ข้ามพรมแดนอาเซียน — คู่มือการใช้งาน Multi-lingual RAG และ Localization
อัปเดต: 5 พฤษภาคม 2569

โครงการ AI ข้ามพรมแดนอาเซียน — คู่มือการใช้งาน Multi-lingual RAG และ Localization

Categories

  • ลาว(4)
  • AI และ LLM(3)
  • DX และดิจิทัล(2)
  • ความปลอดภัย(2)
  • ฟินเทค(1)

สารบัญ

  • บทนำ
  • 5 ขั้นตอนก่อนการแชร์
  • ทำไมข้อมูลเท็จจาก AI ถึงอันตรายกว่าเดิม
  • 4 รูปแบบของข้อมูลเท็จจาก AI — ข้อความ/ภาพ/เสียง/วิดีโอ
  • ผลกระทบต่อบุคคลทั่วไปและภาคธุรกิจ (B2B)
  • จุดสังเกตเพื่อจับผิดข้อความและภาพปลอม
  • 5 สัญญาณของข้อความที่สร้างโดย AI
  • วิธีแยกแยะภาพที่สร้างโดย AI (มือ/ฟัน/แสง/ตัวอักษร)
  • ข้อจำกัดของการพึ่งพา "การมองด้วยตาเปล่า"
  • C2PA และ Content Credentials — การตรวจสอบที่มาของสื่อ (provenance)
  • C2PA คืออะไรและทำงานอย่างไร
  • ขั้นตอนการตรวจสอบ Content Credentials
  • ข้อจำกัดและการใช้งานจริง
  • Voice Clone และ Business Email Compromise — กรณีศึกษาในภาคธุรกิจ
  • สถานการณ์ "คำสั่งโอนเงินโดยปลอมเป็นหัวหน้า"
  • การป้องกันด้วยการตรวจสอบสองช่องทาง
  • คำถามที่พบบ่อย (FAQ)
  • Q1. AI สามารถสร้างข่าวปลอมได้จริงหรือ?
  • Q2. สามารถแยกแยะภาพที่สร้างโดย AI ได้หรือไม่?
  • Q3. ป้อนข้อมูลส่วนตัวให้ AI ได้หรือไม่?
  • บทสรุป