
Deepfake หมายถึงสื่อที่สร้างขึ้นโดย Generative AI ไม่ว่าจะเป็นภาพ วิดีโอ หรือเสียง ซึ่งมีความแนบเนียนจนแยกไม่ออกว่าเป็นของจริงและถูกนำไปใช้เพื่อหลอกลวงผู้คน ในบทความนี้ เราจะสรุปวิธีสังเกต Deepfake ใน 5 ขั้นตอน พร้อมอธิบายวิธีรับมือกับข่าวปลอมจาก AI และการปลอมแปลงเสียง (Voice Clone) ขั้นตอนการตรวจสอบที่มาของสื่อด้วย C2PA / Content Credentials ไปจนถึงมาตรการป้องกันการฉ้อโกงด้วยการสวมรอย (BEC) ที่มุ่งเป้าไปยังองค์กร โดยเนื้อหาครอบคลุมทั้งสำหรับผู้อ่านทั่วไปที่อาจพบข้อมูลเท็จบนโซเชียลมีเดีย และพนักงานในองค์กรที่อาจได้รับข้อความปลอมในการทำงาน นอกจากนี้ หากอ่าน คู่มือเบื้องต้นเกี่ยวกับ AI และมาตรการรับมือความเสี่ยงทางไซเบอร์สำหรับ SME ควบคู่ไปด้วย จะช่วยให้คุณสามารถเตรียมความพร้อมด้านระบบก่อนนำ AI มาใช้ในการทำงานได้อย่างครบวงจร
ก่อนแชร์ Deepfake หรือข่าวปลอมจาก AI เพียงแค่ทำตาม 5 ขั้นตอน ได้แก่ การตรวจสอบแหล่งที่มา, การตรวจสอบจากหลายแหล่ง, การตรวจสอบ provenance, อย่าใช้เสียง/ภาพเป็นหลักฐานเพียงอย่างเดียว และการไตร่ตรองก่อนด่วนสรุป ก็สามารถป้องกันการแพร่กระจายของข้อมูลเท็จและภัยจากมิจฉาชีพได้เกือบทั้งหมด
เมื่อได้รับข่าวสาร รูปภาพ วิดีโอ หรือข้อความเสียง ก่อนที่จะกดแชร์ เพียงทำตาม 5 ขั้นตอนต่อไปนี้ จะช่วยเพิ่มความแม่นยำในการแยกแยะข้อมูลเท็จที่มาจาก AI ได้อย่างมาก
รายการเหล่านี้ไม่จำเป็นต้องใช้เครื่องมือพิเศษใดๆ หากสามารถนำไปปรับใช้เป็นนิสัยในชีวิตประจำวันได้ ก็จะช่วยปกป้องตัวคุณและองค์กรจากการแพร่กระจายของข้อมูลที่ผิดพลาดได้ ต่อไปนี้คือการสรุปมุมมองที่จำเป็นสำหรับการดำเนินการในแต่ละขั้นตอน
ในยุคปัจจุบัน ข้อมูลเท็จที่เกิดจาก AI ไม่ว่าจะเป็นข้อความ ภาพ เสียง หรือวิดีโอ สามารถสร้างขึ้นได้ในราคาถูก รวดเร็ว และเป็นจำนวนมหาศาล ทั้ง NIST GenAI Profile และ UNESCO ได้ระบุว่า การทำลายความสมบูรณ์ของข้อมูล (information integrity) และการสูญเสียความเชื่อมั่นใน "หลักฐาน" คือความเสี่ยงหลักในยุค Generative AI
แม้ในอดีตจะมีข่าวปลอมอยู่บ้าง แต่ข้อความมักจะหยาบ ภาพตัดต่อก็ดูไม่เป็นธรรมชาติ ซึ่งยังพอมีช่องว่างให้สังเกตเห็นได้ แต่การแพร่หลายของ Generative AI ได้เปลี่ยนสถานการณ์นี้ไป โดยทำให้วิดีโอ Deepfake, การโคลนเสียง (voice clone) และข้อความฟิชชิงที่สร้างโดย AI สามารถทำได้ในราคาถูก รวดเร็ว และเป็นจำนวนมาก ซึ่งการที่ NIST ได้ระบุเรื่อง "information integrity (ความสมบูรณ์ของข้อมูล)" และการใช้เนื้อหาที่สร้างขึ้นโดย AI ในทางที่ผิด ไว้เป็นหนึ่งในความเสี่ยงหลักใน AI Risk Management Framework ของ Generative AI Profile นั้น ก็เป็นการสะท้อนถึงการเปลี่ยนแปลงนี้เช่นกัน
UNESCO ยังชี้ให้เห็นว่า Deepfake ไม่เพียงแต่เพิ่มข้อมูลเท็จในพื้นที่ข้อมูลเท่านั้น แต่ยังบั่นทอนความเชื่อมั่นใน "หลักฐาน" และ "ข้อเท็จจริง" อีกด้วย การที่การยืนยันแบบเดิมที่ว่า "เห็นจากวิดีโอจึงเป็นของจริง" หรือ "มีเสียงจึงเป็นตัวจริง" พังทลายลง ถือเป็นการเปลี่ยนแปลงเชิงโครงสร้างที่สำคัญที่สุด
บทสรุป: รูปแบบความเสียหายจะแตกต่างกันอย่างมากตามประเภทของสื่อ (ข้อความ/ภาพ/เสียง/วิดีโอ) โดยสิ่งที่นำไปสู่ความเสียหายทางการเงินได้ง่ายที่สุดคือ การสั่งโอนเงินผ่านการปลอมแปลงเสียง (Voice Clone) และการสวมรอยผ่านวิดีโอดีปเฟก (Deepfake)
ดีปเฟกและข้อมูลเท็จที่สร้างโดย AI สามารถแบ่งออกได้เป็น 4 รูปแบบหลัก ซึ่งแต่ละรูปแบบมีความเสี่ยงและระดับความยากในการรับมือที่แตกต่างกัน
| รูปแบบ | ตัวอย่าง | ความเสียหายหลัก |
|---|---|---|
| ข้อความ | ข่าวปลอม, ประกาศภายในบริษัทปลอม, รีวิวสินค้าปลอม, ฟิชชิ่งที่สร้างโดย AI | ความเข้าใจผิด, การทำลายชื่อเสียงแบรนด์, การฉ้อโกงเงิน |
| ภาพ | ภาพตัดต่อของนักการเมือง, ภาพเหตุการณ์ภัยพิบัติปลอม, โฆษณาสินค้าปลอม | การปั่นกระแสสังคม, การสวมรอย, การละเมิดเครื่องหมายการค้า |
| เสียง | การสั่งโอนเงินผ่านการปลอมแปลงเสียง, การหลอกลวงโดยสวมรอยเป็นคนในครอบครัว | การฉ้อโกงเงิน, การทำลายความเชื่อมั่น |
| วิดีโอ | วิดีโอดีปเฟก, วิดีโอปลอมที่สวมรอยเป็น CEO | BEC (การหลอกลวงทางธุรกิจ), การปั่นราคาหุ้น, การทำลายความน่าเชื่อถือ |
ผลกระทบต่อประชาชนทั่วไปปรากฏในรูปแบบของการแชร์ข้อมูลเท็จไปยังครอบครัวและเพื่อนฝูง การตกเป็นเหยื่อของมิจฉาชีพผ่านโฆษณาปลอมบนโซเชียลมีเดีย รวมถึงการถูกนำภาพถ่ายและเสียงของตนไปสังเคราะห์โดยไม่ได้รับอนุญาต ในขณะที่ภาคธุรกิจ (B2B) ภัยคุกคามหลักคือการโจมตีด้วยข้อความที่ปลอมแปลงเป็นหัวหน้างาน คู่ค้า หรือหน่วยงานกำกับดูแล เพื่อหลอกให้โอนเงินหรือเปิดเผยข้อมูล รายงาน "Deepfake Threats to Organizations" ของ CISA, NSA และ FBI ได้ระบุว่า Deepfake ประเภทสวมรอยเป็นภัยคุกคามที่เกิดขึ้นจริงต่อองค์กรต่างๆ
สำหรับบริษัทญี่ปุ่นในภูมิภาคอาเซียนที่มีพนักงานหลากหลายภาษา มักมีการสื่อสารผ่านแชทหรือข้อความเสียงสั้นๆ ระหว่างสำนักงานใหญ่ ผู้จัดการในพื้นที่ และคู่ค้า ซึ่งช่องทางที่ขาดวัฒนธรรมการยืนยันตัวตนมักจะมีความเสี่ยงสูงที่จะตกเป็นเหยื่อของการสวมรอยด้วย AI
AI生成テキストには「出典のない具体的な数字」「滑らかすぎる文体」「単独メディアのみの速報」といった見抜くためのパターンが残っており、ディープフェイク画像も「手指・歯・光・文字」のチェックポイントで判別できる。ただし、目視は最初のフィルタにすぎず、provenance(来歴)確認との多層防御が必要になる。
人間の目視は完璧ではないが、いくつかのパターンを知っておくだけで誤検知の頻度は下がる。重要なのは「見抜けたら本物、見抜けなかったら偽物」という二項対立ではなく、「目視は最初のフィルタであって、最終判断ではない」という前提で運用することだ。
แม้ข้อความที่เขียนโดย AI จะมีความแม่นยำสูงขึ้น แต่ในบางสถานการณ์ก็ยังคงมีรูปแบบที่สังเกตได้ง่ายอยู่
การคิดว่า "ข้อความที่ลื่นไหลคือข้อความที่เชื่อถือได้" นั้นใช้ไม่ได้อีกต่อไป คุณภาพของสำนวนการเขียนและความถูกต้องของเนื้อหาเป็นตัวชี้วัดที่แยกจากกัน สิ่งที่ Google Search Central เน้นย้ำในแนวทางของ Helpful Content คือเนื้อหาที่ "เชื่อถือได้และมีมนุษย์เป็นศูนย์กลาง" ดังนั้นเนื้อหาที่ผลิตซ้ำจำนวนมากด้วย AI ซึ่งมีเนื้อหาเบาบางจึงไม่ได้รับการแนะนำในแง่ของคุณภาพการค้นหา
แม้คุณภาพของภาพที่สร้างโดย AI จะสูงขึ้น แต่ในปัจจุบันยังมีจุดที่ต้องตรวจสอบอยู่บ่อยครั้ง ดังนี้:
อย่างไรก็ตาม เมื่อโมเดลมีการพัฒนาขึ้นเรื่อยๆ สัญญาณเหล่านี้ก็จะค่อยๆ หายไป และกระแสจะเปลี่ยนไปเน้นที่การตรวจสอบที่มาทางเทคนิค เช่น Content Credentials ซึ่งจะกล่าวถึงในหัวข้อถัดไป
การตรวจสอบด้วยสายตาเป็นเรื่องสะดวก แต่ไม่ควรปล่อยให้เป็นการตัดสินใจเพียงอย่างเดียว กรณีที่ภาพจาก AI ไม่สามารถแยกแยะได้ด้วยการมองเพียงผ่านๆ จะมีเพิ่มมากขึ้นเรื่อยๆ ในอนาคต สำหรับการตัดสินใจที่สำคัญ (เช่น สัญญา, การโอนเงิน, การรายงานข่าว, ประกาศภายในองค์กร) จำเป็นต้องใช้การป้องกันแบบหลายชั้น (Multi-layered defense) โดยนอกเหนือจากการตรวจสอบด้วยสายตาแล้ว ยังต้องรวมถึงการตรวจสอบแหล่งที่มา การเปรียบเทียบข้อมูลจากหลายแหล่ง และการตรวจสอบข้อมูล provenance หากเป็นไปได้

C2PA (Coalition for Content Provenance and Authenticity) คือมาตรฐานเปิดที่ใช้สำหรับระบุ "เวลาที่สร้าง ใครเป็นผู้สร้าง สร้างด้วยอะไร และมีการแก้ไขอย่างไร" ให้กับสื่อต่าง ๆ ในรูปแบบที่สามารถตรวจสอบการปลอมแปลงได้ โดยสิ่งที่ผู้ใช้งานจะได้เห็นในการนำไปใช้งานจริงคือ "Content Credentials" ซึ่งจะมีการบันทึกข้อมูลพร้อมลายเซ็นดิจิทัลว่าเนื้อหานั้นถูกสร้างขึ้นโดย AI หรือไม่
เพื่อรับมือกับ "ยุคสมัยที่ไม่สามารถแยกแยะด้วยตาเปล่าได้" จึงมีการพัฒนา C2PA และ Content Credentials ขึ้นมา ซึ่งเป็นกลไกในการระบุข้อมูลที่มา (Provenance) ของสื่อดิจิทัล ไม่ว่าจะเป็นภาพถ่าย วิดีโอ เสียง หรือเอกสาร ว่า "เวลาที่สร้าง ใครเป็นผู้สร้าง สร้างด้วยอะไร และมีการแก้ไขอย่างไร" ในรูปแบบที่สามารถตรวจสอบการปลอมแปลงได้
C2PA (Coalition for Content Provenance and Authenticity) คือมาตรฐานเปิดสำหรับตรวจสอบที่มา (provenance) และความถูกต้อง (authenticity) ของสื่อ โดยมี Adobe, Microsoft, BBC และองค์กรอื่นๆ อีกมากมายเข้าร่วม ซึ่งกำลังขยายตัวเป็นมาตรฐานที่ครอบคลุมทั่วทั้งอุตสาหกรรม ในทางเทคนิคแล้ว เป็นกลไกที่ฝังข้อมูลเมตา (Manifest) พร้อมลายเซ็นดิจิทัลลงในไฟล์สื่อ เพื่อให้สามารถตรวจสอบย้อนหลังได้
สำหรับการนำไปใช้งานจริง สิ่งที่ผู้ใช้จะเห็นคือ "Content Credentials" ซึ่งในภาพถ่ายจากกล้องที่รองรับ ภาพที่แก้ไขด้วยโปรแกรมตัดต่อที่รองรับ หรือภาพ AI ที่สร้างจากเครื่องมือที่รองรับ จะมีการบันทึกข้อมูลอุปกรณ์ที่ใช้ถ่าย ประวัติการแก้ไข และระบุว่าเป็นการสร้างโดย AI หรือไม่ไว้ด้วย
เมื่อได้รับสื่อที่มีการกำกับ Content Credentials ไว้ ขั้นตอนการตรวจสอบจะเป็นดังนี้:
ในคำแนะนำเกี่ยวกับเนื้อหาที่สร้างโดย Generative AI นั้น Google ได้แนะนำให้มีการใส่ข้อมูลเมตา (Metadata) เช่น IPTC DigitalSourceType ลงในภาพที่สร้างโดย AI ซึ่ง Content Credentials ถือเป็นกลไกที่ทำให้ข้อมูลเมตาดังกล่าวมีความครอบคลุมและสามารถตรวจสอบได้มากขึ้น
一方でC2PAは万能ではない。すべてのメディアに来歴情報が付与されているわけではないし、一度スクリーンショットを撮られると署名は失われる。SNSが投稿時にメタデータを除去するケースもある。したがって現場では、
という多層的な使い方が現実的だ。来歴情報は「シロを保証する」ものというより、「シロの確認を高速化する」ツールとして使うほうが運用に乗る。
ในทางกลับกัน C2PA ไม่ใช่สิ่งที่ครอบคลุมทุกอย่าง ไม่ใช่สื่อทุกประเภทที่จะมีข้อมูลที่มา (Provenance) กำกับไว้ และหากมีการถ่ายภาพหน้าจอ (Screenshot) ลายเซ็นดิจิทัลก็จะสูญหายไป นอกจากนี้ ยังมีกรณีที่โซเชียลมีเดียลบข้อมูลเมตา (Metadata) ออกเมื่อมีการโพสต์ ดังนั้นในทางปฏิบัติแล้ว:
การใช้งานแบบหลายชั้นเช่นนี้ถือว่าสมเหตุสมผลกว่า ข้อมูลที่มาควรถูกใช้เป็นเครื่องมือสำหรับ "เร่งความเร็วในการตรวจสอบความถูกต้อง" มากกว่าที่จะใช้เป็นสิ่งที่ "รับประกันความบริสุทธิ์" ของเนื้อหา
มีการโจมตีที่เกิดขึ้นจริงโดยใช้ AI โคลนเสียงของผู้บริหารจากตัวอย่างเสียงเพียงไม่กี่สิบวินาที แล้วส่งข้อความเสียงไปหาพนักงานบัญชีเพื่อสั่งให้ "โอนเงินด่วน" FTC ของสหรัฐฯ ได้ออกคำเตือนแก่ผู้บริโภค ในขณะที่ CISA, NSA และ FBI ได้ออกประกาศเตือนร่วมกันโดยระบุว่าเป็นภัยคุกคามร้ายแรงที่มุ่งเป้าไปยังองค์กรต่างๆ
ความเสี่ยงจากข้อมูลเท็จที่สร้างโดย AI (AI Disinformation) ที่ส่งผลกระทบต่อองค์กรอย่างรุนแรงที่สุดคือ การใช้การโคลนเสียง (Voice Cloning) ร่วมกับการฉ้อโกงทางอีเมลธุรกิจ (Business Email Compromise หรือ BEC) FTC ของสหรัฐฯ ได้ออกคำเตือนแก่ผู้บริโภคเกี่ยวกับการฉ้อโกงที่ใช้การโคลนเสียง โดยมีการรายงานถึงวิธีการที่มิจฉาชีพแอบอ้างเป็นครอบครัวหรือคนรู้จักเพื่อขอให้โอนเงินฉุกเฉิน ซึ่งกลไกเดียวกันนี้ได้ถูกนำมาปรับใช้กับลำดับชั้นภายในองค์กรในรูปแบบของ BEC ประเภทการปลอมแปลงตัวตน (Impersonation BEC)
กระบวนการโจมตีโดยทั่วไปมีลักษณะดังนี้ ผู้โจมตีจะเริ่มจากการรวบรวมตัวอย่างเสียงและใบหน้าของผู้บริหารจากโซเชียลมีเดียหรือเอกสาร IR ของบริษัท จากนั้นจะสร้างข้อความเสียงหรือคลิปวิดีโอสั้นๆ แล้วส่งไปยังพนักงานบัญชี โดยมีเนื้อหาทำนองว่า "ช่วยโอนเงินจากบัญชีนี้ไปยังคู่ค้าต่างประเทศให้ด่วนที่สุด เหตุผลจะอธิบายให้ฟังภายหลัง" ซึ่งน้ำเสียงและวิธีการพูดจะเหมือนกับตัวจริงแทบทุกประการ พนักงานบัญชีตัดสินว่าเป็นของจริงเนื่องจากได้ยินเสียงและเห็นภาพของตัวบุคคลนั้นโดยตรง ไม่ใช่แค่ทางอีเมล จึงดำเนินการโอนเงินไป
เงื่อนไขที่ทำให้เกิดความเสียหายคือการที่องค์กรยังคงมีความเชื่อใจโดยปริยายว่า "หากมีเสียงหรือวิดีโอ ก็คือตัวจริง" ในเมื่อปัจจุบัน AI สามารถสร้างเสียงและภาพได้อย่างง่ายดายแล้ว สมมติฐานนี้จึงไม่สามารถนำมาใช้ได้อีกต่อไป
เสาหลักของการป้องกันคือการบังคับใช้กฎที่ต้องตรวจสอบคำสั่งสำคัญผ่านช่องทางที่แตกต่างกัน 2 ช่องทางเสมอ
ในคำแนะนำเรื่อง Phishing ของ CISA ก็ได้ระบุว่า การสร้างสถานการณ์เร่งด่วนและการใช้อำนาจในทางที่ผิด เป็นรูปแบบทั่วไปของการโจมตี กฎที่ว่า "ยิ่งเร่งด่วน ยิ่งต้องหยุดคิด" เป็นสิ่งที่แม้แต่ธุรกิจขนาดกลางและขนาดย่อมก็สามารถนำไปใช้ได้ตั้งแต่วันนี้
นี่คือคำถามที่พบบ่อยเกี่ยวกับ Deepfake และข้อมูลเท็จหรือภาพปลอมที่สร้างโดย AI
ใช่ AI สามารถสร้างข่าวปลอมที่ลื่นไหลและปรับเปลี่ยนตามบริบทได้ อย่างไรก็ตาม "การอ่านที่เป็นธรรมชาติ" กับ "ความถูกต้อง" เป็นคนละเรื่องกัน และไม่ได้เป็นการรับประกันความจริงของเนื้อหาแต่อย่างใด NIST GenAI Profile ได้ระบุว่าความสมบูรณ์ของข้อมูล (information integrity) เป็นความเสี่ยงหลักของ Generative AI และ Google Search Central ก็แนะนำให้เน้นเนื้อหาที่สร้างโดยมนุษย์ที่น่าเชื่อถือเป็นสำคัญ
ทำได้เพียงบางส่วน จุดที่ใช้สังเกตได้ในปัจจุบัน ได้แก่ ความไม่เป็นธรรมชาติของนิ้วมือ ความสอดคล้องของแสงและเงา ตัวอักษรบนป้าย และขอบของส่วนที่เบลอ อย่างไรก็ตาม เมื่อโมเดลมีการพัฒนาขึ้นเรื่อยๆ การตรวจสอบด้วยสายตาจะทำได้ยากขึ้น ดังนั้น การใช้ Content Credentials (C2PA) เพื่อตรวจสอบประวัติ การยืนยันแหล่งที่มา และการตรวจสอบเปรียบเทียบจากหลายแหล่งข้อมูล จึงเป็นวิธีที่ใช้งานได้จริงมากกว่า
จำเป็นต้องพิจารณาอย่างรอบคอบ ก่อนที่จะป้อนข้อมูลลูกค้า เอกสารภายในบริษัท หรือข้อมูลที่ละเอียดอ่อน ควรตรวจสอบข้อกำหนดการใช้งาน นโยบายการเก็บรักษาข้อมูล และการนำข้อมูลไปใช้ในการเรียนรู้ (training) ของบริการนั้นๆ เสียก่อน ทั้งนี้ UNESCO ได้ระบุว่าการปกป้องข้อมูลและความเป็นส่วนตัวเป็นประเด็นสำคัญควบคู่ไปกับเรื่อง misinformation และ deepfake ในบริบทของ AI literacy สำหรับรายละเอียดเพิ่มเติม โปรดดูที่ วิธีใช้ AI อย่างปลอดภัยในลาว? คู่มือปฏิบัติเพื่อการคุ้มครองข้อมูลส่วนบุคคล

AI น่ากลัวไม่ใช่เพราะตัวมันเอง แต่เป็นเพราะมันสามารถสร้างของปลอมที่แนบเนียนจนแยกไม่ออกว่าของจริงหรือของปลอมได้ในราคาถูก รวดเร็ว และเป็นจำนวนมหาศาล ดังนั้น สิ่งสำคัญจึงไม่ใช่การมองหาเครื่องมือตรวจจับพิเศษ แต่คือการสร้างนิสัย เช่น ขั้นตอน 5 ประการก่อนแชร์, การตรวจสอบด้วยสายตา, Content Credentials และการตรวจสอบผ่านสองช่องทาง ในยุคที่ความจริงของข้อมูลสั่นคลอนเพราะ AI พฤติกรรมที่น่าเชื่อถือที่สุดคือการกลับไปใช้ "นิสัยคลาสสิก" อย่างการ "หยุดคิดและตรวจสอบ"
บทความที่ควรอ่านถัดไป
เอกสารอ้างอิง
Chi
ศึกษาเอกวิทยาการสารสนเทศที่มหาวิทยาลัยแห่งชาติลาว และระหว่างศึกษาได้มีส่วนร่วมในการพัฒนาซอฟต์แวร์ทางสถิติ สั่งสมพื้นฐานด้านการวิเคราะห์ข้อมูลและการเขียนโปรแกรมอย่างเป็นรูปธรรม ตั้งแต่ปี 2021 ได้ก้าวเข้าสู่เส้นทางการพัฒนา Web และแอปพลิเคชัน และตั้งแต่ปี 2023 เริ่มสั่งสมประสบการณ์การพัฒนาอย่างจริงจังทั้งในด้าน Frontend และ Backend ในบริษัทปัจจุบันรับผิดชอบการออกแบบและพัฒนาบริการ Web ที่ใช้ AI โดยมีส่วนร่วมในโครงการที่นำการประมวลผลภาษาธรรมชาติ (NLP) การเรียนรู้ของเครื่อง (Machine Learning) และ Generative AI รวมถึงโมเดลภาษาขนาดใหญ่ (LLM) มาผสานรวมกับระบบงานจริง มีความกระตือรือร้นในการติดตามเทคโนโลยีล่าสุดอยู่เสมอ และให้ความสำคัญกับความรวดเร็วในการดำเนินงานตั้งแต่การพิสูจน์แนวคิดทางเทคนิคไปจนถึงการนำไปใช้งานจริง