Enison
ຕິດຕໍ່
  • ໜ້າຫຼັກ
  • ບໍລິການ
    • AI Hybrid BPO
    • ເວທີຄຸ້ມຄອງລູກໜີ້
    • ເວທີ MFI
    • ການສະໜັບສະໜູນການສ້າງ RAG
  • ກ່ຽວກັບພວກເຮົາ
  • ບລັອກ
  • ຮັບສະໝັກວຽກ

Footer

Enison

エニソン株式会社

🇹🇭

Chamchuri Square 24F, 319 Phayathai Rd Pathum Wan,Bangkok 10330, Thailand

🇯🇵

〒104-0061 2F Ginza Otake Besidence, 1-22-11 Ginza, Chuo-ku, Tokyo 104-0061 03-6695-6749

🇱🇦

20 Samsenthai Road, Nongduang Nua Village, Sikhottabong District, Vientiane, Laos

Services

  • AI Hybrid BPO
  • ແພລະຕະຟອມການຄຸ້ມຄອງລູກຫນີ້
  • ແພລະຕະຟອມ MFI
  • ບໍລິການພັດທະນາ RAG

Support

  • ຕິດຕໍ່
  • ຝ່າຍຂາຍ

Company

  • ກ່ຽວກັບພວກເຮົາ
  • ບລັອກ
  • ຮັບສະໝັກວຽກ

Legal

  • ຂໍ້ກໍານົດການໃຫ້ບໍລິການ
  • ນະໂຍບາຍຄວາມເປັນສ່ວນຕົວ

© 2025-2026Enison Sole Co., Ltd. All rights reserved.

🇯🇵JA🇺🇸EN🇹🇭TH🇱🇦LO
5 ຂັ້ນຕອນໃນການແຍກແຍະ Deepfake — ຄູ່ມືປ້ອງກັນຂ່າວປອມ ແລະ ການປອມແປງສຽງດ້ວຍ AI | Enison Sole Co., Ltd.
  1. Home
  2. ບລັອກ
  3. 5 ຂັ້ນຕອນໃນການແຍກແຍະ Deepfake — ຄູ່ມືປ້ອງກັນຂ່າວປອມ ແລະ ການປອມແປງສຽງດ້ວຍ AI

5 ຂັ້ນຕອນໃນການແຍກແຍະ Deepfake — ຄູ່ມືປ້ອງກັນຂ່າວປອມ ແລະ ການປອມແປງສຽງດ້ວຍ AI

7 ພຶດສະພາ 2026
5 ຂັ້ນຕອນໃນການແຍກແຍະ Deepfake — ຄູ່ມືປ້ອງກັນຂ່າວປອມ ແລະ ການປອມແປງສຽງດ້ວຍ AI

ບົດນຳ

Deepfake (ດີບເຟກ) ແມ່ນສື່ທີ່ສ້າງຂຶ້ນໂດຍ Generative AI ເຊິ່ງມີຄວາມແນບນຽນຈົນບໍ່ສາມາດແຍກອອກຈາກຂອງແທ້ໄດ້ ແລະ ຖືກນຳໃຊ້ເພື່ອຫຼອກລວງຜູ້ຄົນ. ໃນບົດຄວາມນີ້, ພວກເຮົາຈະສະຫຼຸບວິທີການສັງເກດ Deepfake ດ້ວຍ 5 ຂັ້ນຕອນ, ການຮັບມືກັບຂ່າວປອມຈາກ AI ແລະ ການປອມແປງສຽງ (Voice Clone), ຂັ້ນຕອນການກວດສອບທີ່ມາຂອງຂໍ້ມູນດ້ວຍ C2PA / Content Credentials, ລວມໄປເຖິງມາດຕະການປ້ອງກັນການສໍ້ໂກງແບບແອບອ້າງເປັນບຸກຄົນອື່ນ (BEC) ທີ່ແນເປົ້າໝາຍໃສ່ອົງກອນ. ເນື້ອຫານີ້ອະທິບາຍໃຫ້ທັງຜູ້ອ່ານທົ່ວໄປທີ່ພົບເຫັນຂໍ້ມູນປອມໃນ SNS ແລະ ພະນັກງານໃນອົງກອນທີ່ອາດໄດ້ຮັບຂໍ້ຄວາມປອມໃນເວລາເຮັດວຽກ. ນອກຈາກນີ້, ຖ້າທ່ານອ່ານ ບົດນຳສະເໜີກ່ຽວກັບມາດຕະການຮັບມືຄວາມສ່ຽງດ້ານ AI ແລະ ໄຊເບີສຳລັບ SMEs ຄວບຄູ່ກັນໄປ, ທ່ານຈະສາມາດກຽມຄວາມພ້ອມດ້ານໂຄງສ້າງພື້ນຖານ ຫຼື Infrastructure ກ່ອນການນຳ AI ມາໃຊ້ໃນການເຮັດວຽກໄດ້ຢ່າງຄົບວົງຈອນ.

5 ຂັ້ນຕອນກ່ອນການແບ່ງປັນຂໍ້ມູນ

ກ່ອນຈະແຊຣ໌ Deepfake ຫຼື ຂ່າວປອມຈາກ AI, ພຽງແຕ່ຜ່ານ 5 ຂັ້ນຕອນຄື: ການກວດສອບແຫຼ່ງທີ່ມາ, ການກວດສອບກັບຫຼາຍແຫຼ່ງຂໍ້ມູນ, ການກວດສອບ provenance, ຢ່າໃຊ້ສຽງ/ຮູບພາບເປັນຫຼັກຖານພຽງຢ່າງດຽວ, ແລະ ການຄິດໄຕ່ຕອງໃຫ້ຖີ່ຖ້ວນ ກໍສາມາດປ້ອງກັນການແຜ່ກະຈາຍຂອງຂໍ້ມູນທີ່ຜິດພາດ ແລະ ຄວາມເສຍຫາຍຈາກການສໍ້ໂກງໄດ້ເກືອບທັງໝົດ.

ເມື່ອໄດ້ຮັບຂ່າວ, ຮູບພາບ, ວິດີໂອ ຫຼື ຂໍ້ຄວາມສຽງ, ກ່ອນຈະແຊຣ໌ໃຫ້ຜ່ານ 5 ຂັ້ນຕອນຕໍ່ໄປນີ້ ເພື່ອເພີ່ມຄວາມຖືກຕ້ອງໃນການຈຳແນກຂໍ້ມູນປອມທີ່ມາຈາກ AI ໃຫ້ສູງຂຶ້ນ:

  1. ກວດສອບແຫຼ່ງທີ່ມາ — ລະບຸໃຫ້ໄດ້ວ່າອົງການ, ສື່ ຫຼື ບັນຊີໃດເປັນຜູ້ເຜີຍແຜ່ ແລະ ເປັນແຫຼ່ງຂໍ້ມູນທີ່ເຊື່ອຖືໄດ້ຫຼືບໍ່.
  2. ກວດສອບກັບຫຼາຍແຫຼ່ງຂໍ້ມູນ — ຢ່າໃຊ້ພຽງໂພສດຽວເປັນຫຼັກຖານ, ໃຫ້ກວດສອບວ່າສື່ສາຍອື່ນລາຍງານຂໍ້ມູນດຽວກັນນີ້ຫຼືບໍ່.
  3. ກວດສອບ provenance (ປະຫວັດຄວາມເປັນມາ) — ຖ້າຮູບພາບ ຫຼື ໄຟລ໌ມີຂໍ້ມູນປະຫວັດຄວາມເປັນມາເຊັ່ນ Content Credentials (C2PA), ໃຫ້ກວດສອບປະຫວັດການສ້າງ ຫຼື ການແກ້ໄຂ.
  4. ຢ່າໃຊ້ສຽງ/ຮູບພາບເປັນຫຼັກຖານພຽງຢ່າງດຽວ — ໃນຍຸກທີ່ Voice Clone ແລະ Deepfake ແຜ່ຫຼາຍ, ຢ່າຕັດສິນໃຈໂດຍໃຊ້ພຽງສຽງ ແລະ ວິດີໂອເທົ່ານັ້ນ.
  5. "ຄິດໄຕ່ຕອງໃຫ້ຖີ່ຖ້ວນ" ໂດຍການໃຫ້ເວລາ — ຂໍ້ມູນທີ່ກະຕຸ້ນອາລົມຢ່າງຮຸນແຮງ ໃຫ້ຢຸດພັກ ແລະ ກວດສອບຊ້ຳອີກຄັ້ງໂດຍບໍ່ຟ້າວຟັ່ງ.

ລາຍການເຫຼົ່ານີ້ບໍ່ໄດ້ຮຽກຮ້ອງໃຫ້ໃຊ້ເຄື່ອງມືພິເສດໃດໆ. ຫາກສາມາດນຳມາປັບໃຊ້ເປັນນິດໄສໃນຊີວິດປະຈຳວັນໄດ້ ກໍຈະສາມາດປົກປ້ອງຕົນເອງ ແລະ ອົງກອນຈາກການແຜ່ກະຈາຍຂອງຂໍ້ມູນທີ່ຜິດພາດໄດ້ຫຼາຍ. ຕໍ່ໄປນີ້ແມ່ນການຈັດລຽງມຸມມອງທີ່ຈຳເປັນເພື່ອປະຕິບັດຕາມແຕ່ລະຂັ້ນຕອນ.

ເປັນຫຍັງຂໍ້ມູນປອມຈາກ AI ຈຶ່ງອັນຕະລາຍກວ່າແຕ່ກ່ອນ

ໃນຍຸກປັດຈຸບັນ, ຂໍ້ມູນບິດເບືອນທີ່ມາຈາກ AI ບໍ່ວ່າຈະເປັນຂໍ້ຄວາມ, ຮູບພາບ, ສຽງ ຫຼື ວິດີໂອ ລ້ວນແຕ່ສາມາດສ້າງຂຶ້ນໄດ້ຢ່າງວ່ອງໄວ, ລາຄາຖືກ ແລະ ໃນປະລິມານມະຫາສານ. NIST GenAI Profile ແລະ UNESCO ໄດ້ກຳນົດໃຫ້ການທຳລາຍຄວາມສົມບູນຂອງຂໍ້ມູນ (information integrity) ແລະ ການສູນເສຍຄວາມເຊື່ອໝັ້ນຕໍ່ "ຫຼັກຖານ" ເປັນຄວາມສ່ຽງຫຼັກໃນຍຸກຂອງ Generative AI.

ໃນອະດີດ, ຂ່າວປອມກໍມີຢູ່ແລ້ວ ແຕ່ຂໍ້ຄວາມຍັງບໍ່ລຽບນຽນ, ຮູບພາບທີ່ຕັດຕໍ່ກໍເບິ່ງບໍ່ເປັນທຳມະຊາດ ເຮັດໃຫ້ຍັງມີຊ່ອງວ່າງໃຫ້ພິຈາລະນາອອກ. ການແຜ່ຫຼາຍຂອງ Generative AI ໄດ້ປ່ຽນແປງສະຖານະການນີ້, ເຮັດໃຫ້ວິດີໂອ Deepfake, ການປອມແປງສຽງ (Voice clone) ແລະ ຂໍ້ຄວາມຟິດຊິງ (Phishing) ທີ່ສ້າງໂດຍ AI ສາມາດສ້າງຂຶ້ນໄດ້ຢ່າງວ່ອງໄວ, ລາຄາຖືກ ແລະ ໃນປະລິມານມະຫາສານ. ການທີ່ NIST ໄດ້ຍົກໃຫ້ "information integrity (ຄວາມສົມບູນຂອງຂໍ້ມູນ)" ແລະ ການນຳໃຊ້ເນື້ອຫາສັງເຄາະໃນທາງທີ່ຜິດ ເປັນໜຶ່ງໃນຄວາມສ່ຽງຫຼັກໃນ AI Risk Management Framework ຂອງ Generative AI Profile ນັ້ນ ກໍເປັນການສະທ້ອນເຖິງການປ່ຽນແປງນີ້.

UNESCO ຍັງໄດ້ຊີ້ໃຫ້ເຫັນວ່າ Deepfake ບໍ່ພຽງແຕ່ເພີ່ມຂໍ້ມູນບິດເບືອນໃນພື້ນທີ່ຂໍ້ມູນເທົ່ານັ້ນ, ແຕ່ຍັງທຳລາຍຄວາມເຊື່ອໝັ້ນຕໍ່ "ຫຼັກຖານ" ແລະ "ຄວາມຈິງ" ອີກດ້ວຍ. ການທີ່ຄວາມເຊື່ອໝັ້ນແບບເດີມທີ່ວ່າ "ເຫັນກັບຕາໃນວິດີໂອຄືຂອງແທ້" ຫຼື "ມີສຽງຢືນຢັນຄືຕົວຈິງ" ໄດ້ພັງທະລາຍລົງນັ້ນ ຄືການປ່ຽນແປງທາງໂຄງສ້າງທີ່ໃຫຍ່ຫຼວງທີ່ສຸດ.

4 ຮູບແບບຂອງຂໍ້ມູນປອມຈາກ AI — ຂໍ້ຄວາມ/ຮູບພາບ/ສຽງ/ວິດີໂອ

ສະຫຼຸບ: ຮູບແບບ (ຂໍ້ຄວາມ/ຮູບພາບ/ສຽງ/ວິດີໂອ) ແຕ່ລະຢ່າງມີລັກສະນະຄວາມເສຍຫາຍທີ່ແຕກຕ່າງກັນຢ່າງສິ້ນເຊີງ. ສິ່ງທີ່ນຳໄປສູ່ຄວາມເສຍຫາຍທາງການເງິນຫຼາຍທີ່ສຸດຄື ການສັ່ງໂອນເງິນໂດຍໃຊ້ການປອມແປງສຽງ (Voice Clone) ແລະ ການປອມແປງຕົວຕົນດ້ວຍວິດີໂອ Deepfake.

Deepfake ແລະ ຂໍ້ມູນປອມທີ່ສ້າງຂຶ້ນໂດຍ AI ສາມາດແບ່ງອອກເປັນ 4 ຮູບແບບໃຫຍ່ໆ ເຊິ່ງແຕ່ລະຮູບແບບມີປະເພດຄວາມສ່ຽງ ແລະ ຄວາມຍາກໃນການຮັບມືທີ່ແຕກຕ່າງກັນ.

ຮູບແບບຕົວຢ່າງຄວາມເສຍຫາຍຫຼັກ
ຂໍ້ຄວາມຂ່າວປອມ, ແຈ້ງການພາຍໃນບໍລິສັດປອມ, ລີວິວສິນຄ້າປອມ, ການເຮັດ Phishing ດ້ວຍ AIຄວາມເຂົ້າໃຈຜິດ, ການເສື່ອມເສຍຊື່ສຽງຂອງແບຣນ, ການສໍ້ໂກງເງິນ
ຮູບພາບຮູບພາບຕັດຕໍ່ນັກການເມືອງ, ຮູບພາບປອມຂອງສະຖານທີ່ເກີດໄພພິບັດ, ໂຄສະນາສິນຄ້າປອມການຄວບຄຸມກະແສສັງຄົມ, ການປອມແປງຕົວຕົນ, ການລະເມີດເຄື່ອງໝາຍການຄ້າ
ສຽງການສັ່ງໂອນເງິນດ້ວຍການປອມແປງສຽງ (Voice Clone), ການຫຼອກລວງໂດຍປອມເປັນສະມາຊິກໃນຄອບຄົວການສໍ້ໂກງເງິນ, ການທຳລາຍຄວາມເຊື່ອໝັ້ນ
ວິດີໂອວິດີໂອ Deepfake, ວິດີໂອປອມທີ່ປອມເປັນ CEOBEC, ການປັ່ນລາຄາຫຸ້ນ, ການທຳລາຍຄວາມໜ້າເຊື່ອຖື

ຜົນກະທົບຕໍ່ປະຊາຊົນທົ່ວໄປ ແລະ ຜົນກະທົບຕໍ່ B2B

ຜົນກະທົບຕໍ່ປະຊາຊົນທົ່ວໄປຈະປາກົດໃນຮູບແບບຂອງການແບ່ງປັນຂໍ້ມູນທີ່ຜິດໆ ແລະ ເຜີຍແຜ່ຕໍ່ໃຫ້ຄອບຄົວຫຼືໝູ່ເພື່ອນ, ການຖືກຫຼອກລວງດ້ວຍໂຄສະນາປອມເທິງສື່ສັງຄົມອອນລາຍ, ແລະ ການທີ່ຮູບພາບຫຼືສຽງຂອງຕົນເອງຖືກນຳໄປສັງເຄາະໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ. ໃນຂະນະດຽວກັນ, ສຳລັບ B2B ໄພຂົ່ມຂູ່ຫຼັກແມ່ນການໂຈມຕີດ້ວຍຂໍ້ຄວາມທີ່ປອມແປງເປັນຫົວໜ້າ, ຄູ່ຄ້າ ຫຼື ໜ່ວຍງານກຳກັບດູແລ ເພື່ອຫຼອກໃຫ້ໂອນເງິນ ຫຼື ເປີດຕົວ ຫຼື Launch ຂໍ້ມູນ. ເອກະສານ "Deepfake Threats to Organizations" ຂອງ CISA, NSA ແລະ FBI ກໍໄດ້ລະບຸວ່າ Deepfake ປະເພດປອມແປງຕົວຕົນເປັນໄພຂົ່ມຂູ່ທີ່ແທ້ຈິງທີ່ແນເປົ້າໝາຍໃສ່ອົງກອນ.

ສຳລັບບໍລິສັດຍີ່ປຸ່ນໃນພາກພື້ນ ASEAN ທີ່ມີພະນັກງານຫຼາກຫຼາຍພາສາ, ມັກຈະມີການດຳເນີນງານທີ່ໃຊ້ການສົນທະນາຜ່ານແຊັດ ຫຼື ຂໍ້ຄວາມສຽງສັ້ນໆລະຫວ່າງສຳນັກງານໃຫຍ່, ຜູ້ຈັດການທ້ອງຖິ່ນ ແລະ ຄູ່ຄ້າ. ຊ່ອງທາງໃດທີ່ມີວັດທະນະທຳການຢືນຢັນຕົວຕົນທີ່ບໍ່ເຂັ້ມງວດ, ມັກຈະມີຄວາມສ່ຽງທີ່ຈະໄດ້ຮັບຄວາມເສຍຫາຍຈາກການປອມແປງດ້ວຍ AI ໄດ້ງ່າຍຂຶ້ນ.

ຈຸດສັງເກດເພື່ອຈຳແນກຂໍ້ຄວາມ ແລະ ຮູບພາບປອມ

ຂໍ້ຄວາມທີ່ສ້າງໂດຍ AI ຈະຍັງຄົງມີຮູບແບບທີ່ສາມາດສັງເກດໄດ້ ເຊັ່ນ: "ຕົວເລກສະເພາະທີ່ບໍ່ມີແຫຼ່ງອ້າງອີງ", "ຮູບແບບການຂຽນທີ່ລຽບງ່າຍເກີນໄປ", ແລະ "ຂ່າວດ່ວນຈາກສື່ດຽວ", ສ່ວນຮູບພາບ Deepfake ກໍສາມາດຈຳແນກໄດ້ໂດຍການກວດສອບຈຸດຕ່າງໆ ເຊັ່ນ: "ນິ້ວມື, ແຂ້ວ, ແສງ, ແລະ ຕົວໜັງສື". ຢ່າງໃດກໍຕາມ, ການກວດສອບດ້ວຍສາຍຕາເປັນພຽງການກັ່ນຕອງຂັ້ນທຳອິດເທົ່ານັ້ນ ແລະ ຈຳເປັນຕ້ອງມີການປ້ອງກັນຫຼາຍຊັ້ນດ້ວຍການກວດສອບ Provenance.

ການກວດສອບດ້ວຍສາຍຕາຂອງມະນຸດນັ້ນບໍ່ໄດ້ສົມບູນແບບ, ແຕ່ການຮູ້ຮູບແບບເຫຼົ່ານີ້ຈະຊ່ວຍຫຼຸດຄວາມຖີ່ຂອງການກວດພາດໄດ້. ສິ່ງທີ່ສຳຄັນບໍ່ແມ່ນການຕັດສິນແບບສອງຂົ້ວວ່າ "ຖ້າເບິ່ງອອກຄືຂອງແທ້, ຖ້າເບິ່ງບໍ່ອອກຄືຂອງປອມ", ແຕ່ແມ່ນການດຳເນີນງານໂດຍຕັ້ງສົມມຸດຕິຖານວ່າ "ການກວດສອບດ້ວຍສາຍຕາເປັນພຽງການກັ່ນຕອງຂັ້ນທຳອິດ, ບໍ່ແມ່ນການຕັດສິນຂັ້ນສຸດທ້າຍ".

5 ສັນຍານຂອງຂໍ້ຄວາມທີ່ສ້າງໂດຍ AI

ບົດຄວາມທີ່ຂຽນໂດຍ AI ມີຄວາມຖືກຕ້ອງເພີ່ມຂຶ້ນ ແຕ່ໃນບາງສະຖານະການກໍຍັງມີຮູບແບບທີ່ສາມາດເບິ່ງອອກໄດ້ງ່າຍດັ່ງນີ້:

  • ມີການລະບຸຕົວເລກທີ່ຊັດເຈນໂດຍບໍ່ມີການອ້າງອີງແຫຼ່ງທີ່ມາ
  • ຫົວຂໍ້ທີ່ກະຕຸ້ນອາລົມຢ່າງຮຸນແຮງ ແຕ່ເນື້ອໃນພາຍໃນກັບເບົາບາງ
  • ຮູບແບບການຂຽນທີ່ລຽບງ່າຍເກີນໄປ ຈົນເຮັດໃຫ້ຈຸດປະສົງຂອງເນື້ອຫາບໍ່ຊັດເຈນ
  • ມີການຂຽນວ່າ "ອີງຕາມຜູ້ຊ່ຽວຊານທ່ານໜຶ່ງ" ແຕ່ບໍ່ໄດ້ລະບຸຕົວຕົນຂອງບຸກຄົນນັ້ນ
  • ມີການນຳສະເໜີຄືກັບຂ່າວດ່ວນ ແຕ່ບໍ່ສາມາດຊອກຫາຂໍ້ມູນດຽວກັນນີ້ໄດ້ຈາກສື່ຫຼັກອື່ນໆ

ການຄິດວ່າ "ເນື້ອຫາທີ່ຂຽນໄດ້ລຽບງ່າຍຄືເນື້ອຫາທີ່ເຊື່ອຖືໄດ້" ນັ້ນບໍ່ສາມາດໃຊ້ໄດ້. ຄຸນນະພາບຂອງຮູບແບບການຂຽນ ແລະ ຄວາມຖືກຕ້ອງຂອງເນື້ອຫາແມ່ນຕົວຊີ້ວັດທີ່ແຕກຕ່າງກັນ. ສິ່ງທີ່ Google Search Central ເນັ້ນຢ້ຳໃນຖານະແນວທາງຂອງ Helpful Content ກໍຄືເນື້ອຫາທີ່ "ເຊື່ອຖືໄດ້ ແລະ ຍຶດຖືມະນຸດເປັນຈຸດສຳຄັນ ຫຼື ແກນຫຼັກ" ເຊິ່ງເນື້ອຫາທີ່ເບົາບາງ ແລະ ຖືກຜະລິດຂຶ້ນຈຳນວນຫຼາຍດ້ວຍ AI ນັ້ນ ບໍ່ໄດ້ຖືກແນະນຳໃນມຸມມອງຂອງຄຸນນະພາບການຄົ້ນຫາ.

ວິທີຈຳແນກຮູບພາບທີ່ສ້າງໂດຍ AI (ມື, ແຂ້ວ, ແສງ, ຕົວໜັງສື)

ເຖິງວ່າຄຸນນະພາບຂອງຮູບພາບທີ່ສ້າງໂດຍ AI ຈະເພີ່ມຂຶ້ນ, ແຕ່ໃນປັດຈຸບັນຍັງມີຈຸດທີ່ຕ້ອງກວດສອບຢູ່ເລື້ອຍໆດັ່ງນີ້:

  • ນິ້ວມື: ຈຳນວນນິ້ວມື, ຂໍ້ນິ້ວມືທີ່ບໍ່ເປັນທຳມະຊາດ, ຮູບຮ່າງຂອງເລັບ
  • ແຂ້ວ ແລະ ຫູ: ການຈັດລຽງຂອງແຂ້ວທີ່ຜິດປົກກະຕິ, ເຄື່ອງປະດັບທີ່ບໍ່ສົມມາດກັນ
  • ແສງ ແລະ ເງົາ: ຄວາມບໍ່ສອດຄ່ອງກັນຂອງແຫຼ່ງກຳເນີດແສງ ແລະ ທິດທາງຂອງເງົາ, ຄວາມຂັດແຍ່ງຂອງແຫຼ່ງກຳເນີດແສງຫຼາຍຈຸດ
  • ຂໍ້ມູນຕົວໜັງສື: ຕົວໜັງສືໃນປ້າຍ ຫຼື ພື້ນຫຼັງທີ່ອ່ານບໍ່ອອກ, ບິດເບี้ยว
  • ພື້ນຫຼັງ: ຮອຍຕັດຂອງການເຮັດໜ້າຊັດຫຼັງມົວ (Blur) ທີ່ບໍ່ເປັນທຳມະຊາດ, ລາຍລະອຽດຂອງໃບໜ້າຝູງຊົນທີ່ຜິດພ້ຽນ

ຢ່າງໃດກໍຕາມ, ເມື່ອໂມເດວມີການພັດທະນາຂຶ້ນ, ສັນຍານເຫຼົ່ານີ້ຈະຄ່ອຍໆຫາຍໄປ. ທ່າອ່ຽງໃນປັດຈຸບັນແມ່ນການປ່ຽນຈຸດສຸມໄປສູ່ການກວດສອບທີ່ມາທາງເຕັກນິກ ເຊັ່ນ: Content Credentials ເຊິ່ງຈະກ່າວເຖິງໃນພາກຕໍ່ໄປ.

ຂີດຈຳກັດຂອງການ "ເບິ່ງດ້ວຍຕາເປົ່າ"

ການກວດສອບດ້ວຍຕາເປົ່າແມ່ນມີຄວາມສະດວກ ແຕ່ບໍ່ຄວນປ່ອຍໃຫ້ເປັນການຕັດສິນໃຈພຽງຢ່າງດຽວ. ກໍລະນີທີ່ຮູບພາບ AI ບໍ່ສາມາດເບິ່ງອອກໄດ້ໃນທັນທີນັ້ນ ຈະມີຈຳນວນ ເພີ່ມທະວີຂຶ້ນເລື້ອຍໆ ໃນອະນາຄົດ. ໃນການຕັດສິນໃຈທີ່ສຳຄັນ (ການເຮັດສັນຍາ, ການໂອນເງິນ, ການລາຍງານຂ່າວ, ການປະກາດພາຍໃນບໍລິສັດ), ນອກຈາກການກວດສອບດ້ວຍຕາເປົ່າແລ້ວ ຍັງຈຳເປັນຕ້ອງມີການປ້ອງກັນຫຼາຍຊັ້ນ ໂດຍການປະສົມປະສານທັງການກວດສອບແຫຼ່ງທີ່ມາ, ການປຽບທຽບຈາກຫຼາຍແຫຼ່ງຂໍ້ມູນ ແລະ ການກວດສອບຂໍ້ມູນ provenance ຖ້າຫາກສາມາດເຮັດໄດ້.

C2PA ແລະ Content Credentials — ການກວດສອບທີ່ມາຂອງສື່ (provenance)

C2PA (Coalition for Content Provenance and Authenticity) ແມ່ນມາດຕະຖານເປີດທີ່ເພີ່ມຂໍ້ມູນ "ສ້າງຂຶ້ນເມື່ອໃດ, ໃຜເປັນຜູ້ສ້າງ, ສ້າງດ້ວຍຫຍັງ ແລະ ໄດ້ແກ້ໄຂແນວໃດ" ໃຫ້ກັບສື່ຕ່າງໆ ໃນຮູບແບບທີ່ສາມາດກວດສອບການປອມແປງໄດ້. ສິ່ງທີ່ຜູ້ໃຊ້ເຫັນໃນການນຳໃຊ້ຕົວຈິງແມ່ນ "Content Credentials" ເຊິ່ງຈະມີການບັນທຶກພ້ອມລາຍເຊັນດິຈິຕອນວ່າເນື້ອຫານັ້ນຖືກສ້າງຂຶ້ນໂດຍ AI ຫຼືບໍ່.

ເພື່ອຮັບມືກັບ "ຍຸກທີ່ບໍ່ສາມາດເບິ່ງອອກດ້ວຍຕາເປົ່າ", C2PA ແລະ Content Credentials ຈຶ່ງໄດ້ຖືກພັດທະນາຂຶ້ນ. ນີ້ແມ່ນກົນໄກໃນການເພີ່ມຂໍ້ມູນປະຫວັດຄວາມເປັນມາຂອງສື່ດິຈິຕອນ ເຊັ່ນ: ຮູບພາບ, ວິດີໂອ, ສຽງ ແລະ ເອກະສານ ໂດຍລະບຸວ່າ "ສ້າງຂຶ້ນເມື່ອໃດ, ໃຜເປັນຜູ້ສ້າງ, ສ້າງດ້ວຍຫຍັງ ແລະ ໄດ້ແກ້ໄຂແນວໃດ" ໃນຮູບແບບທີ່ສາມາດກວດສອບການປອມແປງໄດ້.

C2PA ແມ່ນຫຍັງ ແລະ ເຮັດວຽກແນວໃດ

C2PA (Coalition for Content Provenance and Authenticity) ແມ່ນມາດຕະຖານເປີດເພື່ອຢືນຢັນທີ່ມາ (provenance) ແລະ ຄວາມແທ້ຈິງ (authenticity) ຂອງສື່. Adobe, Microsoft, BBC ແລະອົງການຈັດຕັ້ງອື່ນໆອີກຫຼາຍແຫ່ງໄດ້ເຂົ້າຮ່ວມ, ເຮັດໃຫ້ມັນກາຍເປັນມາດຕະຖານທີ່ແຜ່ຂະຫຍາຍໄປທົ່ວອຸດສາຫະກຳ. ໃນທາງເຕັກນິກ, ມັນເປັນກົນໄກໃນການຝັງເມຕາເດຕາ (Manifest) ທີ່ມີລາຍເຊັນດິຈິຕອນລົງໃນໄຟລ໌ສື່ ເພື່ອໃຫ້ສາມາດກວດສອບໄດ້ໃນພາຍຫຼັງ.

ການນຳໄປໃຊ້ງານທີ່ຜູ້ໃຊ້ສາມາດເຫັນໄດ້ຄື "Content Credentials". ຮູບພາບທີ່ຖ່າຍດ້ວຍກ້ອງທີ່ຮອງຮັບ, ຮູບພາບທີ່ແກ້ໄຂດ້ວຍໂປຣແກຣມແກ້ໄຂທີ່ຮອງຮັບ, ແລະຮູບພາບ AI ທີ່ສ້າງຂຶ້ນໂດຍເຄື່ອງມືທີ່ຮອງຮັບ ຈະມີການບັນທຶກຂໍ້ມູນອຸປະກອນທີ່ໃຊ້ຖ່າຍ, ປະຫວັດການແກ້ໄຂ, ແລະຂໍ້ມູນວ່າຮູບນັ້ນຖືກສ້າງຂຶ້ນໂດຍ AI ຫຼືບໍ່.

ຂັ້ນຕອນການກວດສອບ Content Credentials

ເມື່ອໄດ້ຮັບສື່ທີ່ມີການໃສ່ Content Credentials, ຂັ້ນຕອນການກວດສອບຈະມີດັ່ງນີ້:

  1. ຊອກຫາໄອຄອນປະຫວັດຄວາມເປັນມາຂອງສື່ໃນ Browser Extension, ໂປຣແກຣມເບິ່ງຂໍ້ມູນສະເພາະ ຫຼື UI ຂອງສື່ສັງຄົມອອນລາຍທີ່ຮອງຮັບ
  2. ຄລິກທີ່ໄອຄອນເພື່ອເບິ່ງຜູ້ສ້າງ, ຜູ້ແກ້ໄຂ, ປະຫວັດການແກ້ໄຂ ແລະ ກວດສອບວ່າເປັນສິ່ງທີ່ສ້າງຂຶ້ນໂດຍ AI ຫຼືບໍ່
  3. ກວດສອບຄວາມຖືກຕ້ອງຂອງລາຍເຊັນດິຈິຕອນເພື່ອໃຫ້ແນ່ໃຈວ່າບໍ່ມີການປ່ຽນແປງຂໍ້ມູນ ຖ້າຈຳເປັນ

Google ໄດ້ແນະນຳໃນຄຳແນະນຳກ່ຽວກັບເນື້ອຫາ Generative AI ວ່າ ຄວນມີການໃສ່ Metadata ເຊັ່ນ IPTC DigitalSourceType ໄວ້ໃນຮູບພາບທີ່ສ້າງຂຶ້ນໂດຍ AI. Content Credentials ຖືກຈັດເປັນກົນໄກທີ່ເຮັດໃຫ້ Metadata ນີ້ມີຄວາມຄົບຖ້ວນສົມບູນ ແລະ ສາມາດກວດສອບໄດ້ຫຼາຍຂຶ້ນ.

ຂີດຈຳກັດ ແລະ ການນຳໃຊ້ໃນພາກປະຕິບັດ

ໃນທາງກັບກັນ, C2PA ບໍ່ແມ່ນສິ່ງທີ່ເຮັດໄດ້ທຸກຢ່າງ. ບໍ່ແມ່ນທຸກສື່ຈະມີຂໍ້ມູນທີ່ມາ (Provenance) ຕິດມາດ້ວຍ ແລະ ເມື່ອມີການແຄັບໜ້າຈໍແລ້ວ ລາຍເຊັນດັ່ງກ່າວກໍຈະສູນຫາຍໄປ. ນອກຈາກນີ້, SNS ບາງແພລດຟອມຍັງມີການລຶບ Metadata ອອກໃນຂະນະທີ່ໂພສອີກດ້ວຍ. ດັ່ງນັ້ນ, ໃນການປະຕິບັດງານຕົວຈິງ:

  • ຖ້າມີ Content Credentials ໃຫ້ກວດສອບຢ່າງຕັ້ງໜ້າ
  • ຖ້າບໍ່ມີ ກໍບໍ່ຄວນດ່ວນສະຫຼຸບວ່າເປັນຂອງປອມໃນທັນທີ (ອາດເປັນຮູບເກົ່າ ຫຼື ອຸປະກອນທີ່ບໍ່ຮອງຮັບ)
  • ໃນການຕັດສິນໃຈທີ່ສຳຄັນ ຄວນນຳໄປໃຊ້ຮ່ວມກັບຊ່ອງທາງອື່ນ (ການກວດສອບໂດຍກົງກັບຜູ້ເຜີຍແຜ່ ຫຼື ແຫຼ່ງຂໍ້ມູນທີ່ໜ້າເຊື່ອຖືໄດ້ຫຼາຍແຫຼ່ງ)

ການນຳໃຊ້ແບບຫຼາຍຊັ້ນຄືແນວທາງທີ່ເປັນຈິງ. ຂໍ້ມູນທີ່ມາຄວນຖືກນຳໃຊ້ເປັນເຄື່ອງມືເພື່ອ "ເລັ່ງຄວາມໄວໃນການກວດສອບຄວາມຖືກຕ້ອງ" ຫຼາຍກວ່າທີ່ຈະໃຊ້ເພື່ອ "ຮັບປະກັນຄວາມບໍລິສຸດ" ຂອງຂໍ້ມູນ, ເຊິ່ງຈະເຮັດໃຫ້ການດຳເນີນງານມີປະສິດທິພາບຫຼາຍຂຶ້ນ.

Voice Clone ແລະ Business Email Compromise — ກໍລະນີສຶກສາຂອງ B2B

ການໂຈມຕີດ້ວຍການໃຊ້ AI ຄລອນສຽງຂອງຜູ້ບໍລິຫານຈາກຕົວຢ່າງສຽງພຽງບໍ່ເທົ່າໃດວິນາທີ ແລ້ວສົ່ງສຽງນັ້ນໄປຫາພະນັກງານບັນຊີເພື່ອສັ່ງໃຫ້ "ໂອນເງິນດ່ວນ" ໄດ້ເກີດຂຶ້ນແລ້ວໃນຄວາມເປັນຈິງ. FTC ຂອງສະຫະລັດອາເມຣິກາໄດ້ອອກຄຳເຕືອນເຖິງຜູ້ບໍລິໂພກ, ແລະໃນການແຈ້ງເຕືອນຮ່ວມກັນຂອງ CISA, NSA ແລະ FBI ໄດ້ລະບຸວ່າເປັນໄພຄຸກຄາມທີ່ຮ້າຍແຮງຕໍ່ອົງກອນຕ່າງໆ.

ຄວາມສ່ຽງຈາກຂໍ້ມູນປອມທີ່ສ້າງໂດຍ AI ເຊິ່ງປະກົດອອກມາໃນຮູບແບບທີ່ຮ້າຍແຮງທີ່ສຸດສຳລັບບໍລິສັດ ຄືການປະສົມປະສານກັນລະຫວ່າງການຄລອນສຽງ (Voice Clone) ແລະ ການໂກງທາງອີເມລ໌ທຸລະກິດ (Business Email Compromise - BEC). FTC ຂອງສະຫະລັດອາເມຣິກາໄດ້ອອກຄຳເຕືອນເຖິງຜູ້ບໍລິໂພກກ່ຽວກັບການສໍ້ໂກງໂດຍໃຊ້ການຄລອນສຽງ, ເຊິ່ງມີການລາຍງານກ່ຽວກັບວິທີການປອມຕົວເປັນຄອບຄົວ ຫຼື ຄົນຮູ້ຈັກເພື່ອຮຽກຮ້ອງໃຫ້ມີການໂອນເງິນດ່ວນ. ການນຳເອົາກົນໄກດຽວກັນນີ້ມາໃຊ້ກັບຄວາມສຳພັນລະຫວ່າງຫົວໜ້າກັບລູກນ້ອງໃນບໍລິສັດ ກໍຄືຮູບແບບຂອງ BEC ທີ່ປອມແປງຕົວຕົນນັ້ນເອງ.

ສະຖານະການ "ການສັ່ງໂອນເງິນໂດຍປອມຕົວເປັນຫົວໜ້າ"

ຂັ້ນຕອນການໂຈມຕີໂດຍທົ່ວໄປມີດັ່ງນີ້: ຜູ້ໂຈມຕີຈະເລີ່ມຈາກການເກັບກຳຕົວຢ່າງສຽງ ແລະ ໃບໜ້າຂອງຜູ້ບໍລິຫານຈາກ SNS ຫຼື ເອກະສານ IR ຂອງບໍລິສັດ. ຈາກນັ້ນ, ຈະສ້າງຂໍ້ຄວາມສຽງສັ້ນໆ ຫຼື ຄລິບວິດີໂອ ແລ້ວສົ່ງໄປຫາພະນັກງານບັນຊີ ໂດຍມີເນື້ອຫາປະມານວ່າ "ຊ່ວຍໂອນເງິນຈາກບັນຊີນີ້ໄປໃຫ້ຄູ່ຄ້າຕ່າງປະເທດດ່ວນ, ສ່ວນເຫດຜົນຈະອະທິບາຍໃຫ້ຟັງພາຍຫຼັງ" ເຊິ່ງນ້ຳສຽງ ແລະ ວິທີການເວົ້າຈະຄ້າຍຄືກັບຕົວຈິງເກືອບທັງໝົດ. ພະນັກງານບັນຊີຈະຕັດສິນໃຈວ່າເປັນຂອງແທ້ ເນື່ອງຈາກໄດ້ຍິນສຽງ ແລະ ເຫັນວິດີໂອຂອງເຈົ້າຕົວຈິງ ບໍ່ແມ່ນພຽງແຕ່ອີເມວ ຈຶ່ງໄດ້ດຳເນີນການໂອນເງິນໄປ.

ເງື່ອນໄຂທີ່ເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍຄື ການທີ່ອົງກອນຍັງມີຄວາມເຊື່ອໝັ້ນແບບຝັງໃຈວ່າ "ຖ້າມີສຽງ ຫຼື ວິດີໂອ ກໍຄືຕົວຈິງ". ໃນເມື່ອ AI ສາມາດສ້າງສຽງ ແລະ ພາບໄດ້ຢ່າງງ່າຍດາຍແລ້ວ, ສົມມຸດຕິຖານນີ້ຈຶ່ງບໍ່ສາມາດນຳໃຊ້ໄດ້ອີກຕໍ່ໄປ.

ການປ້ອງກັນດ້ວຍການຢືນຢັນສອງຊ່ອງທາງ

ເສົາຫຼັກຂອງການປ້ອງກັນແມ່ນການປະຕິບັດຕາມກົດລະບຽບທີ່ວ່າ ຕ້ອງມີການຢືນຢັນຄຳສັ່ງທີ່ສຳຄັນຜ່ານ 2 ຊ່ອງທາງທີ່ແຕກຕ່າງກັນສະເໝີ:

  • ຄຳສັ່ງຜ່ານສຽງ ຕ້ອງໄດ້ຮັບການຢືນຢັນຄືນໃໝ່ຜ່ານທາງອີເມວ, ແຊັດ ຫຼື ການພົບປະໂດຍກົງ
  • ຄຳສັ່ງໂອນເງິນທີ່ເນັ້ນຄວາມຮີບດ່ວນ ຄວນຈະມີການພັກໄວ້ຊົ່ວຄາວໂດຍເຈດຕະນາ ແລ້ວຈຶ່ງໂທກັບໄປຢືນຢັນ
  • ແຈ້ງການປ່ຽນແປງບັນຊີຈາກຄູ່ຄ້າ ຕ້ອງໂທຫາດ້ວຍເບີໂທລະສັບທີ່ໄດ້ລົງທະບຽນໄວ້ແລ້ວເທົ່ານັ້ນ
  • ຄວນມີການນຳໃຊ້ "ລະຫັດລັບ (Codeword)" ລະຫວ່າງຜູ້ບໍລິຫານ, ພະແນກບັນຊີ ແລະ ຄູ່ຄ້າ

ໃນຄຳແນະນຳກ່ຽວກັບ Phishing ຂອງ CISA ຍັງໄດ້ລະບຸວ່າ ການສ້າງສະຖານະການໃຫ້ມີຄວາມຮີບດ່ວນ ແລະ ການໃຊ້ສິດອຳນາດໃນທາງທີ່ຜິດ ແມ່ນຮູບແບບທົ່ວໄປຂອງການໂຈມຕີ. ກົດລະບຽບທີ່ວ່າ "ຍິ່ງມີຄວາມຮີບດ່ວນສູງ ຍິ່ງຕ້ອງຢຸດຄິດ" ແມ່ນສິ່ງທີ່ວິສາຫະກິດຂະໜາດກາງ ແລະ ຂະໜາດນ້ອຍສາມາດນຳໄປປະຕິບັດໄດ້ຕັ້ງແຕ່ມື້ນີ້.

FAQ

ນີ້ແມ່ນການລວບລວມຄຳຖາມທີ່ພົບເລື້ອຍກ່ຽວກັບ Deepfake, ຂໍ້ມູນປອມທີ່ສ້າງໂດຍ AI ແລະ ຮູບພາບປອມ.

Q1. AI ສາມາດສ້າງຂ່າວປອມໄດ້ແທ້ຫຼືບໍ່?

ແມ່ນແລ້ວ, AI ສາມາດສ້າງຂ່າວປອມທີ່ໄຫຼລື່ນ ແລະ ເໝາະສົມກັບບໍລິບົດໄດ້. ແຕ່ຢ່າງໃດກໍຕາມ, "ການອ່ານທີ່ເປັນທຳມະຊາດ" ກັບ "ຄວາມຖືກຕ້ອງ" ແມ່ນຄົນລະເລື່ອງກັນ ແລະ ບໍ່ໄດ້ເປັນການຮັບປະກັນຄວາມແທ້ຈິງຂອງເນື້ອຫາ. GenAI Profile ຂອງ NIST ໄດ້ຍົກໃຫ້ເຫັນວ່າ ຄວາມຄົບຖ້ວນຂອງຂໍ້ມູນ (information integrity) ເປັນຄວາມສ່ຽງຫຼັກຂອງ Generative AI ແລະ Google Search Central ກໍໄດ້ແນະນຳໃຫ້ເນັ້ນເນື້ອຫາທີ່ມີມະນຸດເປັນຈຸດສຳຄັນ ຫຼື ແກນຫຼັກທີ່ມີຄວາມໜ້າເຊື່ອຖື.

Q2. ສາມາດຈຳແນກຮູບພາບທີ່ສ້າງໂດຍ AI ໄດ້ຫຼືບໍ່?

ສາມາດເຮັດໄດ້ໃນບາງສ່ວນ. ຄວາມບໍ່ເປັນທຳມະຊາດຂອງນິ້ວມື, ຄວາມສອດຄ່ອງຂອງແສງ ແລະ ເງົາ, ຕົວໜັງສືໃນປ້າຍໂຄສະນາ, ແລະ ຂອບຂອງການມົວ ແມ່ນຈຸດທີ່ໃຊ້ສັງເກດໃນປັດຈຸບັນ. ຢ່າງໃດກໍຕາມ, ເມື່ອຕົວແບບມີການພັດທະນາຂຶ້ນເລື້ອຍໆ, ການເບິ່ງດ້ວຍຕາເປົ່າຈະເຮັດໄດ້ຍາກຂຶ້ນ, ສະນັ້ນ ການນຳໃຊ້ Content Credentials (C2PA) ເພື່ອຢືນຢັນປະຫວັດຄວາມເປັນມາ, ການກວດສອບແຫຼ່ງທີ່ມາ, ແລະ ການນຳໄປປຽບທຽບກັບຫຼາຍແຫຼ່ງຂໍ້ມູນ ຈຶ່ງເປັນວິທີທີ່ເໝາະສົມໃນຄວາມເປັນຈິງ.

Q3. ຄວນປ້ອນຂໍ້ມູນສ່ວນຕົວໃຫ້ AI ຫຼືບໍ່?

ຕ້ອງມີການຕັດສິນໃຈຢ່າງລະມັດລະວັງ. ກ່ອນທີ່ຈະປ້ອນຂໍ້ມູນລູກຄ້າ, ເອກະສານພາຍໃນບໍລິສັດ, ແລະຂໍ້ມູນທີ່ມີຄວາມລະອຽດອ່ອນ, ຄວນກວດສອບຂໍ້ກຳນົດການໃຫ້ບໍລິການ, ນະໂຍບາຍການຮັກສາຂໍ້ມູນ, ແລະການນຳຂໍ້ມູນໄປໃຊ້ໃນການຝຶກຝົນ AI ຂອງບໍລິການນັ້ນໆ. UNESCO ຍັງໄດ້ຈັດໃຫ້ການປົກປ້ອງຂໍ້ມູນ ແລະ ຄວາມລັບ ເປັນປະເດັນສຳຄັນຄຽງຄູ່ກັບ misinformation ແລະ deepfake ໃນບໍລິບົດຂອງຄວາມຮູ້ດ້ານ AI (AI literacy), ເຊິ່ງສາມາດອ່ານລາຍລະອຽດເພີ່ມເຕີມໄດ້ທີ່ ວິທີການໃຊ້ AI ຢ່າງປອດໄພໃນລາວ? ຄູ່ມືການປະຕິບັດເພື່ອປົກປ້ອງຂໍ້ມູນສ່ວນບຸກຄົນ.

ສະຫຼຸບ

ສະຫຼຸບ

AI ບໍ່ໄດ້ໜ້າຢ້ານຍ້ອນຕົວມັນເອງ, ແຕ່ມັນໜ້າຢ້ານຍ້ອນຄວາມສາມາດໃນການສ້າງສິ່ງປອມທີ່ແນບເນຽນຈົນແຍກກັບຂອງແທ້ບໍ່ອອກ ດ້ວຍຕົ້ນທຶນທີ່ຖືກ, ໄວ ແລະ ໃນປະລິມານມະຫາສານ. ດັ່ງນັ້ນ, ສິ່ງທີ່ສຳຄັນຈຶ່ງບໍ່ແມ່ນການຊອກຫາເຄື່ອງມືກວດສອບພິເສດ, ແຕ່ແມ່ນການສ້າງນິໄສໃນ 5 ຂັ້ນຕອນກ່ອນການແຊຣ໌, ການກວດສອບດ້ວຍຕາ, ການໃຊ້ Content Credentials ແລະ ການກວດສອບສອງທາງ. ໃນຍຸກທີ່ຄວາມຖືກຕ້ອງຂອງຂໍ້ມູນສັ່ນຄອນຍ້ອນ AI, ການກະທຳທີ່ໜ້າເຊື່ອຖືທີ່ສຸດຄືນິໄສຄລາສສິກທີ່ວ່າ "ຢຸດພິຈາລະນາກ່ອນກວດສອບ".

ບົດຄວາມທີ່ຄວນອ່ານຕໍ່

  • ວິສາຫະກິດຂະໜາດກາງ ແລະ ຂະໜາດນ້ອຍ (SMB) ຄວນເລີ່ມຕົ້ນຮັບມືກັບຄວາມສ່ຽງດ້ານ AI ແລະ ໄຊເບີແນວໃດ? 6 ລາຍການກວດສອບເພື່ອຄວາມພ້ອມພາຍໃນ 30 ນາທີ — ຊຸດພື້ນຖານ 4 ຢ່າງທີ່ຄວນກຽມພ້ອມກ່ອນໃຊ້ AI, ລວມເຖິງການປ້ອງກັນອົງກອນຈາກ Deepfake
  • ການໃຊ້ AI ຢ່າງປອດໄພໃນລາວ? ຄູ່ມືພາກປະຕິບັດເພື່ອປົກປ້ອງຂໍ້ມູນສ່ວນບຸກຄົນ — ກົດລະບຽບການປະຕິບັດງານເພື່ອບໍ່ໃຫ້ຂໍ້ມູນສ່ວນບຸກຄົນ ແລະ ຂໍ້ມູນທີ່ລະອຽດອ່ອນຮົ່ວໄຫຼໄປສູ່ AI

ເອກະສານອ້າງອີງ

  • UNESCO. Deepfakes and the crisis of knowing. https://www.unesco.org/en/articles/deepfakes-and-crisis-knowing
  • UNESCO. AI and society: how to build a more responsible future. https://www.unesco.org/en/articles/ai-and-society-how-build-more-responsible-future
  • NIST. Artificial Intelligence Risk Management Framework: Generative AI Profile. https://www.nist.gov/publications/artificial-intelligence-risk-management-framework-generative-artificial-intelligence
  • FTC. Fighting back against harmful voice cloning. https://consumer.ftc.gov/consumer-alerts/2024/04/fighting-back-against-harmful-voice-cloning
  • CISA. NSA, FBI, and CISA Release Cybersecurity Information Sheet on Deepfake Threats. https://www.cisa.gov/news-events/alerts/2023/09/12/nsa-fbi-and-cisa-release-cybersecurity-information-sheet-deepfake-threats
  • C2PA. Verifying Media Content Sources. https://c2pa.org/
  • Google Search Central. Creating Helpful, Reliable, People-First Content. https://developers.google.com/search/docs/fundamentals/creating-helpful-content
  • Google Search Central. Google Search's Guidance on Generative AI Content. https://developers.google.com/search/docs/fundamentals/using-gen-ai-content

ຜູ້ຂຽນ · ຜູ້ກວດທານ

Chi
Enison

Chi

ສຳເລັດການສຶກສາສາຂາວິທະຍາສາດຄອມພິວເຕີ (Information Science) ຈາກມະຫາວິທະຍາໄລແຫ່ງຊາດລາວ ໂດຍໃນລະຫວ່າງການສຶກສາມີສ່ວນຮ່ວມໃນການພັດທະນາຊອບແວສະຖິຕິ (Statistical Software) ຈາກປະສົບການຕົວຈິງ ຈຶ່ງໄດ້ສ້າງພື້ນຖານດ້ານການວິເຄາະຂໍ້ມູນ (Data Analysis) ແລະ ການໂປຣແກຣມມິງ (Programming) ຢ່າງເຂັ້ມແຂງ. ຕັ້ງແຕ່ປີ 2021 ໄດ້ກ້າວເຂົ້າສູ່ເສັ້ນທາງການພັດທະນາ Web ແລະ ແອັບພລິເຄຊັນ (Application) ແລະ ຕັ້ງແຕ່ປີ 2023 ເປັນຕົ້ນມາ ໄດ້ສັ່ງສົມປະສົບການພັດທະນາຢ່າງເຕັມຮູບແບບທັງໃນດ້ານ Frontend ແລະ Backend. ໃນບໍລິສັດ ຮັບຜິດຊອບການອອກແບບ ແລະ ພັດທະນາ Web Service ທີ່ນຳໃຊ້ AI ພ້ອມທັງມີສ່ວນຮ່ວມໃນໂຄງການທີ່ປະສົມປະສານ ການປະມວນຜົນພາສາທຳມະຊາດ (NLP: Natural Language Processing), ການຮຽນຮູ້ຂອງເຄື່ອງ (Machine Learning), Generative AI ແລະ ໂມເດນພາສາຂະໜາດໃຫຍ່ (LLM: Large Language Model) ເຂົ້າກັບລະບົບທຸລະກິດ. ມີຄວາມກະຕືລືລົ້ນໃນການຕິດຕາມເທັກໂນໂລຊີໃໝ່ລ່າສຸດຢູ່ສະເໝີ ແລະ ໃຫ້ຄວາມສຳຄັນກັບຄວາມວ່ອງໄວໃນທຸກຂັ້ນຕອນ ຕັ້ງແຕ່ການທົດສອບດ້ານເທັກນິກ ຈົນເຖິງການນຳໄປໃຊ້ງານຈິງໃນລະບົບ Production.

ຕິດຕໍ່ພວກເຮົາ

ບົດຄວາມແນະນຳ

ວິສາຫະກິດຂະໜາດກາງ ແລະ ຂະໜາດນ້ອຍ (SME) ຄວນເລີ່ມຕົ້ນຮັບມືກັບຄວາມສ່ຽງດ້ານ AI ແລະ ໄຊເບີແນວໃດ? 6 ລາຍການກວດສອບເພື່ອຈັດການໃຫ້ສຳເລັດພາຍໃນ 30 ນາທີ
ອັບເດດ: 6 ພຶດສະພາ 2026

ວິສາຫະກິດຂະໜາດກາງ ແລະ ຂະໜາດນ້ອຍ (SME) ຄວນເລີ່ມຕົ້ນຮັບມືກັບຄວາມສ່ຽງດ້ານ AI ແລະ ໄຊເບີແນວໃດ? 6 ລາຍການກວດສອບເພື່ອຈັດການໃຫ້ສຳເລັດພາຍໃນ 30 ນາທີ

ໂຄງການ AI ຂ້າມຊາຍແດນອາຊຽນ — ຄູ່ມືການປະຕິບັດງານ RAG ຫຼາຍພາສາ ແລະ ການປັບໃຫ້ເຂົ້າກັບທ້ອງຖິ່ນ (Localization)
ອັບເດດ: 5 ພຶດສະພາ 2026

ໂຄງການ AI ຂ້າມຊາຍແດນອາຊຽນ — ຄູ່ມືການປະຕິບັດງານ RAG ຫຼາຍພາສາ ແລະ ການປັບໃຫ້ເຂົ້າກັບທ້ອງຖິ່ນ (Localization)

Categories

  • ລາວ(4)
  • AI ແລະ LLM(3)
  • DX ແລະ ດິຈິຕອນ(2)
  • ຄວາມປອດໄພ(2)
  • ຟິນເທັກ(1)

ສາລະບານ

  • ບົດນຳ
  • 5 ຂັ້ນຕອນກ່ອນການແບ່ງປັນຂໍ້ມູນ
  • ເປັນຫຍັງຂໍ້ມູນປອມຈາກ AI ຈຶ່ງອັນຕະລາຍກວ່າແຕ່ກ່ອນ
  • 4 ຮູບແບບຂອງຂໍ້ມູນປອມຈາກ AI — ຂໍ້ຄວາມ/ຮູບພາບ/ສຽງ/ວິດີໂອ
  • ຜົນກະທົບຕໍ່ປະຊາຊົນທົ່ວໄປ ແລະ ຜົນກະທົບຕໍ່ B2B
  • ຈຸດສັງເກດເພື່ອຈຳແນກຂໍ້ຄວາມ ແລະ ຮູບພາບປອມ
  • 5 ສັນຍານຂອງຂໍ້ຄວາມທີ່ສ້າງໂດຍ AI
  • ວິທີຈຳແນກຮູບພາບທີ່ສ້າງໂດຍ AI (ມື, ແຂ້ວ, ແສງ, ຕົວໜັງສື)
  • ຂີດຈຳກັດຂອງການ "ເບິ່ງດ້ວຍຕາເປົ່າ"
  • C2PA ແລະ Content Credentials — ການກວດສອບທີ່ມາຂອງສື່ (provenance)
  • C2PA ແມ່ນຫຍັງ ແລະ ເຮັດວຽກແນວໃດ
  • ຂັ້ນຕອນການກວດສອບ Content Credentials
  • ຂີດຈຳກັດ ແລະ ການນຳໃຊ້ໃນພາກປະຕິບັດ
  • Voice Clone ແລະ Business Email Compromise — ກໍລະນີສຶກສາຂອງ B2B
  • ສະຖານະການ "ການສັ່ງໂອນເງິນໂດຍປອມຕົວເປັນຫົວໜ້າ"
  • ການປ້ອງກັນດ້ວຍການຢືນຢັນສອງຊ່ອງທາງ
  • FAQ
  • Q1. AI ສາມາດສ້າງຂ່າວປອມໄດ້ແທ້ຫຼືບໍ່?
  • Q2. ສາມາດຈຳແນກຮູບພາບທີ່ສ້າງໂດຍ AI ໄດ້ຫຼືບໍ່?
  • Q3. ຄວນປ້ອນຂໍ້ມູນສ່ວນຕົວໃຫ້ AI ຫຼືບໍ່?
  • ສະຫຼຸບ