
Deepfake (ດີບເຟກ) ແມ່ນສື່ທີ່ສ້າງຂຶ້ນໂດຍ Generative AI ເຊິ່ງມີຄວາມແນບນຽນຈົນບໍ່ສາມາດແຍກອອກຈາກຂອງແທ້ໄດ້ ແລະ ຖືກນຳໃຊ້ເພື່ອຫຼອກລວງຜູ້ຄົນ. ໃນບົດຄວາມນີ້, ພວກເຮົາຈະສະຫຼຸບວິທີການສັງເກດ Deepfake ດ້ວຍ 5 ຂັ້ນຕອນ, ການຮັບມືກັບຂ່າວປອມຈາກ AI ແລະ ການປອມແປງສຽງ (Voice Clone), ຂັ້ນຕອນການກວດສອບທີ່ມາຂອງຂໍ້ມູນດ້ວຍ C2PA / Content Credentials, ລວມໄປເຖິງມາດຕະການປ້ອງກັນການສໍ້ໂກງແບບແອບອ້າງເປັນບຸກຄົນອື່ນ (BEC) ທີ່ແນເປົ້າໝາຍໃສ່ອົງກອນ. ເນື້ອຫານີ້ອະທິບາຍໃຫ້ທັງຜູ້ອ່ານທົ່ວໄປທີ່ພົບເຫັນຂໍ້ມູນປອມໃນ SNS ແລະ ພະນັກງານໃນອົງກອນທີ່ອາດໄດ້ຮັບຂໍ້ຄວາມປອມໃນເວລາເຮັດວຽກ. ນອກຈາກນີ້, ຖ້າທ່ານອ່ານ ບົດນຳສະເໜີກ່ຽວກັບມາດຕະການຮັບມືຄວາມສ່ຽງດ້ານ AI ແລະ ໄຊເບີສຳລັບ SMEs ຄວບຄູ່ກັນໄປ, ທ່ານຈະສາມາດກຽມຄວາມພ້ອມດ້ານໂຄງສ້າງພື້ນຖານ ຫຼື Infrastructure ກ່ອນການນຳ AI ມາໃຊ້ໃນການເຮັດວຽກໄດ້ຢ່າງຄົບວົງຈອນ.
ກ່ອນຈະແຊຣ໌ Deepfake ຫຼື ຂ່າວປອມຈາກ AI, ພຽງແຕ່ຜ່ານ 5 ຂັ້ນຕອນຄື: ການກວດສອບແຫຼ່ງທີ່ມາ, ການກວດສອບກັບຫຼາຍແຫຼ່ງຂໍ້ມູນ, ການກວດສອບ provenance, ຢ່າໃຊ້ສຽງ/ຮູບພາບເປັນຫຼັກຖານພຽງຢ່າງດຽວ, ແລະ ການຄິດໄຕ່ຕອງໃຫ້ຖີ່ຖ້ວນ ກໍສາມາດປ້ອງກັນການແຜ່ກະຈາຍຂອງຂໍ້ມູນທີ່ຜິດພາດ ແລະ ຄວາມເສຍຫາຍຈາກການສໍ້ໂກງໄດ້ເກືອບທັງໝົດ.
ເມື່ອໄດ້ຮັບຂ່າວ, ຮູບພາບ, ວິດີໂອ ຫຼື ຂໍ້ຄວາມສຽງ, ກ່ອນຈະແຊຣ໌ໃຫ້ຜ່ານ 5 ຂັ້ນຕອນຕໍ່ໄປນີ້ ເພື່ອເພີ່ມຄວາມຖືກຕ້ອງໃນການຈຳແນກຂໍ້ມູນປອມທີ່ມາຈາກ AI ໃຫ້ສູງຂຶ້ນ:
ລາຍການເຫຼົ່ານີ້ບໍ່ໄດ້ຮຽກຮ້ອງໃຫ້ໃຊ້ເຄື່ອງມືພິເສດໃດໆ. ຫາກສາມາດນຳມາປັບໃຊ້ເປັນນິດໄສໃນຊີວິດປະຈຳວັນໄດ້ ກໍຈະສາມາດປົກປ້ອງຕົນເອງ ແລະ ອົງກອນຈາກການແຜ່ກະຈາຍຂອງຂໍ້ມູນທີ່ຜິດພາດໄດ້ຫຼາຍ. ຕໍ່ໄປນີ້ແມ່ນການຈັດລຽງມຸມມອງທີ່ຈຳເປັນເພື່ອປະຕິບັດຕາມແຕ່ລະຂັ້ນຕອນ.
ໃນຍຸກປັດຈຸບັນ, ຂໍ້ມູນບິດເບືອນທີ່ມາຈາກ AI ບໍ່ວ່າຈະເປັນຂໍ້ຄວາມ, ຮູບພາບ, ສຽງ ຫຼື ວິດີໂອ ລ້ວນແຕ່ສາມາດສ້າງຂຶ້ນໄດ້ຢ່າງວ່ອງໄວ, ລາຄາຖືກ ແລະ ໃນປະລິມານມະຫາສານ. NIST GenAI Profile ແລະ UNESCO ໄດ້ກຳນົດໃຫ້ການທຳລາຍຄວາມສົມບູນຂອງຂໍ້ມູນ (information integrity) ແລະ ການສູນເສຍຄວາມເຊື່ອໝັ້ນຕໍ່ "ຫຼັກຖານ" ເປັນຄວາມສ່ຽງຫຼັກໃນຍຸກຂອງ Generative AI.
ໃນອະດີດ, ຂ່າວປອມກໍມີຢູ່ແລ້ວ ແຕ່ຂໍ້ຄວາມຍັງບໍ່ລຽບນຽນ, ຮູບພາບທີ່ຕັດຕໍ່ກໍເບິ່ງບໍ່ເປັນທຳມະຊາດ ເຮັດໃຫ້ຍັງມີຊ່ອງວ່າງໃຫ້ພິຈາລະນາອອກ. ການແຜ່ຫຼາຍຂອງ Generative AI ໄດ້ປ່ຽນແປງສະຖານະການນີ້, ເຮັດໃຫ້ວິດີໂອ Deepfake, ການປອມແປງສຽງ (Voice clone) ແລະ ຂໍ້ຄວາມຟິດຊິງ (Phishing) ທີ່ສ້າງໂດຍ AI ສາມາດສ້າງຂຶ້ນໄດ້ຢ່າງວ່ອງໄວ, ລາຄາຖືກ ແລະ ໃນປະລິມານມະຫາສານ. ການທີ່ NIST ໄດ້ຍົກໃຫ້ "information integrity (ຄວາມສົມບູນຂອງຂໍ້ມູນ)" ແລະ ການນຳໃຊ້ເນື້ອຫາສັງເຄາະໃນທາງທີ່ຜິດ ເປັນໜຶ່ງໃນຄວາມສ່ຽງຫຼັກໃນ AI Risk Management Framework ຂອງ Generative AI Profile ນັ້ນ ກໍເປັນການສະທ້ອນເຖິງການປ່ຽນແປງນີ້.
UNESCO ຍັງໄດ້ຊີ້ໃຫ້ເຫັນວ່າ Deepfake ບໍ່ພຽງແຕ່ເພີ່ມຂໍ້ມູນບິດເບືອນໃນພື້ນທີ່ຂໍ້ມູນເທົ່ານັ້ນ, ແຕ່ຍັງທຳລາຍຄວາມເຊື່ອໝັ້ນຕໍ່ "ຫຼັກຖານ" ແລະ "ຄວາມຈິງ" ອີກດ້ວຍ. ການທີ່ຄວາມເຊື່ອໝັ້ນແບບເດີມທີ່ວ່າ "ເຫັນກັບຕາໃນວິດີໂອຄືຂອງແທ້" ຫຼື "ມີສຽງຢືນຢັນຄືຕົວຈິງ" ໄດ້ພັງທະລາຍລົງນັ້ນ ຄືການປ່ຽນແປງທາງໂຄງສ້າງທີ່ໃຫຍ່ຫຼວງທີ່ສຸດ.
ສະຫຼຸບ: ຮູບແບບ (ຂໍ້ຄວາມ/ຮູບພາບ/ສຽງ/ວິດີໂອ) ແຕ່ລະຢ່າງມີລັກສະນະຄວາມເສຍຫາຍທີ່ແຕກຕ່າງກັນຢ່າງສິ້ນເຊີງ. ສິ່ງທີ່ນຳໄປສູ່ຄວາມເສຍຫາຍທາງການເງິນຫຼາຍທີ່ສຸດຄື ການສັ່ງໂອນເງິນໂດຍໃຊ້ການປອມແປງສຽງ (Voice Clone) ແລະ ການປອມແປງຕົວຕົນດ້ວຍວິດີໂອ Deepfake.
Deepfake ແລະ ຂໍ້ມູນປອມທີ່ສ້າງຂຶ້ນໂດຍ AI ສາມາດແບ່ງອອກເປັນ 4 ຮູບແບບໃຫຍ່ໆ ເຊິ່ງແຕ່ລະຮູບແບບມີປະເພດຄວາມສ່ຽງ ແລະ ຄວາມຍາກໃນການຮັບມືທີ່ແຕກຕ່າງກັນ.
| ຮູບແບບ | ຕົວຢ່າງ | ຄວາມເສຍຫາຍຫຼັກ |
|---|---|---|
| ຂໍ້ຄວາມ | ຂ່າວປອມ, ແຈ້ງການພາຍໃນບໍລິສັດປອມ, ລີວິວສິນຄ້າປອມ, ການເຮັດ Phishing ດ້ວຍ AI | ຄວາມເຂົ້າໃຈຜິດ, ການເສື່ອມເສຍຊື່ສຽງຂອງແບຣນ, ການສໍ້ໂກງເງິນ |
| ຮູບພາບ | ຮູບພາບຕັດຕໍ່ນັກການເມືອງ, ຮູບພາບປອມຂອງສະຖານທີ່ເກີດໄພພິບັດ, ໂຄສະນາສິນຄ້າປອມ | ການຄວບຄຸມກະແສສັງຄົມ, ການປອມແປງຕົວຕົນ, ການລະເມີດເຄື່ອງໝາຍການຄ້າ |
| ສຽງ | ການສັ່ງໂອນເງິນດ້ວຍການປອມແປງສຽງ (Voice Clone), ການຫຼອກລວງໂດຍປອມເປັນສະມາຊິກໃນຄອບຄົວ | ການສໍ້ໂກງເງິນ, ການທຳລາຍຄວາມເຊື່ອໝັ້ນ |
| ວິດີໂອ | ວິດີໂອ Deepfake, ວິດີໂອປອມທີ່ປອມເປັນ CEO | BEC, ການປັ່ນລາຄາຫຸ້ນ, ການທຳລາຍຄວາມໜ້າເຊື່ອຖື |
ຜົນກະທົບຕໍ່ປະຊາຊົນທົ່ວໄປຈະປາກົດໃນຮູບແບບຂອງການແບ່ງປັນຂໍ້ມູນທີ່ຜິດໆ ແລະ ເຜີຍແຜ່ຕໍ່ໃຫ້ຄອບຄົວຫຼືໝູ່ເພື່ອນ, ການຖືກຫຼອກລວງດ້ວຍໂຄສະນາປອມເທິງສື່ສັງຄົມອອນລາຍ, ແລະ ການທີ່ຮູບພາບຫຼືສຽງຂອງຕົນເອງຖືກນຳໄປສັງເຄາະໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ. ໃນຂະນະດຽວກັນ, ສຳລັບ B2B ໄພຂົ່ມຂູ່ຫຼັກແມ່ນການໂຈມຕີດ້ວຍຂໍ້ຄວາມທີ່ປອມແປງເປັນຫົວໜ້າ, ຄູ່ຄ້າ ຫຼື ໜ່ວຍງານກຳກັບດູແລ ເພື່ອຫຼອກໃຫ້ໂອນເງິນ ຫຼື ເປີດຕົວ ຫຼື Launch ຂໍ້ມູນ. ເອກະສານ "Deepfake Threats to Organizations" ຂອງ CISA, NSA ແລະ FBI ກໍໄດ້ລະບຸວ່າ Deepfake ປະເພດປອມແປງຕົວຕົນເປັນໄພຂົ່ມຂູ່ທີ່ແທ້ຈິງທີ່ແນເປົ້າໝາຍໃສ່ອົງກອນ.
ສຳລັບບໍລິສັດຍີ່ປຸ່ນໃນພາກພື້ນ ASEAN ທີ່ມີພະນັກງານຫຼາກຫຼາຍພາສາ, ມັກຈະມີການດຳເນີນງານທີ່ໃຊ້ການສົນທະນາຜ່ານແຊັດ ຫຼື ຂໍ້ຄວາມສຽງສັ້ນໆລະຫວ່າງສຳນັກງານໃຫຍ່, ຜູ້ຈັດການທ້ອງຖິ່ນ ແລະ ຄູ່ຄ້າ. ຊ່ອງທາງໃດທີ່ມີວັດທະນະທຳການຢືນຢັນຕົວຕົນທີ່ບໍ່ເຂັ້ມງວດ, ມັກຈະມີຄວາມສ່ຽງທີ່ຈະໄດ້ຮັບຄວາມເສຍຫາຍຈາກການປອມແປງດ້ວຍ AI ໄດ້ງ່າຍຂຶ້ນ.
ຂໍ້ຄວາມທີ່ສ້າງໂດຍ AI ຈະຍັງຄົງມີຮູບແບບທີ່ສາມາດສັງເກດໄດ້ ເຊັ່ນ: "ຕົວເລກສະເພາະທີ່ບໍ່ມີແຫຼ່ງອ້າງອີງ", "ຮູບແບບການຂຽນທີ່ລຽບງ່າຍເກີນໄປ", ແລະ "ຂ່າວດ່ວນຈາກສື່ດຽວ", ສ່ວນຮູບພາບ Deepfake ກໍສາມາດຈຳແນກໄດ້ໂດຍການກວດສອບຈຸດຕ່າງໆ ເຊັ່ນ: "ນິ້ວມື, ແຂ້ວ, ແສງ, ແລະ ຕົວໜັງສື". ຢ່າງໃດກໍຕາມ, ການກວດສອບດ້ວຍສາຍຕາເປັນພຽງການກັ່ນຕອງຂັ້ນທຳອິດເທົ່ານັ້ນ ແລະ ຈຳເປັນຕ້ອງມີການປ້ອງກັນຫຼາຍຊັ້ນດ້ວຍການກວດສອບ Provenance.
ການກວດສອບດ້ວຍສາຍຕາຂອງມະນຸດນັ້ນບໍ່ໄດ້ສົມບູນແບບ, ແຕ່ການຮູ້ຮູບແບບເຫຼົ່ານີ້ຈະຊ່ວຍຫຼຸດຄວາມຖີ່ຂອງການກວດພາດໄດ້. ສິ່ງທີ່ສຳຄັນບໍ່ແມ່ນການຕັດສິນແບບສອງຂົ້ວວ່າ "ຖ້າເບິ່ງອອກຄືຂອງແທ້, ຖ້າເບິ່ງບໍ່ອອກຄືຂອງປອມ", ແຕ່ແມ່ນການດຳເນີນງານໂດຍຕັ້ງສົມມຸດຕິຖານວ່າ "ການກວດສອບດ້ວຍສາຍຕາເປັນພຽງການກັ່ນຕອງຂັ້ນທຳອິດ, ບໍ່ແມ່ນການຕັດສິນຂັ້ນສຸດທ້າຍ".
ບົດຄວາມທີ່ຂຽນໂດຍ AI ມີຄວາມຖືກຕ້ອງເພີ່ມຂຶ້ນ ແຕ່ໃນບາງສະຖານະການກໍຍັງມີຮູບແບບທີ່ສາມາດເບິ່ງອອກໄດ້ງ່າຍດັ່ງນີ້:
ການຄິດວ່າ "ເນື້ອຫາທີ່ຂຽນໄດ້ລຽບງ່າຍຄືເນື້ອຫາທີ່ເຊື່ອຖືໄດ້" ນັ້ນບໍ່ສາມາດໃຊ້ໄດ້. ຄຸນນະພາບຂອງຮູບແບບການຂຽນ ແລະ ຄວາມຖືກຕ້ອງຂອງເນື້ອຫາແມ່ນຕົວຊີ້ວັດທີ່ແຕກຕ່າງກັນ. ສິ່ງທີ່ Google Search Central ເນັ້ນຢ້ຳໃນຖານະແນວທາງຂອງ Helpful Content ກໍຄືເນື້ອຫາທີ່ "ເຊື່ອຖືໄດ້ ແລະ ຍຶດຖືມະນຸດເປັນຈຸດສຳຄັນ ຫຼື ແກນຫຼັກ" ເຊິ່ງເນື້ອຫາທີ່ເບົາບາງ ແລະ ຖືກຜະລິດຂຶ້ນຈຳນວນຫຼາຍດ້ວຍ AI ນັ້ນ ບໍ່ໄດ້ຖືກແນະນຳໃນມຸມມອງຂອງຄຸນນະພາບການຄົ້ນຫາ.
ເຖິງວ່າຄຸນນະພາບຂອງຮູບພາບທີ່ສ້າງໂດຍ AI ຈະເພີ່ມຂຶ້ນ, ແຕ່ໃນປັດຈຸບັນຍັງມີຈຸດທີ່ຕ້ອງກວດສອບຢູ່ເລື້ອຍໆດັ່ງນີ້:
ຢ່າງໃດກໍຕາມ, ເມື່ອໂມເດວມີການພັດທະນາຂຶ້ນ, ສັນຍານເຫຼົ່ານີ້ຈະຄ່ອຍໆຫາຍໄປ. ທ່າອ່ຽງໃນປັດຈຸບັນແມ່ນການປ່ຽນຈຸດສຸມໄປສູ່ການກວດສອບທີ່ມາທາງເຕັກນິກ ເຊັ່ນ: Content Credentials ເຊິ່ງຈະກ່າວເຖິງໃນພາກຕໍ່ໄປ.
ການກວດສອບດ້ວຍຕາເປົ່າແມ່ນມີຄວາມສະດວກ ແຕ່ບໍ່ຄວນປ່ອຍໃຫ້ເປັນການຕັດສິນໃຈພຽງຢ່າງດຽວ. ກໍລະນີທີ່ຮູບພາບ AI ບໍ່ສາມາດເບິ່ງອອກໄດ້ໃນທັນທີນັ້ນ ຈະມີຈຳນວນ ເພີ່ມທະວີຂຶ້ນເລື້ອຍໆ ໃນອະນາຄົດ. ໃນການຕັດສິນໃຈທີ່ສຳຄັນ (ການເຮັດສັນຍາ, ການໂອນເງິນ, ການລາຍງານຂ່າວ, ການປະກາດພາຍໃນບໍລິສັດ), ນອກຈາກການກວດສອບດ້ວຍຕາເປົ່າແລ້ວ ຍັງຈຳເປັນຕ້ອງມີການປ້ອງກັນຫຼາຍຊັ້ນ ໂດຍການປະສົມປະສານທັງການກວດສອບແຫຼ່ງທີ່ມາ, ການປຽບທຽບຈາກຫຼາຍແຫຼ່ງຂໍ້ມູນ ແລະ ການກວດສອບຂໍ້ມູນ provenance ຖ້າຫາກສາມາດເຮັດໄດ້.
C2PA (Coalition for Content Provenance and Authenticity) ແມ່ນມາດຕະຖານເປີດທີ່ເພີ່ມຂໍ້ມູນ "ສ້າງຂຶ້ນເມື່ອໃດ, ໃຜເປັນຜູ້ສ້າງ, ສ້າງດ້ວຍຫຍັງ ແລະ ໄດ້ແກ້ໄຂແນວໃດ" ໃຫ້ກັບສື່ຕ່າງໆ ໃນຮູບແບບທີ່ສາມາດກວດສອບການປອມແປງໄດ້. ສິ່ງທີ່ຜູ້ໃຊ້ເຫັນໃນການນຳໃຊ້ຕົວຈິງແມ່ນ "Content Credentials" ເຊິ່ງຈະມີການບັນທຶກພ້ອມລາຍເຊັນດິຈິຕອນວ່າເນື້ອຫານັ້ນຖືກສ້າງຂຶ້ນໂດຍ AI ຫຼືບໍ່.
ເພື່ອຮັບມືກັບ "ຍຸກທີ່ບໍ່ສາມາດເບິ່ງອອກດ້ວຍຕາເປົ່າ", C2PA ແລະ Content Credentials ຈຶ່ງໄດ້ຖືກພັດທະນາຂຶ້ນ. ນີ້ແມ່ນກົນໄກໃນການເພີ່ມຂໍ້ມູນປະຫວັດຄວາມເປັນມາຂອງສື່ດິຈິຕອນ ເຊັ່ນ: ຮູບພາບ, ວິດີໂອ, ສຽງ ແລະ ເອກະສານ ໂດຍລະບຸວ່າ "ສ້າງຂຶ້ນເມື່ອໃດ, ໃຜເປັນຜູ້ສ້າງ, ສ້າງດ້ວຍຫຍັງ ແລະ ໄດ້ແກ້ໄຂແນວໃດ" ໃນຮູບແບບທີ່ສາມາດກວດສອບການປອມແປງໄດ້.
C2PA (Coalition for Content Provenance and Authenticity) ແມ່ນມາດຕະຖານເປີດເພື່ອຢືນຢັນທີ່ມາ (provenance) ແລະ ຄວາມແທ້ຈິງ (authenticity) ຂອງສື່. Adobe, Microsoft, BBC ແລະອົງການຈັດຕັ້ງອື່ນໆອີກຫຼາຍແຫ່ງໄດ້ເຂົ້າຮ່ວມ, ເຮັດໃຫ້ມັນກາຍເປັນມາດຕະຖານທີ່ແຜ່ຂະຫຍາຍໄປທົ່ວອຸດສາຫະກຳ. ໃນທາງເຕັກນິກ, ມັນເປັນກົນໄກໃນການຝັງເມຕາເດຕາ (Manifest) ທີ່ມີລາຍເຊັນດິຈິຕອນລົງໃນໄຟລ໌ສື່ ເພື່ອໃຫ້ສາມາດກວດສອບໄດ້ໃນພາຍຫຼັງ.
ການນຳໄປໃຊ້ງານທີ່ຜູ້ໃຊ້ສາມາດເຫັນໄດ້ຄື "Content Credentials". ຮູບພາບທີ່ຖ່າຍດ້ວຍກ້ອງທີ່ຮອງຮັບ, ຮູບພາບທີ່ແກ້ໄຂດ້ວຍໂປຣແກຣມແກ້ໄຂທີ່ຮອງຮັບ, ແລະຮູບພາບ AI ທີ່ສ້າງຂຶ້ນໂດຍເຄື່ອງມືທີ່ຮອງຮັບ ຈະມີການບັນທຶກຂໍ້ມູນອຸປະກອນທີ່ໃຊ້ຖ່າຍ, ປະຫວັດການແກ້ໄຂ, ແລະຂໍ້ມູນວ່າຮູບນັ້ນຖືກສ້າງຂຶ້ນໂດຍ AI ຫຼືບໍ່.
ເມື່ອໄດ້ຮັບສື່ທີ່ມີການໃສ່ Content Credentials, ຂັ້ນຕອນການກວດສອບຈະມີດັ່ງນີ້:
Google ໄດ້ແນະນຳໃນຄຳແນະນຳກ່ຽວກັບເນື້ອຫາ Generative AI ວ່າ ຄວນມີການໃສ່ Metadata ເຊັ່ນ IPTC DigitalSourceType ໄວ້ໃນຮູບພາບທີ່ສ້າງຂຶ້ນໂດຍ AI. Content Credentials ຖືກຈັດເປັນກົນໄກທີ່ເຮັດໃຫ້ Metadata ນີ້ມີຄວາມຄົບຖ້ວນສົມບູນ ແລະ ສາມາດກວດສອບໄດ້ຫຼາຍຂຶ້ນ.
ໃນທາງກັບກັນ, C2PA ບໍ່ແມ່ນສິ່ງທີ່ເຮັດໄດ້ທຸກຢ່າງ. ບໍ່ແມ່ນທຸກສື່ຈະມີຂໍ້ມູນທີ່ມາ (Provenance) ຕິດມາດ້ວຍ ແລະ ເມື່ອມີການແຄັບໜ້າຈໍແລ້ວ ລາຍເຊັນດັ່ງກ່າວກໍຈະສູນຫາຍໄປ. ນອກຈາກນີ້, SNS ບາງແພລດຟອມຍັງມີການລຶບ Metadata ອອກໃນຂະນະທີ່ໂພສອີກດ້ວຍ. ດັ່ງນັ້ນ, ໃນການປະຕິບັດງານຕົວຈິງ:
ການນຳໃຊ້ແບບຫຼາຍຊັ້ນຄືແນວທາງທີ່ເປັນຈິງ. ຂໍ້ມູນທີ່ມາຄວນຖືກນຳໃຊ້ເປັນເຄື່ອງມືເພື່ອ "ເລັ່ງຄວາມໄວໃນການກວດສອບຄວາມຖືກຕ້ອງ" ຫຼາຍກວ່າທີ່ຈະໃຊ້ເພື່ອ "ຮັບປະກັນຄວາມບໍລິສຸດ" ຂອງຂໍ້ມູນ, ເຊິ່ງຈະເຮັດໃຫ້ການດຳເນີນງານມີປະສິດທິພາບຫຼາຍຂຶ້ນ.
ການໂຈມຕີດ້ວຍການໃຊ້ AI ຄລອນສຽງຂອງຜູ້ບໍລິຫານຈາກຕົວຢ່າງສຽງພຽງບໍ່ເທົ່າໃດວິນາທີ ແລ້ວສົ່ງສຽງນັ້ນໄປຫາພະນັກງານບັນຊີເພື່ອສັ່ງໃຫ້ "ໂອນເງິນດ່ວນ" ໄດ້ເກີດຂຶ້ນແລ້ວໃນຄວາມເປັນຈິງ. FTC ຂອງສະຫະລັດອາເມຣິກາໄດ້ອອກຄຳເຕືອນເຖິງຜູ້ບໍລິໂພກ, ແລະໃນການແຈ້ງເຕືອນຮ່ວມກັນຂອງ CISA, NSA ແລະ FBI ໄດ້ລະບຸວ່າເປັນໄພຄຸກຄາມທີ່ຮ້າຍແຮງຕໍ່ອົງກອນຕ່າງໆ.
ຄວາມສ່ຽງຈາກຂໍ້ມູນປອມທີ່ສ້າງໂດຍ AI ເຊິ່ງປະກົດອອກມາໃນຮູບແບບທີ່ຮ້າຍແຮງທີ່ສຸດສຳລັບບໍລິສັດ ຄືການປະສົມປະສານກັນລະຫວ່າງການຄລອນສຽງ (Voice Clone) ແລະ ການໂກງທາງອີເມລ໌ທຸລະກິດ (Business Email Compromise - BEC). FTC ຂອງສະຫະລັດອາເມຣິກາໄດ້ອອກຄຳເຕືອນເຖິງຜູ້ບໍລິໂພກກ່ຽວກັບການສໍ້ໂກງໂດຍໃຊ້ການຄລອນສຽງ, ເຊິ່ງມີການລາຍງານກ່ຽວກັບວິທີການປອມຕົວເປັນຄອບຄົວ ຫຼື ຄົນຮູ້ຈັກເພື່ອຮຽກຮ້ອງໃຫ້ມີການໂອນເງິນດ່ວນ. ການນຳເອົາກົນໄກດຽວກັນນີ້ມາໃຊ້ກັບຄວາມສຳພັນລະຫວ່າງຫົວໜ້າກັບລູກນ້ອງໃນບໍລິສັດ ກໍຄືຮູບແບບຂອງ BEC ທີ່ປອມແປງຕົວຕົນນັ້ນເອງ.
ຂັ້ນຕອນການໂຈມຕີໂດຍທົ່ວໄປມີດັ່ງນີ້: ຜູ້ໂຈມຕີຈະເລີ່ມຈາກການເກັບກຳຕົວຢ່າງສຽງ ແລະ ໃບໜ້າຂອງຜູ້ບໍລິຫານຈາກ SNS ຫຼື ເອກະສານ IR ຂອງບໍລິສັດ. ຈາກນັ້ນ, ຈະສ້າງຂໍ້ຄວາມສຽງສັ້ນໆ ຫຼື ຄລິບວິດີໂອ ແລ້ວສົ່ງໄປຫາພະນັກງານບັນຊີ ໂດຍມີເນື້ອຫາປະມານວ່າ "ຊ່ວຍໂອນເງິນຈາກບັນຊີນີ້ໄປໃຫ້ຄູ່ຄ້າຕ່າງປະເທດດ່ວນ, ສ່ວນເຫດຜົນຈະອະທິບາຍໃຫ້ຟັງພາຍຫຼັງ" ເຊິ່ງນ້ຳສຽງ ແລະ ວິທີການເວົ້າຈະຄ້າຍຄືກັບຕົວຈິງເກືອບທັງໝົດ. ພະນັກງານບັນຊີຈະຕັດສິນໃຈວ່າເປັນຂອງແທ້ ເນື່ອງຈາກໄດ້ຍິນສຽງ ແລະ ເຫັນວິດີໂອຂອງເຈົ້າຕົວຈິງ ບໍ່ແມ່ນພຽງແຕ່ອີເມວ ຈຶ່ງໄດ້ດຳເນີນການໂອນເງິນໄປ.
ເງື່ອນໄຂທີ່ເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍຄື ການທີ່ອົງກອນຍັງມີຄວາມເຊື່ອໝັ້ນແບບຝັງໃຈວ່າ "ຖ້າມີສຽງ ຫຼື ວິດີໂອ ກໍຄືຕົວຈິງ". ໃນເມື່ອ AI ສາມາດສ້າງສຽງ ແລະ ພາບໄດ້ຢ່າງງ່າຍດາຍແລ້ວ, ສົມມຸດຕິຖານນີ້ຈຶ່ງບໍ່ສາມາດນຳໃຊ້ໄດ້ອີກຕໍ່ໄປ.
ເສົາຫຼັກຂອງການປ້ອງກັນແມ່ນການປະຕິບັດຕາມກົດລະບຽບທີ່ວ່າ ຕ້ອງມີການຢືນຢັນຄຳສັ່ງທີ່ສຳຄັນຜ່ານ 2 ຊ່ອງທາງທີ່ແຕກຕ່າງກັນສະເໝີ:
ໃນຄຳແນະນຳກ່ຽວກັບ Phishing ຂອງ CISA ຍັງໄດ້ລະບຸວ່າ ການສ້າງສະຖານະການໃຫ້ມີຄວາມຮີບດ່ວນ ແລະ ການໃຊ້ສິດອຳນາດໃນທາງທີ່ຜິດ ແມ່ນຮູບແບບທົ່ວໄປຂອງການໂຈມຕີ. ກົດລະບຽບທີ່ວ່າ "ຍິ່ງມີຄວາມຮີບດ່ວນສູງ ຍິ່ງຕ້ອງຢຸດຄິດ" ແມ່ນສິ່ງທີ່ວິສາຫະກິດຂະໜາດກາງ ແລະ ຂະໜາດນ້ອຍສາມາດນຳໄປປະຕິບັດໄດ້ຕັ້ງແຕ່ມື້ນີ້.
ນີ້ແມ່ນການລວບລວມຄຳຖາມທີ່ພົບເລື້ອຍກ່ຽວກັບ Deepfake, ຂໍ້ມູນປອມທີ່ສ້າງໂດຍ AI ແລະ ຮູບພາບປອມ.
ແມ່ນແລ້ວ, AI ສາມາດສ້າງຂ່າວປອມທີ່ໄຫຼລື່ນ ແລະ ເໝາະສົມກັບບໍລິບົດໄດ້. ແຕ່ຢ່າງໃດກໍຕາມ, "ການອ່ານທີ່ເປັນທຳມະຊາດ" ກັບ "ຄວາມຖືກຕ້ອງ" ແມ່ນຄົນລະເລື່ອງກັນ ແລະ ບໍ່ໄດ້ເປັນການຮັບປະກັນຄວາມແທ້ຈິງຂອງເນື້ອຫາ. GenAI Profile ຂອງ NIST ໄດ້ຍົກໃຫ້ເຫັນວ່າ ຄວາມຄົບຖ້ວນຂອງຂໍ້ມູນ (information integrity) ເປັນຄວາມສ່ຽງຫຼັກຂອງ Generative AI ແລະ Google Search Central ກໍໄດ້ແນະນຳໃຫ້ເນັ້ນເນື້ອຫາທີ່ມີມະນຸດເປັນຈຸດສຳຄັນ ຫຼື ແກນຫຼັກທີ່ມີຄວາມໜ້າເຊື່ອຖື.
ສາມາດເຮັດໄດ້ໃນບາງສ່ວນ. ຄວາມບໍ່ເປັນທຳມະຊາດຂອງນິ້ວມື, ຄວາມສອດຄ່ອງຂອງແສງ ແລະ ເງົາ, ຕົວໜັງສືໃນປ້າຍໂຄສະນາ, ແລະ ຂອບຂອງການມົວ ແມ່ນຈຸດທີ່ໃຊ້ສັງເກດໃນປັດຈຸບັນ. ຢ່າງໃດກໍຕາມ, ເມື່ອຕົວແບບມີການພັດທະນາຂຶ້ນເລື້ອຍໆ, ການເບິ່ງດ້ວຍຕາເປົ່າຈະເຮັດໄດ້ຍາກຂຶ້ນ, ສະນັ້ນ ການນຳໃຊ້ Content Credentials (C2PA) ເພື່ອຢືນຢັນປະຫວັດຄວາມເປັນມາ, ການກວດສອບແຫຼ່ງທີ່ມາ, ແລະ ການນຳໄປປຽບທຽບກັບຫຼາຍແຫຼ່ງຂໍ້ມູນ ຈຶ່ງເປັນວິທີທີ່ເໝາະສົມໃນຄວາມເປັນຈິງ.
ຕ້ອງມີການຕັດສິນໃຈຢ່າງລະມັດລະວັງ. ກ່ອນທີ່ຈະປ້ອນຂໍ້ມູນລູກຄ້າ, ເອກະສານພາຍໃນບໍລິສັດ, ແລະຂໍ້ມູນທີ່ມີຄວາມລະອຽດອ່ອນ, ຄວນກວດສອບຂໍ້ກຳນົດການໃຫ້ບໍລິການ, ນະໂຍບາຍການຮັກສາຂໍ້ມູນ, ແລະການນຳຂໍ້ມູນໄປໃຊ້ໃນການຝຶກຝົນ AI ຂອງບໍລິການນັ້ນໆ. UNESCO ຍັງໄດ້ຈັດໃຫ້ການປົກປ້ອງຂໍ້ມູນ ແລະ ຄວາມລັບ ເປັນປະເດັນສຳຄັນຄຽງຄູ່ກັບ misinformation ແລະ deepfake ໃນບໍລິບົດຂອງຄວາມຮູ້ດ້ານ AI (AI literacy), ເຊິ່ງສາມາດອ່ານລາຍລະອຽດເພີ່ມເຕີມໄດ້ທີ່ ວິທີການໃຊ້ AI ຢ່າງປອດໄພໃນລາວ? ຄູ່ມືການປະຕິບັດເພື່ອປົກປ້ອງຂໍ້ມູນສ່ວນບຸກຄົນ.

AI ບໍ່ໄດ້ໜ້າຢ້ານຍ້ອນຕົວມັນເອງ, ແຕ່ມັນໜ້າຢ້ານຍ້ອນຄວາມສາມາດໃນການສ້າງສິ່ງປອມທີ່ແນບເນຽນຈົນແຍກກັບຂອງແທ້ບໍ່ອອກ ດ້ວຍຕົ້ນທຶນທີ່ຖືກ, ໄວ ແລະ ໃນປະລິມານມະຫາສານ. ດັ່ງນັ້ນ, ສິ່ງທີ່ສຳຄັນຈຶ່ງບໍ່ແມ່ນການຊອກຫາເຄື່ອງມືກວດສອບພິເສດ, ແຕ່ແມ່ນການສ້າງນິໄສໃນ 5 ຂັ້ນຕອນກ່ອນການແຊຣ໌, ການກວດສອບດ້ວຍຕາ, ການໃຊ້ Content Credentials ແລະ ການກວດສອບສອງທາງ. ໃນຍຸກທີ່ຄວາມຖືກຕ້ອງຂອງຂໍ້ມູນສັ່ນຄອນຍ້ອນ AI, ການກະທຳທີ່ໜ້າເຊື່ອຖືທີ່ສຸດຄືນິໄສຄລາສສິກທີ່ວ່າ "ຢຸດພິຈາລະນາກ່ອນກວດສອບ".
ບົດຄວາມທີ່ຄວນອ່ານຕໍ່
ເອກະສານອ້າງອີງ
Chi
ສຳເລັດການສຶກສາສາຂາວິທະຍາສາດຄອມພິວເຕີ (Information Science) ຈາກມະຫາວິທະຍາໄລແຫ່ງຊາດລາວ ໂດຍໃນລະຫວ່າງການສຶກສາມີສ່ວນຮ່ວມໃນການພັດທະນາຊອບແວສະຖິຕິ (Statistical Software) ຈາກປະສົບການຕົວຈິງ ຈຶ່ງໄດ້ສ້າງພື້ນຖານດ້ານການວິເຄາະຂໍ້ມູນ (Data Analysis) ແລະ ການໂປຣແກຣມມິງ (Programming) ຢ່າງເຂັ້ມແຂງ. ຕັ້ງແຕ່ປີ 2021 ໄດ້ກ້າວເຂົ້າສູ່ເສັ້ນທາງການພັດທະນາ Web ແລະ ແອັບພລິເຄຊັນ (Application) ແລະ ຕັ້ງແຕ່ປີ 2023 ເປັນຕົ້ນມາ ໄດ້ສັ່ງສົມປະສົບການພັດທະນາຢ່າງເຕັມຮູບແບບທັງໃນດ້ານ Frontend ແລະ Backend. ໃນບໍລິສັດ ຮັບຜິດຊອບການອອກແບບ ແລະ ພັດທະນາ Web Service ທີ່ນຳໃຊ້ AI ພ້ອມທັງມີສ່ວນຮ່ວມໃນໂຄງການທີ່ປະສົມປະສານ ການປະມວນຜົນພາສາທຳມະຊາດ (NLP: Natural Language Processing), ການຮຽນຮູ້ຂອງເຄື່ອງ (Machine Learning), Generative AI ແລະ ໂມເດນພາສາຂະໜາດໃຫຍ່ (LLM: Large Language Model) ເຂົ້າກັບລະບົບທຸລະກິດ. ມີຄວາມກະຕືລືລົ້ນໃນການຕິດຕາມເທັກໂນໂລຊີໃໝ່ລ່າສຸດຢູ່ສະເໝີ ແລະ ໃຫ້ຄວາມສຳຄັນກັບຄວາມວ່ອງໄວໃນທຸກຂັ້ນຕອນ ຕັ້ງແຕ່ການທົດສອບດ້ານເທັກນິກ ຈົນເຖິງການນຳໄປໃຊ້ງານຈິງໃນລະບົບ Production.