
ຢູ່ລາວ, ດ້ວຍການແຜ່ຫຼາຍຂອງສະມາດໂຟນຢ່າງວ່ອງໄວ, ການນຳໃຊ້ເຄື່ອງມື AI ຈຶ່ງກາຍເປັນເລື່ອງປົກກະຕິໃນຊີວິດປະຈຳວັນ. ຜູ້ໃຊ້ງານຫຼາຍຂຶ້ນເລີ່ມຫັນມາໃຊ້ Generative AI ເຊັ່ນ ChatGPT ຫຼື Claude ໃນການຂຽນບົດຄວາມ, ແປພາສາ ແລະ ຄົ້ນຫາຂໍ້ມູນ, ແຕ່ຍັງມີໜ້ອຍຄົນທີ່ໃສ່ໃຈວ່າຂໍ້ມູນທີ່ປ້ອນເຂົ້າໄປນັ້ນຖືກປະມວນຜົນ ແລະ ຈັດເກັບແນວໃດ.
ປະເທດລາວໄດ້ປະກາດໃຊ້ "ກົດໝາຍວ່າດ້ວຍການປົກປ້ອງຂໍ້ມູນເອເລັກໂຕຣນິກ" ໃນປີ 2017 ເພື່ອສ້າງກອບກົດໝາຍພື້ນຖານກ່ຽວກັບການເກັບກຳ, ການນຳໃຊ້ ແລະ ການຈັດເກັບຂໍ້ມູນສ່ວນບຸກຄົນ. ນອກຈາກນີ້, ໃນປີ 2015 ຍັງໄດ້ມີການປະກາດໃຊ້ "ກົດໝາຍວ່າດ້ວຍການຕ້ານອາຊະຍາກຳທາງຄອມພິວເຕີ" ອີກດ້ວຍ. ຢ່າງໃດກໍຕາມ, ຍັງມີຊ່ອງຫວ່າງອັນໃຫຍ່ຫຼວງລະຫວ່າງການມີຢູ່ຂອງກົດໝາຍ ແລະ ຄວາມຮັບຮູ້ດ້ານການປົກປ້ອງຂໍ້ມູນໃນຊີວິດປະຈຳວັນຂອງຜູ້ໃຊ້ງານ.
ກໍລະນີທີ່ຜູ້ໃຊ້ງານປ້ອນຂໍ້ມູນທາງການແພດໃສ່ Chat AI ເພື່ອຖາມວ່າ "ອາການນີ້ແມ່ນພະຍາດຫຍັງ?" ຫຼື ການສົ່ງພາບໜ້າຈໍລາຍການເຄື່ອນໄຫວບັນຊີ BCEL One ເພື່ອຂໍໃຫ້ "ວິເຄາະງົບປະມານຄົວເຮືອນ" ນັ້ນ ບໍ່ແມ່ນເລື່ອງແປກ. ບັນຫາຄືຜູ້ໃຊ້ງານໃນລາວຈຳນວນຫຼາຍຍັງນຳໃຊ້ AI ໂດຍບໍ່ໄດ້ຮັບຮູ້ເຖິງຄວາມສ່ຽງເຫຼົ່ານີ້.
ການບໍລິການ AI ຫຼັກໆທີ່ນຳໃຊ້ໃນລາວ ສ່ວນໃຫຍ່ແມ່ນມີການປະມວນຜົນ ແລະ ຈັດເກັບຂໍ້ມູນໄວ້ໃນເຊີບເວີຢູ່ຕ່າງປະເທດ (ສະຫະລັດອາເມຣິກາ, ສິງກະໂປ ແລະ ອື່ນໆ). ນັ້ນໝາຍຄວາມວ່າ ມີຄວາມສ່ຽງທີ່ຂໍ້ມູນອາດຈະຮົ່ວໄຫຼໄປສູ່ພື້ນທີ່ທີ່ກົດໝາຍພາຍໃນຂອງລາວບໍ່ສາມາດປົກປ້ອງໄດ້.
ບົດຄວາມນີ້ຈະສະຫຼຸບຈຸດສຳຄັນກ່ຽວກັບການປົກປ້ອງຂໍ້ມູນສ່ວນບຸກຄົນທີ່ຜູ້ໃຊ້ງານໃນລາວຄວນຮູ້ ເພື່ອນຳໃຊ້ເຄື່ອງມື AI ຢ່າງປອດໄພ ໂດຍອີງໃສ່ລະບົບກົດໝາຍຂອງລາວ ແລະ ແນວທາງປະຕິບັດທີ່ດີທີ່ສຸດໃນລະດັບສາກົນ. ທ່ານບໍ່ຈຳເປັນຕ້ອງມີຄວາມຮູ້ດ້ານຄວາມປອດໄພຂັ້ນສູງ, ພຽງແຕ່ສ້າງນິໄສ "ຄິດກ່ອນປ້ອນຂໍ້ມູນ" ກໍສາມາດຫຼຸດຜ່ອນຄວາມສ່ຽງລົງໄດ້ຢ່າງຫຼວງຫຼາຍ.
ນະໂຍບາຍການຈັດເກັບ, ການນຳໃຊ້ ແລະ ການຄຸ້ມຄອງຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ ແມ່ນມີຄວາມແຕກຕ່າງກັນຢ່າງຫຼວງຫຼາຍໃນແຕ່ລະບໍລິການ AI. ມັນບໍ່ແມ່ນເລື່ອງຂອງ "ອັນຕະລາຍເພາະເປັນ AI" ຫຼື "ປອດໄພເພາະເປັນ AI", ແຕ່ຈຳເປັນຕ້ອງໄດ້ກວດສອບໃນແຕ່ລະບໍລິການ.
ຕົວຢ່າງເຊັ່ນ: Chat AI ບາງບໍລິການຈະນຳເອົາເນື້ອຫາທີ່ປ້ອນເຂົ້າໄປໄປໃຊ້ໃນການຝຶກຝົນ Model ແຕ່ສາມາດເລືອກ Opt-out ໄດ້ໃນການຕັ້ງຄ່າ. ໃນຂະນະທີ່ບໍລິການອື່ນໆໄດ້ລະບຸຢ່າງຊັດເຈນວ່າຈະບໍ່ເກັບຮັກສາຂໍ້ມູນທີ່ປ້ອນເຂົ້າໄປເລີຍ. ເຖິງແມ່ນວ່າຈະເປັນບໍລິການດຽວກັນ ແຕ່ໃນຫຼາຍກໍລະນີ ການຈັດການຂໍ້ມູນລະຫວ່າງແຜນການສຳລັບອົງກອນ ແລະ ແຜນການຟຣີສຳລັບບຸກຄົນທົ່ວໄປກໍມີຄວາມແຕກຕ່າງກັນ.
ຈຸດທີ່ຜູ້ໃຊ້ໃນລາວຄວນລະມັດລະວັງເປັນພິເສດ ຄືສະຖານທີ່ຈັດເກັບຂໍ້ມູນ. ແທບຈະບໍ່ມີບໍລິການ AI ໃດທີ່ມີ Server ຢູ່ພາຍໃນປະເທດລາວ. ຂໍ້ມູນທີ່ທ່ານປ້ອນເຂົ້າໄປຈະຖືກສົ່ງໄປຍັງ Server ຢູ່ຕ່າງປະເທດ ເຊັ່ນ: ສະຫະລັດອາເມຣິກາ, EU ຫຼື ສິງກະໂປ. ເຖິງແມ່ນວ່າກົດໝາຍວ່າດ້ວຍການປົກປ້ອງຂໍ້ມູນເອເລັກໂຕຣນິກຂອງລາວຈະມີການກຳນົດກ່ຽວກັບການປະມວນຜົນຂໍ້ມູນພາຍໃນປະເທດ ແຕ່ການປົກປ້ອງທາງກົດໝາຍຕໍ່ຂໍ້ມູນທີ່ຖືກເກັບຮັກສາໄວ້ໃນ Server ຕ່າງປະເທດນັ້ນຍັງມີຈຳກັດ.
ກອບວຽກດ້ານການຄຸ້ມຄອງຂໍ້ມູນດິຈິຕອນຂອງອາຊຽນ (ASEAN Framework on Digital Data Governance) ໄດ້ກຳນົດຫຼັກການກ່ຽວກັບການໂອນຂໍ້ມູນຂ້າມຊາຍແດນໄວ້, ແຕ່ການບັງຄັບໃຊ້ແມ່ນຂຶ້ນກັບກົດໝາຍພາຍໃນຂອງແຕ່ລະປະເທດ. ຜູ້ໃຊ້ໃນລາວຈຳເປັນຕ້ອງໃຊ້ AI ໂດຍມີພື້ນຖານຄວາມເຂົ້າໃຈວ່າຂໍ້ມູນຂອງຕົນຈະຖືກນຳໄປປະມວນຜົນຂ້າມຊາຍແດນ.
ກ່ອນທີ່ຈະເລີ່ມໃຊ້ເຄື່ອງມື AI ໃໝ່ໆ, ຄວນສ້າງນິໄສໃນການກວດສອບຈຸດຕ່າງໆດັ່ງຕໍ່ໄປນີ້:
ທ່ານບໍ່ຈຳເປັນຕ້ອງອ່ານນະໂຍບາຍຄວາມເປັນສ່ວນຕົວທັງໝົດ. ພຽງແຕ່ອ່ານຜ່ານໃນພາກສ່ວນ "ການເກັບກຳ ແລະ ການນຳໃຊ້ຂໍ້ມູນ" ກໍສາມາດເຮັດໃຫ້ທ່ານເຂົ້າໃຈພາບລວມຂອງວິທີທີ່ບໍລິການນັ້ນຈັດການກັບຂໍ້ມູນຂອງທ່ານໄດ້. ການໃຊ້ເວລາພຽງ 5 ນາທີໃນການກວດສອບຕັ້ງແຕ່ຄັ້ງທຳອິດທີ່ໃຊ້ງານ ຈະຊ່ວຍໃຫ້ທ່ານຫຼຸດຜ່ອນຄວາມສ່ຽງທີ່ອາດຈະເກີດຂຶ້ນໃນອະນາຄົດໄດ້ຢ່າງຕໍ່ເນື່ອງ.
ມາດຖານໃນການຕັດສິນໃຈແມ່ນງ່າຍດາຍ: ຖ້າຂໍ້ມູນນັ້ນຮົ່ວໄຫຼອອກໄປແລ້ວສົ່ງຜົນເສຍຫາຍຕົວຈິງ ກໍບໍ່ຄວນປ້ອນຂໍ້ມູນນັ້ນເຂົ້າໃນ AI. ຕໍ່ໄປນີ້ແມ່ນການຈັດລະບຽບຂໍ້ມູນທີ່ຕ້ອງລະມັດລະວັງເປັນພິເສດໃນບໍລິບົດຂອງປະເທດລາວ:
| ໝວດໝູ່ | ຕົວຢ່າງທີ່ເປັນຮູບປະທຳໃນລາວ | ຄວາມສ່ຽງ |
|---|---|---|
| ການຢືນຢັນຕົວຕົນ | ເລກບັດປະຈຳຕົວ, ເລກໜັງສືຜ່ານແດນ, ເລກສຳມະໂນຄົວ | ການສວມຮອຍ, ການເປີດບັນຊີປອມ |
| ຂໍ້ມູນການເງິນ | ເລກບັນຊີທະນາຄານ ເຊັ່ນ: BCEL, LDB, JDB, ຂໍ້ມູນການຊຳລະເງິນຜ່ານ LaoQR, OTP (One-Time Password) | ການໂອນເງິນທີ່ບໍ່ຖືກຕ້ອງ, ການນຳໃຊ້ທີ່ບໍ່ຖືກຕ້ອງ |
| ຂໍ້ມູນການຢືນຢັນຕົວຕົນ | ລະຫັດຜ່ານ, ລະຫັດ PIN, ຂໍ້ມູນການເຂົ້າສູ່ລະບົບ BCEL One | ການຖືກຍຶດບັນຊີ |
| ຂໍ້ມູນທາງການແພດ | ຜົນການວິນິດໄສຈາກໂຮງໝໍມະໂຫສົດ ແລະ ອື່ນໆ, ລາຍການຢາ, ຂໍ້ມູນການກວດສຸຂະພາບ | ການລະເມີດຄວາມເປັນສ່ວນຕົວ |
| ເອກະສານທາງການ | ໃບອະນຸຍາດດຳເນີນທຸລະກິດ, ໃບຕາດິນ, ເອກະສານເສຍພາສີ | ຄວາມສ່ຽງທາງກົດໝາຍ, ການຮົ່ວໄຫຼຂອງຂໍ້ມູນຊັບສິນ |
| ຄວາມລັບໃນບ່ອນເຮັດວຽກ | ລາຍຊື່ລູກຄ້າ, ຍຸດທະສາດພາຍໃນບໍລິສັດ, ຂໍ້ມູນການເງິນທີ່ຍັງບໍ່ທັນເປີດຕົວ ຫຼື Launch, ລາຍງານຂອງບໍລິສັດຕ່າງປະເທດ | ການລະເມີດພັນທະການຮັກສາຄວາມລັບ, ຄວາມເສຍຫາຍທາງການແຂ່ງຂັນ |
ໃນປະເທດລາວ, ການນຳໃຊ້ແອັບພລິເຄຊັນທະນາຄານເທິງມືຖື (ເຊັ່ນ: BCEL One, JDB Mobile ແລະ ອື່ນໆ) ມີການເພີ່ມທະວີຂຶ້ນເລື້ອຍໆ, ເຮັດໃຫ້ມີກໍລະນີທີ່ຜູ້ໃຊ້ງານຖ່າຍພາບໜ້າຈໍການເຮັດທຸລະກຳແລ້ວສົ່ງໃຫ້ AI ເພື່ອ "ວິເຄາະລາຍຈ່າຍ". ຢ່າງໃດກໍຕາມ, ພາບໜ້າຈໍເຫຼົ່ານັ້ນມີຂໍ້ມູນເລກບັນຊີ, ຍອດເງິນຄົງເຫຼືອ ແລະ ຂໍ້ມູນຄູ່ຄ້າລວມຢູ່ດ້ວຍ.
ສິ່ງທີ່ມັກຈະຖືກມອງຂ້າມຄື "ຂໍ້ມູນຂອງຜູ້ນື່ນ". ບໍ່ວ່າຈະເປັນພາບໜ້າຈໍການສົນທະນາກຸ່ມໃນ WhatsApp ຫຼື LINE, ທີ່ຢູ່ອີເມວຂອງເພື່ອນຮ່ວມງານ, ເບີໂທລະສັບຂອງໝູ່ເພື່ອນ—ເຊິ່ງບາງຄັ້ງຜູ້ໃຊ້ງານກໍຕັດສິນໃຈປ້ອນຂໍ້ມູນສ່ວນຕົວຂອງຜູ້ນື່ນເຂົ້າໃນ AI ດ້ວຍຕົນເອງ. ເຖິງແມ່ນວ່າໃນກົດໝາຍວ່າດ້ວຍການປົກປ້ອງຂໍ້ມູນເອເລັກໂຕຣນິກຂອງລາວ, ການປະມວນຜົນຂໍ້ມູນສ່ວນບຸກຄົນຂອງບຸກຄົນທີສາມໂດຍບໍ່ໄດ້ຮັບຄວາມຍິນຍອມຈາກເຈົ້າຂອງຂໍ້ມູນ ແມ່ນຖືກຫ້າມໂດຍຫຼັກການ.
ຫຼັກການຂອງການນຳໃຊ້ຢ່າງປອດໄພແມ່ນ "ໃຫ້ຖາມຕົນເອງວ່າ: ຖ້າຂໍ້ມູນນີ້ຖືກເປີດເຜີຍອອກໄປ ຈະມີບັນຫາບໍ່?" ຖ້າຄຳຕອບແມ່ນ "ແມ່ນ", ຄວນຫຼີກລ່ຽງການປ້ອນຂໍ້ມູນ ຫຼື ໃຊ້ວິທີການປິດບັງຕົວຕົນ (Anonymization) ທີ່ຈະແນະນຳໃນພາກຕໍ່ໄປ.
ຂໍ້ສັນນິຖານທີ່ປອດໄພທີ່ສຸດແມ່ນ "ຢ່າຄິດວ່າຂໍ້ມູນທັງໝົດທີ່ປ້ອນເຂົ້າໄປໃນ AI ຈະຖືກຮັກສາໄວ້ເປັນຄວາມລັບ 100%". ເນື່ອງຈາກບໍລິການ AI ທັງໝົດທີ່ມີໃຫ້ໃຊ້ໃນລາວລ້ວນແຕ່ປະມວນຜົນຂໍ້ມູນຢູ່ເຊີບເວີຕ່າງປະເທດ, ຂໍ້ສັນນິຖານນີ້ຈຶ່ງມີຄວາມສຳຄັນຍິ່ງຂຶ້ນ.
ໂດຍສະເພາະ, ຄວນສ້າງນິໄສ 3 ຢ່າງຕໍ່ໄປນີ້:
1. ປ້ອນຂໍ້ມູນພຽງແຕ່ທີ່ຈຳເປັນເທົ່ານັ້ນ
ໃນເວລາຖາມ AI, ບໍ່ຈຳເປັນຕ້ອງປ້ອນຂໍ້ມູນພື້ນຫຼັງທັງໝົດ. ຕົວຢ່າງ: ຖ້າຕ້ອງການຖາມວ່າ "ບອກຄວາມສ່ຽງທາງກົດໝາຍຂອງສັນຍາສະບັບນີ້ໃຫ້ແດ່", ແທນທີ່ຈະກັອບປີ້ສັນຍາທັງໝົດ, ໃຫ້ເລືອກເອົາສະເພາະຂໍ້ກຳນົດທີ່ກັງວົນກ່ຽວກັບຄວາມສ່ຽງມາຖາມຈະປອດໄພກວ່າ. ຖ້າຖາມວ່າ "ຄວາມສ່ຽງທາງກົດໝາຍທົ່ວໄປຂອງຂໍ້ກຳນົດນີ້ແມ່ນຫຍັງ?", ກໍສາມາດໄດ້ຮັບຄຳຕອບທີ່ມີປະໂຫຍດໂດຍບໍ່ຈຳເປັນຕ້ອງໃສ່ຊື່ຄູ່ສັນຍາ ຫຼື ຈຳນວນເງິນທີ່ລະບຸໄວ້.
2. ໃຊ້ Placeholder (ຊື່ສົມມຸດ)
ແທນທີ່ຈະໃຊ້ຊື່ແທ້ ຫຼື ເລກບັນຊີແທ້, ໃຫ້ໃຊ້ Placeholder ເຊັ່ນ: [ຊື່-ນາມສະກຸນ], [ເລກບັນຊີ], [ຊື່ບໍລິສັດ], [ວັນທີ]. ເນື່ອງຈາກ AI ສາມາດເຂົ້າໃຈຄວາມໝາຍຈາກບໍລິບົດໄດ້, ໃນຫຼາຍກໍລະນີມັນສາມາດຕອບຄຳຖາມໄດ້ຢ່າງເໝາະສົມໂດຍບໍ່ຈຳເປັນຕ້ອງມີຂໍ້ມູນສ່ວນຕົວທີ່ລະບຸຕົວຕົນໄດ້.
ຂ້າງລຸ່ມນີ້ແມ່ນຕົວຢ່າງທີ່ມັກພົບໃນການເຮັດວຽກຕົວຈິງຢູ່ລາວ:
| ຕົວຢ່າງທີ່ຄວນຫຼີກລ່ຽງ | ຕົວຢ່າງທີ່ປອດໄພໂດຍໃຊ້ Placeholder |
|---|---|
| ວິເຄາະໃບແຈ້ງເງິນເດືອນຂອງ ສົມສັກ ໃຫ້ແດ່ | ກວດສອບຮູບແບບໃບແຈ້ງເງິນເດືອນຂອງ [ພະນັກງານ A] ໃຫ້ແດ່ |
| ກວດສອບສັນຍາກັບບໍລິສັດ ABC Sole Co., Ltd. ໃຫ້ແດ່ | ບອກຂໍ້ກຳນົດຄວາມສ່ຽງທົ່ວໄປຂອງສັນຍາກັບ [ຄູ່ຄ້າ X] ໃຫ້ແດ່ |
| ບອກຂັ້ນຕອນການໂອນເງິນເຂົ້າບັນຊີ BCEL 010-12-34567890 ໃຫ້ແດ່ | ບອກຂັ້ນຕອນທົ່ວໄປຂອງການໂອນເງິນເຂົ້າ [ເລກບັນຊີ] ໃຫ້ແດ່ |
| ກວດສອບສັນຍາຊື້-ຂາຍທີ່ດິນທີ່ຕັ້ງຢູ່ຖະໜົນ XX ໃນນະຄອນຫຼວງວຽງຈັນໃຫ້ແດ່ | ບອກຈຸດສຳຄັນ ຫຼື ແກນຫຼັກ ໃນການກວດສອບສັນຍາຊື້-ຂາຍທີ່ດິນທີ່ຕັ້ງຢູ່ [ສະຖານທີ່] ໃຫ້ແດ່ |
ດັ່ງທີ່ເຫັນ, ມີຫຼາຍຄຳຖາມທີ່ບໍ່ຈຳເປັນຕ້ອງລະບຸຕົວຕົນຂອງບຸກຄົນເພື່ອໃຫ້ AI ຕອບຄຳຖາມໄດ້.
3. ລຶບຂໍ້ມູນທີ່ສາມາດລະບຸຕົວຕົນໄດ້ອອກກ່ອນສົ່ງ
ກ່ອນທີ່ຈະສົ່ງໄຟລ໌ ຫຼື ຂໍ້ຄວາມໃຫ້ AI, ໃຫ້ກວດສອບວ່າບໍ່ມີຂໍ້ມູນທີ່ສາມາດລະບຸຕົວຕົນໄດ້ (PII: Personally Identifiable Information) ປົນຢູ່. ໃນລາວ, ມີກໍລະນີທີ່ຜູ້ໃຊ້ກັອບປີ້ຂໍ້ຄວາມຈາກ WhatsApp ຫຼື LINE ໄປໃຫ້ AI ວິເຄາະ, ແຕ່ການກັອບປີ້ຂໍ້ຄວາມທັງໝົດອາດຈະມີເບີໂທລະສັບ, ຊື່ໂປຣໄຟລ໌ ແລະ ຂໍ້ມູນຂອງສະມາຊິກໃນກຸ່ມຕິດໄປນຳ. ການເສຍເວລາ "ເລືອກເອົາສະເພາະເນື້ອໃນມາວາງ" ຈະຊ່ວຍປົກປ້ອງຂໍ້ມູນຂອງຕົນເອງ ແລະ ຜູ້ອື່ນໄດ້.
ນິໄສທັງ 3 ຢ່າງນີ້ບໍ່ຈຳເປັນຕ້ອງໃຊ້ຄວາມຮູ້ທາງເຕັກນິກ. ພຽງແຕ່ "ຢຸດຄິດຊົ່ວຄາວ ກ່ອນຈະກົດສົ່ງ" ກໍສາມາດຫຼຸດຜ່ອນຄວາມສ່ຽງດ້ານຂໍ້ມູນສ່ວນຕົວໄດ້ຢ່າງຫຼວງຫຼາຍ.
ຄວາມສ່ຽງບໍ່ໄດ້ມີພຽງແຕ່ການປ້ອນຂໍ້ມູນຂໍ້ຄວາມເທົ່ານັ້ນ. ພາບໜ້າຈໍ (Screenshot) ແລະ ໄຟລ໌ຕ່າງໆ ມັກຈະມີຂໍ້ມູນສ່ວນຕົວປົນຢູ່ໂດຍບໍ່ໄດ້ຕັ້ງໃຈ. ການອັບໂຫຼດໄຟລ໌ເຂົ້າສູ່ເຄື່ອງມື AI ທີ່ມີຟັງຊັນການຮັບຮູ້ຮູບພາບ ຫຼື OCR ຕ້ອງໃຊ້ຄວາມລະມັດລະວັງຫຼາຍກວ່າການປ້ອນຂໍ້ມູນຂໍ້ຄວາມ.
ຂໍ້ມູນສ່ວນຕົວທີ່ຜູ້ໃຊ້ໃນລາວມັກຈະມີຢູ່ໃນພາບໜ້າຈໍທີ່ອັບໂຫຼດ ມີດັ່ງນີ້:
ກົດໝາຍວ່າດ້ວຍການປົກປ້ອງຂໍ້ມູນເອເລັກໂຕຣນິກຂອງລາວ ໄດ້ກຳນົດໃຫ້ຜູ້ຄວບຄຸມຂໍ້ມູນຕ້ອງມີມາດຕະການຮັກສາຄວາມປອດໄພຂອງຂໍ້ມູນສ່ວນບຸກຄົນ. ການທີ່ຜູ້ໃຊ້ເປັນຜູ້ອັບໂຫຼດຂໍ້ມູນເຂົ້າສູ່ AI ດ້ວຍຕົນເອງນັ້ນຖືເປັນຄວາມຮັບຜິດຊອບສ່ວນບຸກຄົນ, ແຕ່ຫາກໃນນັ້ນມີຂໍ້ມູນຂອງບຸກຄົນອື່ນປົນຢູ່ ກໍອາດຈະກໍ່ໃຫ້ເກີດຄວາມສ່ຽງທາງກົດໝາຍໄດ້.
ມາດຕະການທີ່ຄວນປະຕິບັດກ່ອນການອັບໂຫຼດ ມີດັ່ງນີ້:
ຄວນມີສະຕິຢູ່ສະເໝີວ່າ "ການແຄັບໜ້າຈໍແລ້ວສົ່ງໄປເລີຍ" ເປັນພຶດຕິກຳທີ່ເບິ່ງຄືວ່າທຳມະດາ ແຕ່ອາດຈະສ້າງຄວາມສ່ຽງຕໍ່ການຮົ່ວໄຫຼຂອງຂໍ້ມູນສ່ວນຕົວ ບໍ່ພຽງແຕ່ຂອງຕົນເອງ ແຕ່ຍັງລວມເຖິງຂອງຜູ້ອື່ນອີກດ້ວຍ.
ຄວາມສ່ຽງດ້ານຂໍ້ມູນສ່ວນບຸກຄົນບໍ່ໄດ້ເກີດຈາກເທັກໂນໂລຢີ AI ພຽງຢ່າງດຽວເທົ່ານັ້ນ, ແຕ່ຍັງເກີດຈາກຄວາມໜ້າເຊື່ອຖືຂອງຜູ້ໃຫ້ບໍລິການທີ່ອ້າງຕົວວ່າເປັນ AI ອີກດ້ວຍ. ໃນລາວ, ມີຜູ້ໃຊ້ຈຳນວນຫຼາຍດາວໂຫຼດແອັບພລິເຄຊັນຈາກແຫຼ່ງທີ່ບໍ່ແມ່ນຮ້ານຄ້າແອັບພລິເຄຊັນທາງການ, ເຮັດໃຫ້ຄວາມສ່ຽງຈາກແອັບພລິເຄຊັນປອມທີ່ອ້າງວ່າ "ມີ AI ຕິດຕັ້ງຢູ່" ມີຄວາມສ່ຽງສູງຂຶ້ນ.
ຕໍ່ໄປນີ້ແມ່ນຮູບແບບທີ່ຜູ້ໃຊ້ໃນລາວຄວນລະມັດລະວັງເປັນພິເສດ:
ວິທີການຈຳແນກການບໍລິການທີ່ໜ້າເຊື່ອຖື
ຮູບແບບທີ່ຄວນລະວັງເປັນພິເສດໃນລາວ
ເຖິງແມ່ນວ່າຈະໃຊ້ບໍລິການ AI ຂະໜາດໃຫຍ່ (ເຊັ່ນ: ChatGPT, Claude, Gemini, ແລະອື່ນໆ), ກໍຄວນກວດສອບໃຫ້ແນ່ໃຈວ່າທ່ານກຳລັງເຂົ້າໃຊ້ງານຜ່ານເວັບໄຊທາງການ ຫຼື ຮ້ານຄ້າແອັບພລິເຄຊັນທາງການເທົ່ານັ້ນ. ໃນລາວ, ມີລາຍງານກ່ຽວກັບກໍລະນີເວັບໄຊຟິດຊິງ (Phishing) ທີ່ຖືກແບ່ງປັນຜ່ານສື່ສັງຄົມອອນລາຍ, ດັ່ງນັ້ນນິໄສການກວດສອບ URL ຢ່າງລະອຽດຈຶ່ງມີຄວາມສຳຄັນຫຼາຍ.
ກົດໝາຍວ່າດ້ວຍການປ້ອງກັນອາດຊະຍາກຳທາງໄຊເບີຂອງລາວ ໄດ້ກຳນົດໃຫ້ການເກັບກຳຂໍ້ມູນໂດຍບໍ່ຖືກຕ້ອງ ແລະ ການກະທຳຟິດຊິງ (Phishing) ເປັນການກະທຳຜິດທີ່ຕ້ອງໄດ້ຮັບໂທດ. ຖ້າທ່ານຕົກເປັນຜູ້ເສຍຫາຍ, ທ່ານສາມາດລາຍງານໄປຍັງ ກະຊວງເຕັກໂນໂລຊີ ແລະ ການສື່ສານ (MoTC) ຫຼື LaoCERT ໄດ້.
ນອກຈາກການນຳໃຊ້ສ່ວນບຸກຄົນແລ້ວ, ໃນກໍລະນີທີ່ວິສາຫະກິດ ຫຼື ຜູ້ປະກອບການສ່ວນບຸກຄົນທີ່ດຳເນີນທຸລະກິດໃນລາວນຳໃຊ້ AI, ຂອບເຂດຂອງຂໍ້ມູນທີ່ຈັດການຈະຂະຫຍາຍຈາກ "ຂໍ້ມູນຂອງຕົນເອງ" ໄປສູ່ "ຂໍ້ມູນຂອງລູກຄ້າ ຫຼື ຄູ່ຄ້າ". ໃນກໍລະນີນີ້, ຄວາມຮັບຜິດຊອບໃນການປົກປ້ອງຂໍ້ມູນສ່ວນບຸກຄົນຈະໜັກໜ່ວງຂຶ້ນ.
ຂໍ້ມູນຕໍ່ໄປນີ້ທີ່ຈັດການໃນການເຮັດວຽກຢູ່ລາວ ບໍ່ຄວນປ້ອນເຂົ້າໃນເຄື່ອງມື AI ຢ່າງງ່າຍດາຍ:
ໂດຍສະເພາະໃນກໍລະນີຂອງບໍລິສັດຍ່ອຍຂອງຕ່າງປະເທດ ຫຼື ຟຣີແລນສ໌ທີ່ເພີ່ມທະວີຂຶ້ນເລື້ອຍໆໃນລາວ, ສະຖານະການທີ່ "ນຳໃຊ້ເຄື່ອງມືສ່ວນຕົວເພື່ອປະມວນຜົນຂໍ້ມູນລູກຄ້າ" ເກີດຂຶ້ນເປັນປະຈຳ. ເຖິງແມ່ນວ່າໃນ NDA ກັບລູກຄ້າຈະບໍ່ມີຂໍ້ກຳນົດກ່ຽວກັບການນຳໃຊ້ເຄື່ອງມື AI, ແຕ່ການປ້ອນຂໍ້ມູນລັບຂອງລູກຄ້າເຂົ້າໃນບໍລິການ AI ຂອງພາກສ່ວນທີສາມ ກໍມີຄວາມສ່ຽງທີ່ຈະທຳລາຍຄວາມເຊື່ອໝັ້ນຕໍ່ກັນໄດ້.
ກົດລະບຽບການນຳໃຊ້ຢ່າງປອດໄພໃນການເຮັດວຽກມີດັ່ງນີ້:
ກົດໝາຍວ່າດ້ວຍການປົກປ້ອງຂໍ້ມູນທາງອີເລັກໂທຣນິກຂອງລາວ ກຳນົດໃຫ້ຜູ້ຄວບຄຸມຂໍ້ມູນ (ລວມເຖິງບໍລິສັດ) ຕ້ອງມີມາດຕະການຄຸ້ມຄອງຄວາມປອດໄພທີ່ເໝາະສົມໃນການປະມວນຜົນຂໍ້ມູນສ່ວນບຸກຄົນ. ການປ້ອນຂໍ້ມູນເຂົ້າໃນເຄື່ອງມື AI ກໍອາດຈະຕົກຢູ່ໃນຂອບເຂດຂອງພັນທະນີ້ເຊັ່ນກັນ.
ເພື່ອການນຳໃຊ້ AI ຢ່າງປອດໄພ, ຂໍແນະນຳ 5 ວິທີປະຕິບັດທີ່ທ່ານສາມາດເລີ່ມໄດ້ຕັ້ງແຕ່ມື້ນີ້. ທັງໝົດນີ້ບໍ່ຈຳເປັນຕ້ອງມີຄວາມຮູ້ດ້ານເຕັກນິກ, ພຽງແຕ່ມີສະຕິລະວັງຕົວ ກໍສາມາດຫຼຸດຜ່ອນຄວາມສ່ຽງດ້ານຂໍ້ມູນສ່ວນບຸກຄົນໄດ້ຢ່າງຫຼວງຫຼາຍ.
1. ປ້ອນສະເພາະຂໍ້ມູນທີ່ຈຳເປັນແທ້ໆເທົ່ານັ້ນ
ໃນເວລາຖາມ AI, ໃຫ້ຫຼີກລ່ຽງການປ້ອນຂໍ້ມູນພື້ນຖານທັງໝົດພຽງເພື່ອ "ກັນໄວ້ກ່ອນ". ໃຫ້ຄັດເລືອກສະເພາະຂໍ້ມູນທີ່ເປັນ ຈຸດສຳຄັນ ຫຼື ແກນຫຼັກ ຂອງຄຳຖາມເທົ່ານັ້ນ. ຕົວຢ່າງ: ຖ້າຕ້ອງການໃຫ້ກວດສອບສັນຍາພາສາລາວ, ການຄັດເອົາສະເພາະຂໍ້ກຳນົດທີ່ທ່ານກັງວົນໃຈມາຖາມຈະປອດໄພກວ່າ. ບໍ່ຈຳເປັນຕ້ອງໃສ່ຊື່ບໍລິສັດຄູ່ສັນຍາ ຫຼື ຈຳນວນເງິນລົງໄປ.
2. ໃຊ້ Placeholder ແທນຊື່ແທ້ ຫຼື ເລກບັນຊີແທ້
ໃຫ້ປ່ຽນຂໍ້ມູນເປັນ Placeholder ເຊັ່ນ: [ຊື່-ນາມສະກຸນ], [ເລກບັນຊີ], [ວັນທີ], [ຊື່ບໍລິສັດ]. ເນື່ອງຈາກ AI ສາມາດເຂົ້າໃຈບໍລິບົດໃນການປະມວນຜົນໄດ້, ໃນກໍລະນີສ່ວນໃຫຍ່ ວິທີນີ້ກໍພຽງພໍທີ່ຈະໄດ້ຄຳຕອບທີ່ຕ້ອງການ. ແທນທີ່ຈະໃສ່ເລກບັນຊີ BCEL One ຫຼື ເລກບັດປະຈຳຕົວ, ພຽງແຕ່ຂຽນວ່າ [ເລກບັນຊີ] ກໍພຽງພໍແລ້ວ.
3. ຕັດຮູບ ຫຼື ເບີ (Blur) ພາບໜ້າຈໍກ່ອນອັບໂຫຼດ
ໃນກໍລະນີທີ່ສົ່ງໜ້າຈໍ BCEL One ຫຼື LaoQR ໃຫ້ AI, ຕ້ອງເຮັດໃຫ້ສ່ວນທີ່ເປັນເລກບັນຊີ ຫຼື ຍອດເງິນເບີລາງ (Blur) ໃຫ້ຮຽບຮ້ອຍ. ສຳລັບໜ້າຈໍແຊັດ WhatsApp ຫຼື LINE, ຖ້າມີຊື່ ຫຼື ເບີໂທລະສັບຂອງສະມາຊິກຄົນອື່ນປາກົດຢູ່ ກໍຄວນຕັດຮູບ (Trim) ອອກ. ທ່ານສາມາດໃຊ້ຟັງຊັນແກ້ໄຂຮູບພາບມາດຕະຖານທີ່ມີຢູ່ໃນສະມາດໂຟນໄດ້ເລີຍ.
4. ກວດສອບການຕັ້ງຄ່າຄວາມເປັນສ່ວນຕົວ ແລະ ປະຫວັດການໃຊ້ງານ
ກ່ອນເລີ່ມໃຊ້ບໍລິການ AI, ໃຫ້ກວດສອບລາຍການຕໍ່ໄປນີ້ໃນໜ້າການຕັ້ງຄ່າ:
ຫຼາຍບໍລິການສາມາດປັບແຕ່ງສິ່ງເຫຼົ່ານີ້ໄດ້ດ້ວຍການຄລິກພຽງສອງສາມຄັ້ງໃນໜ້າການຕັ້ງຄ່າ. ການໃຊ້ເວລາພຽງ 5 ນາທີໃນການຕັ້ງຄ່າຕັ້ງແຕ່ເລີ່ມຕົ້ນໃຊ້ງານ ຈະຊ່ວຍຫຼຸດຜ່ອນຄວາມສ່ຽງຢ່າງຕໍ່ເນື່ອງໃນອະນາຄົດ.
5. ຢ່າຝາກການຕັດສິນໃຈດ້ານການເງິນ, ກົດໝາຍ ແລະ ການແພດ ໄວ້ກັບ AI
AI ມີປະໂຫຍດໃນການຈັດລະບຽບຂໍ້ມູນ ຫຼື ຊອກຫາຂໍ້ມູນເບື້ອງຕົ້ນ, ແຕ່ບໍ່ສາມາດທົດແທນການຕັດສິນໃຈທີ່ສຳຄັນໄດ້. ເຊັ່ນ: "ເຊັນສັນຍາຊື້-ຂາຍທີ່ດິນນີ້ຈະມີບັນຫາບໍ່?", "ອາການນີ້ແມ່ນພະຍາດຫຍັງ?", "ໂຄງການລົງທຶນນີ້ເຊື່ອຖືໄດ້ບໍ່?" — ການຕັດສິນໃຈເຫຼົ່ານີ້ ຄວນປຶກສາຜູ້ຊ່ຽວຊານ (ທະນາຍຄວາມ, ແພດ, ນັກບັນຊີ) ໂດຍກົງ ໂດຍອ້າງອີງຈາກຄຳຕອບຂອງ AI ພຽງແຕ່ເປັນຂໍ້ມູນປະກອບເທົ່ານັ້ນ. ໃນປະເທດລາວ, ລະບົບກົດໝາຍ ແລະ ວັດທະນະທຳການຄ້າມີລັກສະນະສະເພາະຕົວ, ເຊິ່ງຫຼາຍຄັ້ງຄຳຕອບທົ່ວໄປທີ່ AI ໄດ້ຮຽນຮູ້ມາອາດຈະບໍ່ສາມາດນຳມາໃຊ້ກັບສະຖານະການໃນລາວໄດ້.
AI ເປັນເຄື່ອງມືທີ່ສາມາດນຳໃຊ້ໄດ້ຢ່າງກວ້າງຂວາງ ຕັ້ງແຕ່ວຽກງານປະຈຳວັນໄປຈົນເຖິງການປຶກສາຫາລືເລື່ອງສ່ວນຕົວ, ແຕ່ຜູ້ໃຊ້ໃນລາວມີຄວາມຮັບຜິດຊອບໃນການ "ເລືອກຂໍ້ມູນທີ່ຈະປ້ອນເຂົ້າໄປ". ໂດຍສະເພາະໃນລາວ, ເນື່ອງຈາກຂໍ້ມູນຂອງບໍລິການ AI ທັງໝົດຖືກປະມວນຜົນຢູ່ເຊີບເວີຕ່າງປະເທດ, ຈຶ່ງມີບັນຫາດ້ານໂຄງສ້າງທີ່ວ່າການຈັດການຂໍ້ມູນທີ່ປ້ອນເຂົ້າໄປແລ້ວນັ້ນເຮັດໄດ້ຍາກ.
ຂໍສະຫຼຸບມາດຕະການທີ່ໄດ້ແນະນຳໃນບົດຄວາມນີ້ອີກຄັ້ງ:
[ຊື່-ນາມສະກຸນ], [ເລກບັນຊີ] ແລະ ອື່ນໆ, AI ກໍສາມາດເຂົ້າໃຈບໍລິບົດ ແລະ ຕອບຄຳຖາມໄດ້.ສິ່ງທີ່ຈຳເປັນເພື່ອປົກປ້ອງຄວາມເປັນສ່ວນຕົວໃນຂະນະທີ່ນຳໃຊ້ຄວາມສະດວກສະບາຍຂອງ AI ໃຫ້ໄດ້ສູງສຸດນັ້ນ ບໍ່ແມ່ນຄວາມຮູ້ທາງດ້ານເຕັກນິກຂັ້ນສູງ. "ຢຸດຄິດສັກໜຶ່ງວິນາທີກ່ອນປ້ອນຂໍ້ມູນວ່າ ຫາກຂໍ້ມູນນີ້ຮົ່ວໄຫຼຈະເກີດບັນຫາຫຼືບໍ່" — ການຕັດສິນໃຈໃນຊ່ວງເວລາສັ້ນໆນີ້ ຈະເປັນແນວປ້ອງກັນທີ່ດີທີ່ສຸດໃນການປົກປ້ອງຂໍ້ມູນສ່ວນຕົວຂອງຕົນເອງ ແລະ ຄົນອ້ອມຂ້າງ.
ນີ້ແມ່ນບົດສະຫຼຸບຄຳຖາມທີ່ພົບເລື້ອຍກ່ຽວກັບການປົກປ້ອງຂໍ້ມູນສ່ວນບຸກຄົນ ເມື່ອມີການນຳໃຊ້ AI ໃນປະເທດລາວ.
ໃນປັດຈຸບັນ ຍັງບໍ່ມີບໍລິການ AI ຫຼັກທີ່ມີເຊີບເວີຕັ້ງຢູ່ໃນປະເທດລາວ. ChatGPT (OpenAI), Claude (Anthropic) ແລະ Gemini (Google) ລ້ວນແຕ່ປະມວນຜົນຂໍ້ມູນໂດຍໃຊ້ໂຄງສ້າງພື້ນຖານ ຫຼື Infrastructure ລະດັບໂລກ ເຊິ່ງມີສູນກາງຢູ່ສະຫະລັດອາເມລິກາ.
ໝາຍຄວາມວ່າ, ທັນທີທີ່ທ່ານປ້ອນຂໍ້ມູນເຂົ້າໃນ AI ຈາກປະເທດລາວ, ຂໍ້ມູນນັ້ນຈະຖືກສົ່ງຂໍ້ມູນຕໍ່ໃຫ້ໄປຍັງຕ່າງປະເທດ. ເຖິງແມ່ນວ່າກົດໝາຍວ່າດ້ວຍການປົກປ້ອງຂໍ້ມູນເອເລັກໂຕຣນິກຂອງລາວຈະມີຂໍ້ກຳນົດກ່ຽວກັບການປະມວນຜົນຂໍ້ມູນພາຍໃນປະເທດ, ແຕ່ການບັງຄັບໃຊ້ທາງກົດໝາຍຕໍ່ຂໍ້ມູນທີ່ຖືກເກັບຮັກສາໄວ້ໃນເຊີບເວີຕ່າງປະເທດນັ້ນຍັງມີຂອບເຂດຈຳກັດ.
ບໍລິການໃຫຍ່ໆຫຼາຍແຫ່ງມີການຕັ້ງຄ່າ Opt-out ສຳລັບການເກັບຮັກສາປະຫວັດການສົນທະນາ ແລະ ການນຳໄປໃຊ້ເພື່ອການຮຽນຮູ້. ຂັ້ນຕອນທຳອິດແມ່ນໃຫ້ກວດສອບໜ້າການຕັ້ງຄ່າຂອງບໍລິການທີ່ທ່ານກຳລັງໃຊ້ຢູ່ ເພື່ອໃຫ້ເຂົ້າໃຈວ່າຂໍ້ມູນຂອງທ່ານຖືກຈັດການແນວໃດ. ຖ້າຫາກມີຄວາມກັງວົນ, ທ່ານຄວນພິຈາລະນາລຶບປະຫວັດການສົນທະນາເກົ່າດ້ວຍຕົນເອງ.
ໃນອະນາຄົດ, ມີຄວາມເປັນໄປໄດ້ທີ່ຂໍ້ກຳນົດກ່ຽວກັບການຈັດເກັບຂໍ້ມູນພາຍໃນພາກພື້ນ (Data Localization) ພາຍໃນອາຊຽນອາດຈະມີຄວາມເຂັ້ມງວດຂຶ້ນ, ແຕ່ໃນປັດຈຸບັນ ການປ້ອງກັນຕົນເອງຂອງຜູ້ໃຊ້ຍັງຖືເປັນມາດຕະການທີ່ສຳຄັນທີ່ສຸດ.
ຄວາມສ່ຽງສູງສຸດແມ່ນຂໍ້ມູນທີ່ຫາກຮົ່ວໄຫຼຈະນຳໄປສູ່ຄວາມເສຍຫາຍທາງການເງິນໂດຍກົງ ຫຼື ການສວມຮອຍຕົວຕົນ. ໃນບໍລິບົດຂອງລາວ, ສິ່ງທີ່ກ່ຽວຂ້ອງໂດຍສະເພາະມີດັ່ງນີ້:
ນອກຈາກນີ້, ຂໍ້ມູນລູກຄ້າທີ່ຈັດການໃນການເຮັດວຽກກໍຖືກຈັດຢູ່ໃນກຸ່ມທີ່ມີຄວາມສ່ຽງສູງເຊັ່ນກັນ. ກົດໝາຍວ່າດ້ວຍການປົກປ້ອງຂໍ້ມູນເອເລັກໂຕຣນິກຂອງລາວ ໄດ້ກຳນົດບົດລົງໂທດຕໍ່ການເປີດເຜີຍ ຫຼື ການປະມວນຜົນຂໍ້ມູນສ່ວນບຸກຄົນໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ. ດັ່ງນັ້ນ, ບໍ່ພຽງແຕ່ຂໍ້ມູນຂອງຕົນເອງເທົ່ານັ້ນ, ຫາກເຮັດໃຫ້ຂໍ້ມູນຂອງຜູ້ອື່ນຮົ່ວໄຫຼ ກໍອາດຈະຕ້ອງຮັບຜິດຊອບທາງກົດໝາຍໄດ້.
ໂດຍຫຼັກການແລ້ວ, ບໍ່ຄວນອັບໂຫຼດພາບໜ້າຈໍ (Screenshot) ຂອງແອັບທະນາຄານຂຶ້ນສູ່ AI ໂດຍກົງ. ໜ້າຈໍຂອງ BCEL One, JDB Mobile, LDB Mobile ແລະອື່ນໆ ມີຂໍ້ມູນດັ່ງຕໍ່ໄປນີ້:
ຖ້າຫາກມີຄວາມຈຳເປັນຕ້ອງໃຫ້ AI ຊ່ວຍວິເຄາະລາຍຮັບ-ລາຍຈ່າຍ ຫຼື ຈັດໝວດໝູ່ທຸລະກຳ, ໃຫ້ປະຕິບັດຕາມຂັ້ນຕອນການປິດບັງຂໍ້ມູນສ່ວນຕົວ (Anonymization) ດັ່ງນີ້:
ສຳລັບໜ້າຈໍການຊຳລະເງິນຜ່ານ LaoQR ກໍຈຳເປັນຕ້ອງລະມັດລະວັງເຊັ່ນດຽວກັນ. QR Code ອາດມີຂໍ້ມູນບັນຊີຂອງຮ້ານຄ້າ ຫຼື ບຸກຄົນລວມຢູ່, ເຊິ່ງຟັງຊັນການຈົດຈຳຮູບພາບຂອງ AI ອາດຈະອ່ານຂໍ້ມູນເຫຼົ່ານີ້ໄດ້.
Chi
ສຳເລັດການສຶກສາສາຂາວິທະຍາສາດຄອມພິວເຕີ (Information Science) ຈາກມະຫາວິທະຍາໄລແຫ່ງຊາດລາວ ໂດຍໃນລະຫວ່າງການສຶກສາມີສ່ວນຮ່ວມໃນການພັດທະນາຊອບແວສະຖິຕິ (Statistical Software) ຈາກປະສົບການຕົວຈິງ ຈຶ່ງໄດ້ສ້າງພື້ນຖານດ້ານການວິເຄາະຂໍ້ມູນ (Data Analysis) ແລະ ການໂປຣແກຣມມິງ (Programming) ຢ່າງເຂັ້ມແຂງ. ຕັ້ງແຕ່ປີ 2021 ໄດ້ກ້າວເຂົ້າສູ່ເສັ້ນທາງການພັດທະນາ Web ແລະ ແອັບພລິເຄຊັນ (Application) ແລະ ຕັ້ງແຕ່ປີ 2023 ເປັນຕົ້ນມາ ໄດ້ສັ່ງສົມປະສົບການພັດທະນາຢ່າງເຕັມຮູບແບບທັງໃນດ້ານ Frontend ແລະ Backend. ໃນບໍລິສັດ ຮັບຜິດຊອບການອອກແບບ ແລະ ພັດທະນາ Web Service ທີ່ນຳໃຊ້ AI ພ້ອມທັງມີສ່ວນຮ່ວມໃນໂຄງການທີ່ປະສົມປະສານ ການປະມວນຜົນພາສາທຳມະຊາດ (NLP: Natural Language Processing), ການຮຽນຮູ້ຂອງເຄື່ອງ (Machine Learning), Generative AI ແລະ ໂມເດນພາສາຂະໜາດໃຫຍ່ (LLM: Large Language Model) ເຂົ້າກັບລະບົບທຸລະກິດ. ມີຄວາມກະຕືລືລົ້ນໃນການຕິດຕາມເທັກໂນໂລຊີໃໝ່ລ່າສຸດຢູ່ສະເໝີ ແລະ ໃຫ້ຄວາມສຳຄັນກັບຄວາມວ່ອງໄວໃນທຸກຂັ້ນຕອນ ຕັ້ງແຕ່ການທົດສອບດ້ານເທັກນິກ ຈົນເຖິງການນຳໄປໃຊ້ງານຈິງໃນລະບົບ Production.