Faulty artificial intelligence

(SeaPRwire) –   ໃນຊຸມປີທີ່ຜ່ານມາ, ປັນຍາປະດິດໄດ້ກາຍເປັນຫົວຂໍ້ສົນທະນາທີ່ໂດດເດັ່ນ. ແຕ່ລະຮູບແບບ AI ໃໝ່ໄດ້ເປີດເຜີຍນະວັດຕະກໍາທີ່ບໍ່ໜ້າເຊື່ອເຊິ່ງສາມາດແຂ່ງຂັນກັບຮຸ່ນທີ່ປ່ອຍອອກມາພຽງແຕ່ສອງສາມອາທິດກ່ອນໜ້ານີ້. ຜູ້ຊ່ຽວຊານ, ຜູ້ພັດທະນາ, ແລະ CEO ຂອງບໍລິສັດ AI ໄດ້ກ່າວອ້າງຢ່າງກ້າຫານກ່ຽວກັບທິດທາງໃນອະນາຄົດ, ຕັ້ງແຕ່ ການຫຼຸດຜ່ອນແຮງງານທີ່ຫຍຸ້ງຍາກ ແລະ ການເພີ່ມຂຶ້ນຂອງອາຍຸຍືນຂອງມະນຸດ ຈົນເຖິງ ໄພຂົ່ມຂູ່ທີ່ອາດຈະເກີດຂຶ້ນຕໍ່ມະນຸດຊາດ.

ຖ້າທຸກຄົນກໍາລັງເວົ້າເຖິງ AI, ສ່ວນໜຶ່ງແມ່ນຍ້ອນການເຜີຍແຜ່ສູ່ສາທາລະນະຊົນຂອງນະວັດຕະກໍາເຫຼົ່ານັ້ນໄດ້ສ້າງລາຍຮັບທີ່ເພີ່ມຂຶ້ນຢ່າງຫຼວງຫຼາຍໃຫ້ແກ່ບໍລິສັດທີ່ພັດທະນາຮູບແບບເຫຼົ່ານັ້ນ. ແຕ່ເມື່ອ AI ກາຍເປັນໄວຂຶ້ນ, ມີຄວາມສາມາດຫຼາຍຂຶ້ນ, ສັບສົນຫຼາຍຂຶ້ນ, ການສົນທະນາສາທາລະນະນັ້ນອາດຈະຖືກຍ້າຍໄປຢູ່ເບື້ອງຫຼັງຢ່າງໄວວາ. ບໍລິສັດ AI ພວມນໍາໃຊ້ຮູບແບບ AI ພາຍໃນອົງການຈັດຕັ້ງຂອງຕົນເອງຫຼາຍຂຶ້ນ, ແລະ ມີແນວໂນ້ມວ່າພວກເຂົາຈະພົບເຫັນວ່າມັນ ມີກໍາໄລ ທີ່ຈະສະຫງວນຮູບແບບໃນອະນາຄົດທີ່ມີອໍານາດທີ່ສຸດຂອງພວກເຂົາສໍາລັບການນໍາໃຊ້ພາຍໃນ. ແຕ່ການຕັດສິນໃຈທີ່ເບິ່ງຄືວ່າບໍ່ເປັນອັນຕະລາຍເຫຼົ່ານີ້ອາດຈະສ້າງໄພຂົ່ມຂູ່ຮ້າຍແຮງຕໍ່ສັງຄົມໂດຍລວມ, ດັ່ງທີ່ໄດ້ໂຕ້ຖຽງຂ້າງລຸ່ມນີ້.

ບໍລິສັດ AI ຊັ້ນນໍາສ່ວນໃຫຍ່ໄດ້ລະບຸຢ່າງເປີດເຜີຍເຖິງຄວາມຕັ້ງໃຈທີ່ຈະພັດທະນາຮູບແບບ AI ທີ່ມີຄວາມສາມາດທຽບເທົ່າກັບມະນຸດໃນທຸກວຽກງານສະໝອງ, ເຊິ່ງອາດຈະສ້າງມູນຄ່າທາງເສດຖະກິດຫຼາຍລ້ານລ້ານໂດລາ. ດ້ວຍຄວາມເຊື່ອທີ່ເປັນທີ່ນິຍົມໃນປັດຈຸບັນກ່ຽວກັບ ການກ້າວໄປສູ່ປັນຍາປະດິດທົ່ວໄປ (AGI), ຄວາມໄດ້ປຽບທາງດ້ານຍຸດທະສາດທີ່ອາດຈະເກີດຂຶ້ນຂອງຮູບແບບທີ່ກ້າວໜ້າສູງອາດຈະນໍາພາບໍລິສັດໃຫ້ໃຊ້ຮູບແບບຂອງພວກເຂົາຢ່າງເປັນຄວາມລັບ ແລະ ພາຍໃນເພື່ອເພີ່ມຄວາມກ້າວໜ້າທາງດ້ານເຕັກນິກ—ແຕ່ໃຫ້ສັນຍານຄວາມກ້າວໜ້າພຽງເລັກນ້ອຍແກ່ຄູ່ແຂ່ງ ແລະ ໂລກພາຍນອກທີ່ກວ້າງຂວາງ.

ລະບົບ AI ໃນປັດຈຸບັນມັກຈະປະພຶດຕົວໃນແບບທີ່ບໍ່ຄາດຄິດ, ບໍ່ຕັ້ງໃຈ, ແລະ ບໍ່ເປັນທີ່ຕ້ອງການໃນສະພາບແວດລ້ອມທີ່ຈໍາລອງແບບທົດລອງ, ຕົວຢ່າງ, ຂົ່ມຂູ່ທີ່ຈະທໍາຮ້າຍຜູ້ໃຊ້, ເກີດພາບລວງຕາ, ຫຼືແມ້ກະທັ້ງບໍ່ສົນໃຈຄໍາສັ່ງຂອງມະນຸດ. ຢ່າງໃດກໍຕາມ, ຖ້າຜູ້ພັດທະນາຊັ້ນນໍາເລີ່ມປິດບັງຂໍ້ມູນຫຼາຍຂຶ້ນ, ສັງຄົມຈະບໍ່ມີໂອກາດ, ບໍ່ວ່າຈະນ້ອຍປານໃດ, ທີ່ຈະຮຽນຮູ້ ແລະ ປະເມີນຜົນດີແລະຜົນຮ້າຍ, ໂປຣໄຟລ໌ຄວາມສ່ຽງ ແລະ ຄວາມປອດໄພ, ແລະ ທິດທາງຂອງເຕັກໂນໂລຊີພື້ນຖານນີ້. ເມື່ອລະບົບ AI ຂັ້ນສູງໃນອະນາຄົດຖືກນໍາໃຊ້, ແລະ ອາດຈະຖືກນໍາໃຊ້ສະເພາະ, ຢູ່ເບື້ອງຫຼັງ, ອັນຕະລາຍທີ່ບໍ່ໄດ້ເຫັນຕໍ່ສັງຄົມອາດຈະເກີດຂຶ້ນ ແລະ ພັດທະນາໂດຍບໍ່ມີການກວດກາ ຫຼື ສັນຍານເຕືອນ—ນັ້ນຄືໄພຂົ່ມຂູ່ທີ່ພວກເຮົາສາມາດ ແລະ ຕ້ອງຫຼີກເວັ້ນ.

ຫ້ອງທົດລອງຊັ້ນນໍາກໍາລັງນໍາໃຊ້ລະບົບ AI ເພື່ອເລັ່ງສາຍສົ່ງການຄົ້ນຄວ້າ ແລະ ພັດທະນາ (R&D) ຂອງຕົນເອງຫຼາຍຂຶ້ນ, ໂດຍການອອກແບບສູດການຄິດໄລ່ໃໝ່, ສະເໜີສະຖາປັດຕະຍະກໍາໃໝ່ທັງໝົດ ຫຼື ການເພີ່ມປະສິດທິພາບຂອງລະຫັດ. Google, ຕົວຢ່າງ, ໄດ້ເປີດເຜີຍວ່າ 50% ຂອງລະຫັດຂອງພວກເຂົາໃນປັດຈຸບັນຖືກຂຽນໂດຍ AI. ດັ່ງທີ່ໄດ້ເນັ້ນໃຫ້ເຫັນໃນ The Economist, ລະບົບ AI ຂັ້ນສູງໃນທີ່ສຸດອາດຈະຖືກນໍາໃຊ້ເພື່ອປັບປຸງຮຸ່ນຕໍ່ໄປຂອງພວກເຂົາເອງຢ່າງຊໍ້າຊ້ອນ, ເຊິ່ງອາດຈະສ້າງ “”ການປັບປຸງຕົນເອງແບບຊໍ້າຊ້ອນ”” ທີ່ມີປະສິດທິພາບຂອງຮູບແບບທີ່ມີຄວາມສາມາດເພີ່ມຂຶ້ນ. ຜົນໄດ້ຮັບນີ້ຈະເປັນຂ່າວດີສໍາລັບບໍລິສັດ AI ທີ່ມີເປົ້າໝາຍທີ່ຈະບັນລຸປັນຍາປະດິດທົ່ວໄປ, ຫຼືແມ້ກະທັ້ງປັນຍາທີ່ສູງກວ່າ, ກ່ອນຄູ່ແຂ່ງ—ແຕ່ພຽງແຕ່ຖ້າພວກເຂົາໃຊ້ຄວາມໄດ້ປຽບທາງດ້ານຍຸດທະສາດຂອງພວກເຂົາຫ່າງໄກຈາກສາຍຕາທີ່ຢາກຮູ້ຢາກເຫັນ.

ເມື່ອເບິ່ງແລກ, ທັງໝົດນີ້ອາດຈະຟັງຄືວ່າບໍ່ມີອັນຕະລາຍ: ລະບົບ AI ທີ່ຍັງບໍ່ໄດ້ປ່ອຍອອກມາຈະສ້າງໄພຂົ່ມຂູ່ຫຍັງແດ່?

ບັນຫາມີສອງດ້ານ: ຫນຶ່ງ, ເມື່ອລະບົບ AI ຂັ້ນສູງກາຍເປັນປະໂຫຍດພາຍໃນຫຼາຍຂຶ້ນເພື່ອສ້າງ AI ທີ່ດີກວ່າ, ອາດຈະມີແຮງຈູງໃຈດ້ານການແຂ່ງຂັນ ແລະ ເສດຖະກິດທີ່ແຂງແຮງ, ຫຼາຍກວ່າໃນປັດຈຸບັນ, ເພື່ອຈັດລໍາດັບຄວາມໄວ ແລະ ຄວາມໄດ້ປຽບໃນການແຂ່ງຂັນກ່ອນຄວາມລະມັດລະວັງ. ພົນວັດຂອງການແຂ່ງຂັນນີ້ມີຄວາມສ່ຽງ, ໂດຍສະເພາະຖ້າລະບົບ AI ທີ່ກ້າວໜ້າຂຶ້ນເລື້ອຍໆເລີ່ມຖືກນໍາໃຊ້ໂດຍພະນັກງານຂອງບໍລິສັດ ແລະ ນໍາໄປໃຊ້ໃນພື້ນທີ່ສໍາຄັນດ້ານຄວາມປອດໄພເຊັ່ນ AI R&D, ອາດຈະເປັນແບບອັດຕະໂນມັດເພື່ອຫຼຸດຜ່ອນຄວາມຂັດແຍ້ງ, ສ້າງຈຸດລົ້ມເຫຼວທີ່ອາດຈະເກີດຂຶ້ນກ່ອນທີ່ໃຜຈະສາມາດເຂົ້າໃຈພຶດຕິກໍາຂອງລະບົບ AI ໄດ້ຢ່າງເຕັມສ່ວນ.

ສອງ, ການປະເມີນຜົນ ແລະ ການແຊກແຊງທີ່ມີຢູ່ແລ້ວສ່ວນໃຫຍ່ແມ່ນເນັ້ນໃສ່ລະບົບ AI ທີ່ເປີດໃຫ້ສາທາລະນະຊົນ. ສໍາລັບລະບົບ AI ທີ່ຖືກນໍາໃຊ້ພາຍໃນ, ມີຂໍ້ມູນໜ້ອຍຫຼາຍ, ຖ້າມີ, ກ່ຽວກັບວ່າໃຜມີການເຂົ້າເຖິງພິເສດຕໍ່ພວກມັນ ຫຼື ພວກມັນຖືກນໍາໃຊ້ເພື່ອຫຍັງ. ໂດຍສະເພາະ, ມີຂໍ້ມູນໜ້ອຍຫຼາຍທີ່ເປີດເຜີຍກ່ຽວກັບຄວາມສາມາດຂອງພວກມັນ, ວ່າພວກມັນປະພຶດຕົວໃນທາງທີ່ບໍ່ຕ້ອງການຫຼືບໍ່; ວ່າພວກມັນຢູ່ພາຍໃຕ້ການຄວບຄຸມທີ່ເໝາະສົມດ້ວຍກົນໄກການກວດກາ ແລະ ມາດຕະການປ້ອງກັນຫຼືບໍ່; ວ່າພວກມັນສາມາດຖືກນໍາໃຊ້ໃນທາງທີ່ຜິດໂດຍຜູ້ທີ່ເຂົ້າເຖິງພວກມັນ ຫຼື ໂປຣໄຟລ໌ຄວາມສ່ຽງໂດຍລວມຂອງພວກມັນ. ທັງຍັງບໍ່ມີຂໍ້ກໍານົດລະອຽດທີ່ພຽງພໍເພື່ອຮັບປະກັນວ່າລະບົບ AI ເຫຼົ່ານີ້ໄດ້ຮັບການທົດສອບຢ່າງເຂັ້ມງວດ ແລະ ບໍ່ສ້າງໄພຂົ່ມຂູ່ທີ່ສືບເນື່ອງກັນຕໍ່ສັງຄົມກ່ອນທີ່ຈະຖືກນໍາໃຊ້.

ຖ້າພວກເຮົາບໍ່ຮຽກຮ້ອງໃຫ້ບໍລິສັດເຕັກໂນໂລຢີໃຫ້ຂໍ້ມູນລະອຽດພຽງພໍກ່ຽວກັບວິທີການທົດສອບ, ຄວບຄຸມ, ແລະ ນໍາໃຊ້ຮູບແບບ AI ໃໝ່ພາຍໃນ, ລັດຖະບານກໍ່ບໍ່ສາມາດກະກຽມສໍາລັບລະບົບ AI ທີ່ອາດຈະມີຄວາມສາມາດຂອງລັດ-ຊາດ. ໃນຂະນະດຽວກັນ, ໄພຂົ່ມຂູ່ທີ່ພັດທະນາຢູ່ເບື້ອງຫຼັງອາດຈະລົ້ນເຂົ້າສູ່ສັງຄົມໂດຍບໍ່ມີການເຕືອນລ່ວງໜ້າ ຫຼື ຄວາມສາມາດໃນການແຊກແຊງ. ແນ່ນອນ, ໃນປັດຈຸບັນນີ້, ພວກເຮົາບໍ່ສາມາດໄວ້ວາງໃຈລະບົບ AI ໃນປະຈຸບັນວ່າຈະປະພຶດຕົວຕາມທີ່ຕັ້ງໃຈໄວ້ຢ່າງໜ້າເຊື່ອຖືບໍ່ວ່າຈະຖືກນໍາໃຊ້ພາຍນອກ ຫຼື ພາຍໃນ. ຢ່າງໃດກໍຕາມ, ພວກເຮົາຍັງມີເວລາທີ່ຈະດໍາເນີນການ.

ມີມາດຕະການໂດຍກົງທີ່ສາມາດປະຕິບັດໄດ້ໃນມື້ນີ້. ຂອບເຂດຂອງນະໂຍບາຍຄວາມປອດໄພ AI ຊາຍແດນແບບສະໝັກໃຈຂອງບໍລິສັດ AI ຄວນໄດ້ຮັບການຂະຫຍາຍອອກຢ່າງຊັດເຈນເພື່ອໃຫ້ກວມເອົາການນໍາໃຊ້ພາຍໃນທີ່ມີຄວາມສ່ຽງສູງ, ເຊັ່ນສໍາລັບການເລັ່ງ AI R&D. ໃນສ່ວນຫນຶ່ງຂອງນີ້, ການນໍາໃຊ້ພາຍໃນຄວນໄດ້ຮັບການປະຕິບັດດ້ວຍຄວາມລະມັດລະວັງເຊັ່ນດຽວກັນກັບການນໍາໃຊ້ພາຍນອກ, ແລະ ຄວນໄດ້ຮັບການຊຸກຍູ້ໃຫ້ມີການປະເມີນຜົນຢ່າງເຂັ້ມງວດເພື່ອລະບຸຄວາມສາມາດທີ່ເປັນອັນຕະລາຍ, ການສ້າງໂປຣໄຟລ໌ຄວາມສ່ຽງທີ່ຊັດເຈນ, ແລະ ກົນໄກການຄວບຄຸມ ຫຼື ກົນໄກປ້ອງກັນທີ່ຈໍາເປັນກ່ອນການນໍາໃຊ້.

ອົງການຂອງລັດຖະບານທີ່ຮັບຜິດຊອບການກະກຽມແຫ່ງຊາດຄວນມີການເບິ່ງເຫັນລ່ວງໜ້າໃນການນໍາໃຊ້ພາຍໃນຂອງລະບົບ AI ຂັ້ນສູງສູງ ແລະ ໄດ້ຮັບຂໍ້ມູນທີ່ສໍາຄັນຕໍ່ຄວາມໝັ້ນຄົງແຫ່ງຊາດທີ່ກ່ຽວຂ້ອງທັງໝົດ. ນີ້ອາດຈະລວມເຖິງ, ຕົວຢ່າງ, ຂໍ້ມູນກ່ຽວກັບໃຜມີການເຂົ້າເຖິງລະບົບ AI ເຫຼົ່ານີ້ ແລະ ພາຍໃຕ້ເງື່ອນໄຂໃດ, ລະບົບ AI ເຫຼົ່ານີ້ຖືກນໍາໃຊ້ເພື່ອຫຍັງ, ການກວດກາຫຍັງທີ່ຖືກນໍາໃຊ້ກັບພວກມັນ, ແລະ ຈະເກີດຫຍັງຂຶ້ນຖ້າການກວດການີ້ລົ້ມເຫຼວ, ເພື່ອຮັບປະກັນວ່າຜົນປະໂຫຍດທາງດ້ານເສດຖະກິດ ແລະ ຊັບສິນທາງປັນຍາແມ່ນມີຄວາມສົມດຸນກັບຜົນປະໂຫຍດຄວາມໝັ້ນຄົງແຫ່ງຊາດທີ່ຖືກຕ້ອງ.

ບໍລິສັດ AI ແລະ ລັດຖະບານຄວນຮ່ວມມືກັນເປັນຜູ້ນໍາໃນການນໍາໃຊ້ການປະຕິບັດທີ່ດີທີ່ສຸດເຫຼົ່ານີ້ເພື່ອຮັບປະກັນນະວັດຕະກໍາທີ່ເຊື່ອຖືໄດ້ ແລະ ການປົກປ້ອງສາທາລະນະຊົນ.

ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.

ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ

SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.