ການເປີດເຜີຍໃນເດືອນມັງກອນຂອງ, ແບບຈໍາລອງ AI ທີ່ກ້າວຫນ້າທີ່ສຸດຂອງຈີນມາເຖິງປະຈຸບັນ, ສັນຍານຈຸດຫນຶ່ງໃນ. ດັ່ງທີ່ປະທານາທິບໍດີ Donald Trump ໄດ້ເຕືອນໃນທີ່ຢູ່ຫຼ້າສຸດຂອງລາວກ່ຽວກັບຄວາມປອດໄພດ້ານເຕັກໂນໂລຢີ, ການພັດທະນານີ້ເປັນຕົວແທນຂອງ “” ສໍາລັບການນໍາພາຂອງອາເມຣິກາ. ສິ່ງທີ່ຢູ່ໃນຄວາມສ່ຽງບໍ່ແມ່ນພຽງແຕ່ການແຂ່ງຂັນທາງດ້ານເສດຖະກິດແຕ່ອາດຈະເປັນເຕັກໂນໂລຢີທີ່ມີຄວາມສ່ຽງທາງດ້ານພູມສາດການເມືອງທີ່ສຸດນັບຕັ້ງແຕ່ລະເບີດປະລໍາມະນູ
ໃນຍຸກນິວເຄລຍທີ່ປະຕິບັດຕາມການສ້າງລະເບີດປະລໍາມະນູຂອງ Oppenheimer, ການຜູກຂາດດ້ານເຕັກໂນໂລຢີຂອງອາເມລິກາໄດ້ແກ່ຍາວປະມານສີ່ປີກ່ອນທີ່ນັກວິທະຍາສາດໂຊວຽດຈະບັນລຸຄວາມສະເຫມີພາບ. ຄວາມສົມດູນຂອງຄວາມຢ້ານກົວນີ້, ປະສົມປະສານກັບທ່າແຮງການທໍາລາຍທີ່ບໍ່ເຄີຍມີມາກ່ອນຂອງອາວຸດໃຫມ່ເຫຼົ່ານີ້, ໄດ້ເຮັດໃຫ້ເກີດການທໍາລາຍເຊິ່ງກັນແລະກັນ (MAD) – ກອບການກີດກັນ, ເຖິງວ່າຈະມີຂໍ້ບົກພ່ອງຂອງມັນ, ໄດ້ປ້ອງກັນຄວາມຂັດແຍ້ງທີ່ຮ້າຍແຮງສໍາລັບທົດສະວັດ. ຜົນກະທົບຂອງການແກ້ແຄ້ນນິວເຄລຍເຮັດໃຫ້ແຕ່ລະຝ່າຍບໍ່ກ້າປະທ້ວງກ່ອນ, ສຸດທ້າຍອະນຸຍາດໃຫ້ມີການຢືນຢູ່ທີ່ເຄັ່ງຕຶງແຕ່ຫມັ້ນຄົງ
ການແຂ່ງຂັນ AI ໃນມື້ນີ້ມີທ່າແຮງທີ່ຈະສັບສົນຫຼາຍກວ່າຍຸກນິວເຄລຍທີ່ຜ່ານມາ, ສ່ວນຫນຶ່ງແມ່ນຍ້ອນວ່າ AI ເປັນເຕັກໂນໂລຢີທີ່ໃຊ້ໄດ້ຢ່າງກວ້າງຂວາງທີ່ສໍາຜັດເກືອບທຸກໂດເມນ, ຈາກຢາປົວພະຍາດຈົນເຖິງການເງິນເຖິງການປ້ອງກັນ. AI ທີ່ມີອໍານາດອາດຈະເຮັດໃຫ້ການຄົ້ນຄວ້າ AI ເປັນອັດຕະໂນມັດ, ເຮັດໃຫ້ປະເທດທໍາອິດທີ່ຄອບຄອງມັນນໍາຫນ້າໃນພະລັງງານປ້ອງກັນແລະການກະທໍາຜິດ. ປະເທດຊາດຢູ່ເທິງສຸດຂອງການໃຊ້ AI ທີ່ສະຫຼາດທີ່ສຸດ, AI ສະຫຼາດກວ່າມະນຸດຢ່າງຫຼວງຫຼາຍໃນເກືອບທຸກໂດເມນ, ຈະກາຍເປັນສຸກເສີນດ້ານຄວາມປອດໄພແຫ່ງຊາດສໍາລັບຄູ່ແຂ່ງຂອງຕົນ, ຜູ້ທີ່ອາດຈະຫັນໄປສູ່ການຂົ່ມຂູ່ການທໍາລາຍແທນທີ່ຈະຍອມແພ້. ຖ້າພວກເຮົາກໍາລັງມຸ່ງຫນ້າໄປສູ່ໂລກທີ່ມີ superintelligence, ພວກເຮົາຕ້ອງມີຄວາມຊັດເຈນກ່ຽວກັບທ່າແຮງສໍາລັບຄວາມບໍ່ສະຖຽນລະພາບທາງພູມສາດການເມືອງ. ພວກເຮົາແຜນທີ່ບາງຜົນກະທົບທາງພູມສາດການເມືອງຂອງ AI ທີ່ມີອໍານາດແລະສະເຫນີ “ຍຸດທະສາດ Superintelligence” ທີ່ສອດຄ່ອງກັນໃນ
ຂໍໃຫ້ພວກເຮົາຈິນຕະນາການວ່າສະຫະລັດອາດຈະຕອບສະຫນອງຢ່າງສົມເຫດສົມຜົນຕໍ່ລັດຄູ່ແຂ່ງທີ່ຊອກຫາຄວາມໄດ້ປຽບ AI ທີ່ບໍ່ສາມາດເອົາຊະນະໄດ້. ສົມມຸດວ່າ Beijing ສ້າງຄວາມນໍາຫນ້າໃນຫ້ອງທົດລອງ American AI ແລະບັນລຸຈຸດສູງສຸດຂອງ superintelligence ທີ່ປັບປຸງໃຫມ່ກ່ອນພວກເຮົາ. ບໍ່ວ່າ Beijing ຈະສາມາດຮັກສາການຄວບຄຸມສິ່ງທີ່ມັນກໍາລັງສ້າງໄດ້, ຄວາມປອດໄພແຫ່ງຊາດຂອງສະຫະລັດຈະຖືກຂົ່ມຂູ່ຢ່າງເລິກເຊິ່ງແລະເປັນຢູ່. ຕາມເຫດຜົນ, ສະຫະລັດອາດຈະຫັນໄປສູ່ການຂົ່ມຂູ່ການທໍາລາຍໃນຮູບແບບຂອງການໂຈມຕີທາງອິນເຕີເນັດຕໍ່ສູນຂໍ້ມູນ AI ເພື່ອປ້ອງກັນບໍ່ໃຫ້ຈີນບັນລຸເປົ້າຫມາຍຂອງຕົນ. ພວກເຮົາອາດຈະຄາດຫວັງເຊັ່ນດຽວກັນວ່າ Xi Jinping – ຫຼື Vladimir Putin, ຜູ້ທີ່ມີໂອກາດຫນ້ອຍທີ່ຈະໄດ້ຮັບເຕັກໂນໂລຢີທໍາອິດ – ຕອບສະຫນອງໃນລັກສະນະທີ່ຄ້າຍຄືກັນຖ້າພວກເຮົາເຂົ້າຫາ superintelligence ທີ່ປັບປຸງໃຫມ່. ພວກເຂົາຈະບໍ່ຢືນຢູ່ຊື່ໆຖ້າການຜູກຂາດພະລັງງານຂອງສະຫະລັດໃກ້ຈະມາເຖິງ.
ເຊັ່ນດຽວກັນກັບການສະແຫວງຫາການຜູກຂາດນິວເຄລຍທີ່ບໍ່ສະຖຽນລະພາບໃນທີ່ສຸດໄດ້ໃຫ້ວິທີການຄວາມຫມັ້ນຄົງຂອງ MAD ໃນລະຫວ່າງຍຸກນິວເຄລຍ, ພວກເຮົາອາດຈະເຂົ້າສູ່ການປ້ອງກັນຂະຫນານສໍາລັບ AI ໃນໄວໆນີ້. ຖ້າລັດໃດກໍ່ຕາມທີ່ພະຍາຍາມຍຶດເອົາອໍານາດສູງສຸດຂອງ AI ສາມາດຄາດຫວັງວ່າໄພຂົ່ມຂູ່ຂອງການທໍາລາຍ preemptive, ລັດຕ່າງໆອາດຈະຖືກຂັດຂວາງຈາກການສະແຫວງຫາອໍານາດຝ່າຍດຽວທັງຫມົດ. ພວກເຮົາເອີ້ນຜົນໄດ້ຮັບນີ້ວ່າ Mutual Assured AI Malfunction (MAIM). ໃນຂະນະທີ່ປະເທດຊາດຕື່ນຂຶ້ນສູ່ຄວາມເປັນໄປໄດ້ນີ້, ພວກເຮົາຄາດວ່າຈະກາຍເປັນລະບອບເລີ່ມຕົ້ນ, ແລະພວກເຮົາຈໍາເປັນຕ້ອງກະກຽມໃນປັດຈຸບັນສໍາລັບຄວາມເປັນຈິງທາງຍຸດທະສາດໃຫມ່ນີ້.
MAIM ເປັນກອບການກີດກັນທີ່ຖືກອອກແບບມາເພື່ອຮັກສາຄວາມໄດ້ປຽບທາງຍຸດທະສາດ, ປ້ອງກັນການເພີ່ມຂື້ນ, ແລະຈໍາກັດຄວາມທະເຍີທະຍານຂອງຄູ່ແຂ່ງແລະຜູ້ກະທໍາຜິດ. ສໍາລັບສິ່ງນີ້ທີ່ຈະເຮັດວຽກ, ສະຫະລັດຕ້ອງເຮັດໃຫ້ຊັດເຈນວ່າໂຄງການ AI ທີ່ບໍ່ສະຖຽນລະພາບຂອງຄູ່ແຂ່ງ, ໂດຍສະເພາະຜູ້ທີ່ແນໃສ່ superintelligence, ຈະກະຕຸ້ນໃຫ້ມີການແກ້ແຄ້ນ. ໃນທີ່ນີ້, ການກະທໍາຜິດ – ຫຼືຢ່າງຫນ້ອຍໄພຂົ່ມຂູ່ທີ່ຫນ້າເຊື່ອຖືຂອງການກະທໍາຜິດ – ມີແນວໂນ້ມທີ່ຈະເປັນການປ້ອງກັນທີ່ດີທີ່ສຸດ. ນັ້ນຫມາຍຄວາມວ່າການຂະຫຍາຍຄວາມສາມາດໃນການໂຈມຕີທາງອິນເຕີເນັດຂອງພວກເຮົາແລະປັບປຸງການເຝົ້າລະວັງໂຄງການ AI ຂອງສັດຕູ.
ໃນຂະນະທີ່ສ້າງກອບການກີດກັນນີ້, ອາເມລິກາຕ້ອງກ້າວໄປຂ້າງຫນ້າໃນສອງດ້ານເພີ່ມເຕີມ: AI nonproliferation ແລະຄວາມສາມາດໃນການແຂ່ງຂັນພາຍໃນປະເທດ.
ສໍາລັບ nonproliferation, ພວກເຮົາຄວນຈະອອກກົດຫມາຍຄວບຄຸມການສົ່ງອອກຊິບ AI ທີ່ເຂັ້ມແຂງແລະການຕິດຕາມເພື່ອກໍາຈັດພະລັງງານຄອມພິວເຕີ້ເຂົ້າໄປໃນມືຂອງຄົນອັນຕະລາຍ. ພວກເຮົາຄວນປະຕິບັດຕໍ່ຊິບ AI ຫຼາຍກວ່າ uranium, ຮັກສາບັນທຶກທີ່ແຫນ້ນຫນາຂອງການເຄື່ອນໄຫວຜະລິດຕະພັນ, ການກໍ່ສ້າງໃນຂໍ້ຈໍາກັດກ່ຽວກັບສິ່ງທີ່ຊິບ AI ລະດັບສູງໄດ້ຮັບອະນຸຍາດໃຫ້ເຮັດ, ແລະມອບອໍານາດໃຫ້ອົງການຂອງລັດຖະບານກາງຕິດຕາມແລະປິດເສັ້ນທາງການແຈກຢາຍທີ່ຜິດກົດຫມາຍ.
ສຸດທ້າຍ, ເພື່ອຮັກສາຄວາມໄດ້ປຽບໃນການແຂ່ງຂັນ, ສະຫະລັດຄວນສຸມໃສ່ການສ້າງຄວາມຢືດຢຸ່ນໃນລະບົບຕ່ອງໂສ້ການສະຫນອງຂອງຕົນສໍາລັບເຕັກໂນໂລຢີການທະຫານແລະພະລັງງານຄອມພິວເຕີ້. ໂດຍສະເພາະ, ການເພິ່ງພາອາໄສໄຕ້ຫວັນສໍາລັບຊິບ AI ຂອງພວກເຮົາແມ່ນຄວາມສ່ຽງທີ່ເຫັນໄດ້ຊັດເຈນແລະເປັນຈຸດບີບບັງຄັບທີ່ສໍາຄັນ. ໃນຂະນະທີ່ຕາເວັນຕົກມີຄວາມໄດ້ປຽບຂອງຊິບ AI ທີ່ເດັດຂາດ, ການແຂ່ງຂັນຂອງຈີນສາມາດລົບກວນສິ່ງນັ້ນໄດ້. ດັ່ງນັ້ນ, ສະຫະລັດຄວນເພີ່ມການອອກແບບພາຍໃນປະເທດແລະຄວາມສາມາດໃນການຜະລິດ. Superintelligent AI ກໍ່ໃຫ້ເກີດສິ່ງທ້າທາຍທີ່ຫຍຸ້ງຍາກຄືກັບສິ່ງທີ່ຜູ້ສ້າງນະໂຍບາຍໄດ້ປະເຊີນຫນ້າ. ມັນແມ່ນສິ່ງທີ່ນັກທິດສະດີ Horst Rittel ແລະ Melvin Webber ເອີ້ນວ່າ “ບັນຫາທີ່ຊົ່ວຮ້າຍ,” ຫນຶ່ງທີ່ພັດທະນາຢ່າງຕໍ່ເນື່ອງໂດຍບໍ່ມີສູດສຸດທ້າຍສໍາລັບການແກ້ໄຂ. MAIM, ເສີມດ້ວຍການ nonproliferation ທີ່ເຂັ້ມແຂງແລະການລົງທຶນໃຫມ່ໃນອຸດສາຫະກໍາອາເມລິກາ, ສະເຫນີຍຸດທະສາດທີ່ອີງໃສ່ບົດຮຽນຂອງການແຂ່ງຂັນອາວຸດໃນອະດີດ. ບໍ່ມີການແກ້ໄຂທາງດ້ານເຕັກນິກຢ່າງດຽວທີ່ສາມາດຄວບຄຸມກໍາລັງເຫຼົ່ານີ້ໄດ້, ແຕ່ການຈັດຕໍາແຫນ່ງທີ່ຖືກຕ້ອງຂອງການກີດກັນ, nonproliferation, ແລະມາດຕະການດ້ານການແຂ່ງຂັນສາມາດຊ່ວຍໃຫ້ສະຫະລັດນໍາທາງຄວາມເປັນຈິງທາງດ້ານພູມສາດການເມືອງທີ່ພົ້ນເດັ່ນຂື້ນຂອງ superintelligence.