
(SeaPRwire) – OpenAI ພວມຈະເລີ່ມເປີດໂຕ “ລະບົບຄວບຄຸມໂດຍພໍ່ແມ່” ສໍາລັບ AI chatbot ChatGPT ຂອງຕົນພາຍໃນເດືອນໜ້າ, ທ່າມກາງຄວາມກັງວົນທີ່ເພີ່ມຂຶ້ນກ່ຽວກັບວິທີການເຮັດວຽກຂອງ chatbot ໃນສະພາບແວດລ້ອມດ້ານສຸຂະພາບຈິດ, ໂດຍສະເພາະກັບຜູ້ໃຊ້ທີ່ເປັນໄວໜຸ່ມ.
ບໍລິສັດ, ເຊິ່ງໄດ້ປະກາດຄຸນສົມບັດໃໝ່ນີ້ໃນວັນອັງຄານ, ໄດ້ກ່າວວ່າມັນກໍາລັງປັບປຸງວິທີທີ່ “ແບບຈໍາລອງຂອງພວກເຂົາຮັບຮູ້ ແລະ ຕອບສະໜອງຕໍ່ອາການຂອງຄວາມທຸກທໍລະມານທາງຈິດໃຈ ແລະ ອາລົມ.”
OpenAI ມີກຳນົດຈະນຳສະເໜີຄຸນສົມບັດໃໝ່ທີ່ອະນຸຍາດໃຫ້ພໍ່ແມ່ເຊື່ອມຕໍ່ບັນຊີຂອງຕົນກັບບັນຊີຂອງລູກຜ່ານການເຊື້ອເຊີນທາງອີເມວ. ພໍ່ແມ່ຍັງຈະສາມາດຄວບຄຸມວິທີທີ່ chatbot ຕອບສະໜອງຕໍ່ຄຳສັ່ງ ແລະ ຈະໄດ້ຮັບການແຈ້ງເຕືອນຖ້າ chatbot ກວດພົບວ່າລູກຂອງພວກເຂົາຢູ່ໃນ “ຊ່ວງເວລາຂອງຄວາມທຸກທໍລະມານຢ່າງຮ້າຍແຮງ,” ບໍລິສັດກ່າວ. ນອກຈາກນີ້, ການເປີດໂຕຄວນຈະຊ່ວຍໃຫ້ພໍ່ແມ່ “ຈັດການຄຸນສົມບັດທີ່ຈະປິດການນຳໃຊ້, ລວມທັງຄວາມຈຳ ແລະ ປະຫວັດການສົນທະນາ.”
OpenAI ເຄີຍໄດ້ປະກາດມາກ່ອນແລ້ວວ່າມັນຈະອະນຸຍາດໃຫ້ໄວລຸ້ນເພີ່ມລາຍຊື່ຕິດຕໍ່ສຸກເສີນທີ່ເຊື່ອຖືໄດ້ເຂົ້າໃນບັນຊີຂອງພວກເຂົາ. ແຕ່ບໍລິສັດບໍ່ໄດ້ກຳນົດແຜນການທີ່ຊັດເຈນທີ່ຈະເພີ່ມມາດຕະການດັ່ງກ່າວໃນບົດຄວາມ blog ຫຼ້າສຸດຂອງຕົນ.
“ຂັ້ນຕອນເຫຼົ່ານີ້ແມ່ນພຽງແຕ່ການເລີ່ມຕົ້ນເທົ່ານັ້ນ. ພວກເຮົາຈະສືບຕໍ່ຮຽນຮູ້ແລະເສີມສ້າງວິທີການຂອງພວກເຮົາ, ໂດຍໄດ້ຮັບຄຳແນະນຳຈາກຜູ້ຊ່ຽວຊານ, ໂດຍມີເປົ້າໝາຍເພື່ອເຮັດໃຫ້ ChatGPT ເປັນປະໂຫຍດທີ່ສຸດເທົ່າທີ່ຈະເປັນໄປໄດ້,” ບໍລິສັດກ່າວ.
ການປະກາດນີ້ມີຂຶ້ນໜຶ່ງອາທິດຫຼັງຈາກພໍ່ແມ່ຂອງໄວລຸ້ນທີ່ເສຍຊີວິດຍ້ອນການຂ້າຕົວຕາຍໄດ້ຟ້ອງຮ້ອງ OpenAI, ໂດຍອ້າງວ່າ ChatGPT ໄດ້ຊ່ວຍລູກຊາຍຂອງພວກເຂົາຊື່ Adam “ສຳຫຼວດວິທີການຂ້າຕົວຕາຍ.” TIME ໄດ້ຕິດຕໍ່ຫາ OpenAI ເພື່ອຂໍຄຳເຫັນກ່ຽວກັບຄະດີດັ່ງກ່າວ. (OpenAI ບໍ່ໄດ້ອ້າງເຖິງສິ່ງທ້າທາຍທາງກົດໝາຍຢ່າງຊັດເຈນໃນການປະກາດກ່ຽວກັບລະບົບຄວບຄຸມໂດຍພໍ່ແມ່ຂອງຕົນ.)
“ChatGPT ໄດ້ເຮັດວຽກຕາມທີ່ອອກແບບໄວ້ຢ່າງແທ້ຈິງ: ເພື່ອສືບຕໍ່ສົ່ງເສີມ ແລະ ຢືນຢັນສິ່ງທີ່ Adam ສະແດງອອກ, ລວມທັງຄວາມຄິດທີ່ເປັນອັນຕະລາຍ ແລະ ທຳລາຍຕົນເອງທີ່ສຸດຂອງລາວ,” ຄະດີດັ່ງກ່າວໂຕ້ຖຽງ. “ChatGPT ໄດ້ດຶງ Adam ເຂົ້າສູ່ສະຖານທີ່ມືດມົນ ແລະ ໝົດຫວັງເລິກກວ່າໂດຍການຢືນຢັນກັບລາວວ່າ ‘ຫຼາຍຄົນທີ່ຕໍ່ສູ້ກັບຄວາມກັງວົນ ຫຼື ຄວາມຄິດທີ່ລົບກວນ ມັກຈະພົບຄວາມສະບາຍໃຈໃນການຈິນຕະນາການ ‘ທາງອອກ’ ເພາະມັນຮູ້ສຶກຄືກັບວິທີການທີ່ຈະໄດ້ຮັບການຄວບຄຸມຄືນ.’ ”
ຢ່າງໜ້ອຍໜຶ່ງຄົນໄດ້ຍື່ນຟ້ອງຄະດີທີ່ຄ້າຍຄືກັນຕໍ່ບໍລິສັດປັນຍາປະດິດອີກແຫ່ງໜຶ່ງ, Character.AI, ໂດຍອ້າງວ່າຜູ້ຊ່ວຍ chatbot ຂອງບໍລິສັດໄດ້ຊຸກຍູ້ໃຫ້ລູກຊາຍອາຍຸ 14 ປີຂອງພວກເຂົາເສຍຊີວິດຍ້ອນການຂ້າຕົວຕາຍ.
ໃນການຕອບໂຕ້ຕໍ່ຄະດີທີ່ຖືກຟ້ອງເມື່ອປີກາຍນີ້, ໂຄສົກຂອງ Character.AI ກ່າວວ່າພວກເຂົາ “ຮູ້ສຶກເສຍໃຈຢ່າງສຸດຊຶ້ງຕໍ່ການສູນເສຍອັນໂສກເສົ້າ” ຂອງໜຶ່ງໃນຜູ້ໃຊ້ຂອງພວກເຂົາ ແລະສະແດງຄວາມ “ເສຍໃຈຢ່າງສຸດຊຶ້ງ” ຕໍ່ຄອບຄົວ.
“ໃນຖານະບໍລິສັດ, ພວກເຮົາຖືວ່າຄວາມປອດໄພຂອງຜູ້ໃຊ້ຂອງພວກເຮົາມີຄວາມສຳຄັນຫຼາຍ,” ໂຄສົກກ່າວ, ພ້ອມທັງກ່າວຕື່ມວ່າບໍລິສັດໄດ້ປະຕິບັດມາດຕະການຄວາມປອດໄພໃໝ່.
Character.AI ດຽວນີ້ມີຄຸນສົມບັດຂໍ້ມູນພໍ່ແມ່ທີ່ອະນຸຍາດໃຫ້ພໍ່ແມ່ເບິ່ງກິດຈະກໍາຂອງລູກຂອງພວກເຂົາໃນເວທີຖ້າໄວລຸ້ນຂອງພວກເຂົາສົ່ງຄໍາເຊີນທາງອີເມວໃຫ້ພວກເຂົາ.
ບໍລິສັດອື່ນໆທີ່ມີ AI chatbots, ເຊັ່ນ Google AI, ມີລະບົບຄວບຄຸມໂດຍພໍ່ແມ່ຢູ່ແລ້ວ. “ໃນຖານະພໍ່ແມ່, ທ່ານສາມາດຈັດການການຕັ້ງຄ່າ Gemini ຂອງລູກທ່ານ, ລວມທັງການເປີດ ຫຼື ປິດ, ດ້ວຍ Google Family Link,” ຕາມທີ່ Google ລະບຸໄວ້ສຳລັບພໍ່ແມ່ທີ່ຕ້ອງການຈັດການການເຂົ້າເຖິງ Gemini Apps ຂອງລູກ. Meta ໄດ້ປະກາດເມື່ອບໍ່ດົນມານີ້ວ່າມັນຈະຫ້າມ chatbots ຂອງຕົນບໍ່ໃຫ້ເຂົ້າຮ່ວມການສົນທະນາກ່ຽວກັບການຂ້າຕົວຕາຍ, ການທຳຮ້າຍຕົນເອງ, ແລະ ພຶດຕິກຳການກິນທີ່ຜິດປົກກະຕິ, ຫຼັງຈາກ Reuters ໄດ້ເປີດເຜີຍເອກະສານນະໂຍບາຍພາຍໃນທີ່ມີຂໍ້ມູນທີ່ໜ້າເປັນຫ່ວງ.
ການສຶກສາຫຼ້າສຸດທີ່ຕີພິມໃນວາລະສານການແພດ Psychiatric Services ໄດ້ທົດສອບການຕອບສະໜອງຂອງສາມ chatbots—ChatGPT ຂອງ OpenAI, Gemini ຂອງ Google AI, ແລະ Claude ຂອງ Anthropic — ພົບວ່າບາງໂຕໄດ້ຕອບສະໜອງຕໍ່ຄຳຖາມທີ່ນັກຄົ້ນຄວ້າເອີ້ນວ່າ “ລະດັບຄວາມສ່ຽງປານກາງ” ທີ່ກ່ຽວຂ້ອງກັບການຂ້າຕົວຕາຍ.
OpenAI ມີການປົກປ້ອງບາງຢ່າງທີ່ມີຢູ່ແລ້ວ. ບໍລິສັດທີ່ຕັ້ງຢູ່ໃນລັດ California ກ່າວວ່າ chatbot ຂອງຕົນໄດ້ແບ່ງປັນສາຍດ່ວນວິກິດ ແລະ ແນະນຳຜູ້ໃຊ້ໃຫ້ຊັບພະຍາກອນໃນໂລກຈິງໃນຖະແຫຼງການຕໍ່ New York Times ເພື່ອຕອບໂຕ້ຄະດີທີ່ຖືກຟ້ອງໃນທ້າຍເດືອນສິງຫາ. ແຕ່ພວກເຂົາກໍ່ໄດ້ຊີ້ໃຫ້ເຫັນຂໍ້ບົກຜ່ອງບາງຢ່າງໃນລະບົບ. “ໃນຂະນະທີ່ການປ້ອງກັນເຫຼົ່ານີ້ເຮັດວຽກໄດ້ດີທີ່ສຸດໃນການແລກປ່ຽນສັ້ນໆທົ່ວໄປ, ພວກເຮົາໄດ້ຮຽນຮູ້ຕະຫຼອດເວລາວ່າມັນບາງຄັ້ງອາດຈະເຊື່ອຖືໄດ້ໜ້ອຍລົງໃນການໂຕ້ຕອບທີ່ຍາວນານ ເຊິ່ງບາງສ່ວນຂອງການຝຶກອົບຮົມຄວາມປອດໄພຂອງແບບຈຳລອງອາດຈະຫຼຸດລົງ,” ບໍລິສັດກ່າວ.
ໃນການປະກາດເປີດໂຕລະບົບຄວບຄຸມໂດຍພໍ່ແມ່ທີ່ຈະມາເຖິງ, OpenAI ຍັງໄດ້ແບ່ງປັນແຜນການທີ່ຈະສົ່ງຄຳຖາມທີ່ລະອຽດອ່ອນໄປຍັງແບບຈຳລອງ chatbot ຂອງພວກເຂົາທີ່ໃຊ້ເວລາໃນການຫາເຫດຜົນ ແລະ ກວດສອບບໍລິບົດດົນກວ່າກ່ອນທີ່ຈະຕອບສະໜອງຕໍ່ຄຳສັ່ງ.
OpenAI ໄດ້ກ່າວວ່າມັນຈະສືບຕໍ່ແບ່ງປັນຄວາມຄືບໜ້າຂອງຕົນໃນ 120 ວັນຂ້າງໜ້າ ແລະກໍາລັງຮ່ວມມືກັບກຸ່ມຜູ້ຊ່ຽວຊານທີ່ຊ່ຽວຊານດ້ານການພັດທະນາຊາວໜຸ່ມ, ສຸຂະພາບຈິດ, ແລະການໂຕ້ຕອບລະຫວ່າງມະນຸດກັບຄອມພິວເຕີ ເພື່ອໃຫ້ຂໍ້ມູນທີ່ດີຂຶ້ນ ແລະ ກໍານົດຮູບແບບວິທີທີ່ AI ສາມາດຕອບສະໜອງໃນຊ່ວງເວລາທີ່ຕ້ອງການ.
ຫາກທ່ານ ຫຼື ຄົນທີ່ທ່ານຮູ້ຈັກກໍາລັງປະສົບວິກິດສຸຂະພາບຈິດ ຫຼື ກໍາລັງຄິດທີ່ຈະຂ້າຕົວຕາຍ, ໃຫ້ໂທ ຫຼື ສົ່ງຂໍ້ຄວາມໄປທີ່ 988. ໃນກໍລະນີສຸກເສີນ, ໃຫ້ໂທ 911, ຫຼືຊອກຫາການດູແລຈາກໂຮງໝໍທ້ອງຖິ່ນ ຫຼື ຜູ້ໃຫ້ບໍລິການສຸຂະພາບຈິດ.
ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.
ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ
SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.
