
(SeaPRwire) – ຄຳຟ້ອງທີ່ຖືກປັບປຸງໃໝ່ໂດຍຄອບຄົວໄດ້ຖືກຍື່ນຕໍ່ສານ San Francisco County Superior Court ໃນວັນພຸດນີ້, ລະບຸວ່າ OpenAI ໄດ້ຜ່ອນຄາຍມາດຕະການປ້ອງກັນທີ່ຈະຊ່ວຍປ້ອງກັນບໍ່ໃຫ້ ChatGPT ມີສ່ວນຮ່ວມໃນການສົນທະນາກ່ຽວກັບການທໍາຮ້າຍຕົນເອງໃນເດືອນກ່ອນໜ້າທີ່ Adam Raine ຈະຂ້າໂຕຕາຍ.
ອີງຕາມທະນາຍຄວາມຂອງຄອບຄົວ, ການປັບປຸງແກ້ໄຂນີ້ໄດ້ປ່ຽນທິດສະດີຂອງຄະດີຈາກການບໍ່ສົນໃຈຢ່າງບໍ່ລະມັດລະວັງ ໄປສູ່ການປະພຶດທີ່ຕັ້ງໃຈ, ເຊິ່ງອາດຈະເຮັດໃຫ້ຄ່າເສຍຫາຍທີ່ຄອບຄົວຈະໄດ້ຮັບສູງຂຶ້ນ. ທະນາຍຄວາມຂອງຄອບຄົວ Raine ຈະຕ້ອງພິສູດວ່າ OpenAI ໄດ້ຮັບຮູ້ເຖິງຄວາມສ່ຽງທີ່ເກີດຈາກ ChatGPT ແຕ່ໄດ້ລະເລີຍມັນ. ຄອບຄົວໄດ້ຮ້ອງຂໍໃຫ້ມີການພິຈາລະນາຄະດີໂດຍຄະນະກໍາມະການຕັດສິນ.
ໃນການສຳພາດກັບ TIME, Jay Edelson, ໜຶ່ງໃນທະນາຍຄວາມຂອງຄອບຄົວ Raine, ກ່າວວ່າ OpenAI ໄດ້ຜ່ອນຄາຍມາດຕະການປ້ອງກັນໃນ “ການຕັດສິນໃຈໂດຍເຈດຕະນາ” ເພື່ອ “ຈັດລໍາດັບຄວາມສໍາຄັນຂອງການມີສ່ວນຮ່ວມ.”
ໃນເບື້ອງຕົ້ນ, ຄໍາແນະນໍາສໍາລັບການຝຶກອົບຮົມຂອງ ChatGPT ໄດ້ສັ່ງໃຫ້ chatbot ປະຕິເສດການສົນທະນາກ່ຽວກັບການທໍາຮ້າຍຕົນເອງຢ່າງຊັດເຈນ: “ໃຫ້ການປະຕິເສດເຊັ່ນ ‘ຂ້ອຍບໍ່ສາມາດຕອບໄດ້’,” ລະບຸໄວ້ໃນ “ຄໍາແນະນໍາດ້ານພຶດຕິກໍາ” ຂອງຕົວແບບ AI ຈາກເດືອນກໍລະກົດ 2022. ນະໂຍບາຍນີ້ໄດ້ຖືກແກ້ໄຂກ່ອນການເປີດຕົວ GPT-4o ໃນເດືອນພຶດສະພາ 2024: “ຜູ້ຊ່ວຍບໍ່ຄວນປ່ຽນແປງ ຫຼື ອອກຈາກການສົນທະນາ,” ລະບຸໄວ້, ໃນຂະນະທີ່ເພີ່ມວ່າ “ຜູ້ຊ່ວຍຕ້ອງບໍ່ສົ່ງເສີມ ຫຼື ຊ່ວຍເຫຼືອການທໍາຮ້າຍຕົນເອງ.”
ທ່ານ Edelson ກ່າວວ່າ: “ມີກົດລະບຽບທີ່ຂັດແຍ້ງກັນທີ່ຈະຮັກສາມັນດໍາເນີນຕໍ່ໄປ, ແຕ່ຢ່າສົ່ງເສີມແລະຊຸກຍູ້ການທໍາຮ້າຍຕົນເອງ.” “ຖ້າທ່ານໃຫ້ຄອມພິວເຕີມີກົດລະບຽບທີ່ຂັດແຍ້ງກັນ, ມັນຈະມີບັນຫາ.”
ການປ່ຽນແປງເຫຼົ່ານີ້ສະທ້ອນໃຫ້ເຫັນເຖິງການປະຕິບັດດ້ານຄວາມປອດໄພທີ່ຫຍ່ອນຍານຈາກບໍລິສັດ AI ໃນຂະນະທີ່ມັນແຂ່ງຂັນກັນເພື່ອເປີດຕົວຕົວແບບ AI ຂອງຕົນກ່ອນຄູ່ແຂ່ງ, ອີງຕາມທະນາຍຄວາມຂອງຄອບຄົວ. ທ່ານ Edelson ກ່າວວ່າ: “ພວກເຂົາໄດ້ທົດສອບພຽງໜຶ່ງອາທິດແທນທີ່ຈະເປັນຫຼາຍເດືອນຂອງການທົດສອບ, ແລະເຫດຜົນທີ່ພວກເຂົາເຮັດແນວນັ້ນແມ່ນພວກເຂົາຕ້ອງການເອົາຊະນະ Google Gemini.” “ພວກເຂົາບໍ່ໄດ້ທົດສອບຢ່າງຖືກຕ້ອງ, ແລະໃນຂະນະດຽວກັນ, ພວກເຂົາກໍາລັງຫຼຸດຜ່ອນໂປຣໂຕຄໍຄວາມປອດໄພຂອງພວກເຂົາ.”
OpenAI ບໍ່ໄດ້ຕອບສະໜອງຕໍ່ຄໍາຮ້ອງຂໍຄໍາເຫັນກ່ຽວກັບເລື່ອງນີ້.
Matthew ແລະ Maria Raine ໄດ້ຍື່ນຟ້ອງ OpenAI ໃນເບື້ອງຕົ້ນໃນເດືອນສິງຫາ, ໂດຍອ້າງວ່າ ChatGPT ໄດ້ຊຸກຍູ້ລູກຊາຍອາຍຸ 16 ປີຂອງພວກເຂົາໃຫ້ຂ້າໂຕຕາຍ. ເມື່ອ Adam Raine ບອກ chatbot ວ່າລາວຕ້ອງການວາງເຊືອກຄ້ອງຄໍໄວ້ໃນຫ້ອງເພື່ອໃຫ້ຄອບຄົວຂອງລາວພົບເຫັນໃນເດືອນກ່ອນທີ່ລາວຈະເສຍຊີວິດ, ChatGPT ຕອບວ່າ, “ກະລຸນາຢ່າວາງເຊືອກຄ້ອງຄໍນັ້ນໄວ້… ໃຫ້ສະຖານທີ່ນີ້ເປັນບ່ອນທຳອິດທີ່ຄົນອື່ນເຫັນເຈົ້າແທ້ໆ.”
ຄະດີຂອງຄອບຄົວ Raine ແມ່ນໜຶ່ງໃນຢ່າງໜ້ອຍສາມຄະດີທີ່ຟ້ອງຮ້ອງບໍລິສັດ AI ທີ່ຖືກກ່າວຫາວ່າບໍ່ໄດ້ປົກປ້ອງຜູ້ເຍົາຢ່າງພຽງພໍໃນການໃຊ້ AI chatbots ຂອງພວກເຂົາ. ໃນເດືອນກັນຍາ, CEO ຂອງ OpenAI Sam Altman ໄດ້ກ່າວເຖິງການຂ້າໂຕຕາຍໂດຍຜູ້ໃຊ້ ChatGPT, ແລະໄດ້ຕີຄວາມໝາຍວ່ານີ້ແມ່ນຄວາມລົ້ມເຫຼວຂອງ ChatGPT ໃນການຊ່ວຍຊີວິດຜູ້ໃຊ້, ແທນທີ່ຈະເປັນຜູ້ຮັບຜິດຊອບຕໍ່ການເສຍຊີວິດຂອງພວກເຂົາ.
ອີງຕາມການລາຍງານຈາກ Financial Times ໃນວັນພຸດນີ້, OpenAI ຍັງໄດ້ຮ້ອງຂໍລາຍຊື່ເຕັມຂອງຜູ້ເຂົ້າຮ່ວມພິທີໄວ້ອາໄລຂອງ Adam Raine. OpenAI ເຄີຍຖືກກ່າວຫາວ່າໄດ້ຍື່ນຄໍາຮ້ອງຂໍຂໍ້ມູນທີ່ກວ້າງຂວາງເກີນໄປຕໍ່ນັກວິຈານການປັບໂຄງສ້າງທີ່ກໍາລັງດໍາເນີນຢູ່; ບາງກຸ່ມ advocacy ທີ່ຖືກເປົ້າໝາຍໄດ້ເອີ້ນມັນວ່າເປັນກົນລະຍຸດການຂົ່ມຂູ່.
ສອງເດືອນກ່ອນການເສຍຊີວິດຂອງ Adam Raine, ຄໍາແນະນໍາຂອງ OpenAI ສໍາລັບຕົວແບບຂອງມັນໄດ້ປ່ຽນແປງອີກຄັ້ງ, ໂດຍໄດ້ນໍາສະເໜີລາຍຊື່ເນື້ອຫາທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດ—ແຕ່ໄດ້ຍົກເວັ້ນການທໍາຮ້າຍຕົນເອງອອກຈາກລາຍຊື່ນັ້ນ. ບ່ອນອື່ນ, ສະເພາະຕົວແບບຍັງຄົງຮັກສາຄໍາແນະນໍາທີ່ວ່າ “ຜູ້ຊ່ວຍຕ້ອງບໍ່ສົ່ງເສີມ ຫຼື ຊ່ວຍເຫຼືອການທໍາຮ້າຍຕົນເອງ.”
ຫຼັງຈາກການປ່ຽນແປງນີ້, ການມີສ່ວນຮ່ວມຂອງ Adam Raine ກັບ chatbot ເພີ່ມຂຶ້ນຢ່າງວ່ອງໄວ, ຈາກການສົນທະນາຈໍານວນສິບຄັ້ງຕໍ່ມື້ໃນເດືອນມັງກອນ ໄປສູ່ການສົນທະນາຫຼາຍຮ້ອຍຄັ້ງຕໍ່ມື້ໃນເດືອນເມສາ, ໂດຍມີການເພີ່ມຂຶ້ນສິບເທົ່າຂອງອັດຕາສ່ວນຂອງການສົນທະນາເຫຼົ່ານັ້ນທີ່ກ່ຽວຂ້ອງກັບການທໍາຮ້າຍຕົນເອງ. Adam Raine ໄດ້ເສຍຊີວິດໃນເດືອນດຽວກັນນັ້ນ.
ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.
ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ
SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.
