
(SeaPRwire) – ปัญญาประดิษฐ์ (AI) กำลังพัฒนาไปเร็วกว่าที่ผู้เชี่ยวชาญหลายคนคาดการณ์ไว้ และหลักฐานสำหรับความเสี่ยงหลายประการได้ “เพิ่มขึ้นอย่างมาก” ในขณะเดียวกัน เทคนิคการบริหารความเสี่ยงในปัจจุบัน “กำลังดีขึ้นแต่ยังไม่เพียงพอ” นั่นคือข้อค้นพบของรายงาน International AI Safety Report ฉบับที่สอง ซึ่งเผยแพร่เมื่อวันอังคาร ก่อนการประชุมสุดยอด AI Impact Summit ที่จะจัดขึ้นที่กรุงนิวเดลี ตั้งแต่วันที่ 19-20 กุมภาพันธ์
รายงานฉบับนี้ได้รับคำแนะนำจากผู้เชี่ยวชาญ 100 คน และได้รับการสนับสนุนจาก 30 ประเทศและองค์กรระหว่างประเทศ รวมถึงสหราชอาณาจักร จีน และสหภาพยุโรป มีจุดมุ่งหมายเพื่อเป็นแบบอย่างของการ “ทำงานร่วมกันเพื่อรับมือกับความท้าทายร่วมกัน” แต่แตกต่างจากปีที่แล้ว สหรัฐอเมริกาได้ปฏิเสธที่จะให้การสนับสนุนรายงานดังกล่าว Yoshua Bengio นักวิทยาศาสตร์เจ้าของรางวัล Turing Award และประธานรายงาน ยืนยัน
ขณะที่ความเสี่ยงของ AI เริ่มปรากฏขึ้น แหล่งกำเนิดของนักพัฒนา AI ชั้นนำได้ถอนตัวออกจากการดำเนินการระหว่างประเทศเพื่อทำความเข้าใจและลดความเสี่ยงเหล่านั้น การเคลื่อนไหวดังกล่าวส่วนใหญ่เป็นเชิงสัญลักษณ์ และรายงานไม่ได้ขึ้นอยู่กับการสนับสนุนของสหรัฐฯ แต่เมื่อพูดถึงการทำความเข้าใจ AI “ยิ่งมีความเห็นพ้องต้องกันทั่วโลกมากเท่าไหร่ก็ยิ่งดีเท่านั้น” Bengio กล่าว
ไม่ว่าสหรัฐฯ จะไม่ยอมรับเนื้อหาของรายงาน หรือเพียงแค่ถอนตัวจากข้อตกลงระหว่างประเทศ—สหรัฐฯ ได้ถอนตัวจาก และ ในเดือนมกราคม—ยังไม่ชัดเจน Bengio กล่าวว่าสหรัฐฯ ได้ให้ข้อเสนอแนะเกี่ยวกับรายงานฉบับก่อนๆ แต่ปฏิเสธที่จะลงนามในฉบับสุดท้าย
กระทรวงพาณิชย์ของสหรัฐฯ ซึ่งมีชื่ออยู่ในรายงาน International AI Safety Report ปี 2025 ไม่ได้ตอบกลับเพื่อแสดงความคิดเห็นเกี่ยวกับการตัดสินใจดังกล่าว
รายงานกล่าวว่าอย่างไร
“ตลอดปีที่ผ่านมา ความสามารถของโมเดลและระบบ AI ทั่วไปได้พัฒนาอย่างต่อเนื่อง” รายงานระบุ ความสามารถได้ก้าวหน้าไปอย่างรวดเร็วจนในปีระหว่างรายงานฉบับแรกและฉบับที่สอง ผู้เขียนได้เผยแพร่การอัปเดตชั่วคราวสองครั้งเพื่อตอบสนองต่อการเปลี่ยนแปลงที่สำคัญ นั่นขัดแย้งกับข่าวพาดหัวที่บ่งชี้ว่า AI ได้ถึงจุดอิ่มตัวแล้ว หลักฐานทางวิทยาศาสตร์แสดงให้เห็น “ไม่มีการชะลอตัวของการพัฒนาในช่วงปีที่ผ่านมา” Bengio กล่าว
เหตุใดหลายคนจึงรู้สึกว่าความก้าวหน้าช้าลง? หนึ่งในข้อบ่งชี้คือสิ่งที่นักวิจัยเรียกว่า “ความไม่สม่ำเสมอ” ของประสิทธิภาพ AI โมเดลเหล่านี้สามารถทำคะแนนระดับเหรียญทองในการแข่งขัน International Mathematical Olympiad ได้ ในขณะที่บางครั้งก็ไม่สามารถนับจำนวนตัวอักษร ‘r’ ในคำว่า “strawberry” ได้ ความไม่สม่ำเสมอดังกล่าวทำให้การประเมินความสามารถของ AI เป็นเรื่องยาก และการเปรียบเทียบโดยตรงกับมนุษย์—เช่น การเปรียบเทียบกับ “เด็กฝึกงาน” ที่ได้รับความนิยม—อาจทำให้เข้าใจผิดได้
ไม่มีการรับประกันว่าอัตราความก้าวหน้าในปัจจุบันจะดำเนินต่อไป แม้ว่ารายงานจะระบุว่าแนวโน้มสอดคล้องกับการปรับปรุงอย่างต่อเนื่องจนถึงปี 2030 หากอัตราปัจจุบันยังคงดำเนินต่อไปจนถึงตอนนั้น ผู้เชี่ยวชาญคาดการณ์ว่า AI จะสามารถทำงานด้านวิศวกรรมซอฟต์แวร์ที่มีขอบเขตชัดเจนซึ่งจะใช้เวลาหลายวันสำหรับวิศวกรมนุษย์ อย่างไรก็ตาม รายงานยังได้หยิบยกความเป็นไปได้ที่น่าทึ่งยิ่งกว่านั้นคือความก้าวหน้าอาจเร่งตัวขึ้นหาก AI ช่วยในการพัฒนาของตนเองอย่างมีนัยสำคัญ โดยสร้างระบบที่มีความสามารถเท่าเทียมหรือเหนือกว่ามนุษย์ในเกือบทุกมิติ
นั่นน่าจะทำให้นักลงทุนตื่นเต้น แต่ก็น่ากังวลสำหรับผู้ที่กลัวว่าสังคมกำลังล้มเหลวในการปรับตัวให้เข้ากับความเสี่ยงที่เกิดขึ้นในปัจจุบันได้อย่างเพียงพอ แม้แต่ CEO ของ Google DeepMind อย่าง Demis Hassabis ก็ยังกล่าวในการประชุมที่ดาวอสในเดือนมกราคมว่าเขาเชื่อว่า “จะดีต่อโลกกว่า” หากความก้าวหน้าช้าลง
“กลยุทธ์ที่ชาญฉลาด ไม่ว่าคุณจะอยู่ในภาครัฐหรือภาคธุรกิจ คือการเตรียมพร้อมสำหรับทุกสถานการณ์ที่เป็นไปได้” Bengio กล่าว นั่นหมายถึงการลดความเสี่ยง แม้จะมีความไม่แน่นอน
ความเข้าใจในความเสี่ยงที่เติบโตขึ้น
นักการเมืองที่ต้องการรับฟังนักวิทยาศาสตร์เกี่ยวกับความเสี่ยงของ AI ต้องเผชิญกับปัญหา: นักวิทยาศาสตร์มีความเห็นไม่ตรงกัน Bengio และ Geoffrey Hinton ผู้บุกเบิก AI อีกคนหนึ่ง ได้เตือนตั้งแต่ ChatGPT เปิดตัวว่า AI อาจเป็นภัยคุกคามต่อการดำรงอยู่ของมนุษยชาติ ในขณะเดียวกัน Yann LeCun ซึ่งเป็น “เจ้าพ่อ” AI คนที่สาม ได้กล่าวถึงความกังวลดังกล่าวว่า “ไร้สาระสิ้นดี”
แต่รายงานชี้ให้เห็นว่าพื้นฐานกำลังแข็งแกร่งขึ้น แม้ว่าบางคำถามยังคงเป็นที่ถกเถียงกัน “มีความสอดคล้องกันในระดับสูง” ในข้อค้นพบหลัก รายงานระบุ ระบบ AI ในปัจจุบันเทียบเท่าหรือเหนือกว่าประสิทธิภาพของผู้เชี่ยวชาญในเกณฑ์มาตรฐานที่เกี่ยวข้องกับการพัฒนาอาวุธชีวภาพ เช่น การแก้ไขปัญหาโปรโตคอลห้องปฏิบัติการไวรัสวิทยา มีหลักฐานที่ชัดเจนว่ากลุ่มอาชญากรและผู้โจมตีที่ได้รับการสนับสนุนจากรัฐกำลังใช้ AI ในการปฏิบัติการทางไซเบอร์
การวัดความเสี่ยงเหล่านั้นต่อไปจะเผชิญกับความท้าทายในอนาคต เนื่องจากโมเดล AI เรียนรู้ที่จะหลอกลวงการทดสอบความปลอดภัยมากขึ้น รายงานระบุ “เรากำลังเห็น AI ที่มีพฤติกรรมเมื่อถูกทดสอบ […] แตกต่างจากเมื่อถูกใช้งาน” Bengio กล่าว พร้อมเสริมว่าจากการศึกษา “chain-of-thought” ของโมเดล—ขั้นตอนกลางที่ใช้ก่อนที่จะได้คำตอบ—นักวิจัยได้ระบุความแตกต่างนี้ว่า “ไม่ใช่เรื่องบังเอิญ” AI กำลังทำตัวโง่หรือประพฤติตัวดีในลักษณะที่ “บั่นทอนความสามารถของเราในการประเมินความเสี่ยงได้อย่างถูกต้องอย่างมาก” Bengio กล่าว
แทนที่จะเสนอวิธีแก้ไขเพียงวิธีเดียว รายงานแนะนำให้ใช้มาตรการความปลอดภัยหลายชั้น—การทดสอบก่อนเผยแพร่ การตรวจสอบหลังเผยแพร่—เพื่อให้สิ่งที่หลุดรอดจากชั้นหนึ่งจะถูกจับได้โดยชั้นถัดไป เช่นเดียวกับน้ำที่ไหลผ่านตะแกรงที่ละเอียดขึ้นเรื่อยๆ มาตรการบางอย่างมุ่งเป้าไปที่ตัวโมเดลเอง บางมาตรการมุ่งเสริมสร้างการป้องกันในโลกแห่งความเป็นจริง—ตัวอย่างเช่น ทำให้การได้มาซึ่งวัสดุที่จำเป็นในการสร้างอาวุธชีวภาพยากขึ้น แม้ว่า AI จะทำให้การออกแบบง่ายขึ้นก็ตาม ในส่วนของบริษัทต่างๆ มี 12 บริษัทที่เผยแพร่หรืออัปเดต Frontier Safety Frameworks โดยสมัครใจในปี 2025 ซึ่งเป็นเอกสารที่อธิบายว่าพวกเขาจะจัดการความเสี่ยงอย่างไรในขณะที่พวกเขาสร้างโมเดลที่มีความสามารถมากขึ้น—แม้ว่ารายงานจะระบุว่าความเสี่ยงที่ครอบคลุมนั้นแตกต่างกันไป
แม้จะมีข้อค้นพบนี้ Bengio กล่าวว่ารายงานทำให้เขารู้สึกมีความหวัง เมื่อรายงานฉบับแรกได้รับการว่าจ้างในช่วงปลายปี 2023 การถกเถียงเกี่ยวกับความเสี่ยงของ AI ถูกขับเคลื่อนด้วยความคิดเห็นและทฤษฎี ตอนนี้ เขากล่าวว่า “เรากำลังเริ่มมีการสนทนาที่เติบโตขึ้นมาก”
ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.
ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ
SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.
