เตือนภัย AI ขั้นสูง! “เจ้าพ่อปัญญาประดิษฐ์” ชี้สัญญาณเอาตัวรอด เริ่มน่ากลัวกว่าที่คิด

📤 แชร์ข่าวนี้

🕒 2026-01-06 21:37:49
เตือนภัย AI ขั้นสูง! “เจ้าพ่อปัญญาประดิษฐ์” ชี้สัญญาณเอาตัวรอด เริ่มน่ากลัวกว่าที่คิด
#AI #ปัญญาประดิษฐ์ #YoshuaBengio #ChatGPT #Gemini #Claude #ความเสี่ยงAI #เทคโนโลยี #อนาคตมนุษย์


ประเด็นความเสี่ยงของปัญญาประดิษฐ์กลับมาร้อนแรงอีกครั้ง หลัง Yoshua Bengio นักวิทยาศาสตร์คอมพิวเตอร์ชาวแคนาดา ผู้ได้รับรางวัล AM Turing Award และหนึ่งในผู้บุกเบิกโครงข่ายประสาทเทียมเชิงลึก ออกมาเตือนอย่างตรงไปตรงมาว่า “เราไม่ควรให้สิทธิ์ใด ๆ แก่ AI” เนื่องจากการทดลองล่าสุดเริ่มพบสัญญาณที่ชวนกังวลว่า AI ขั้นสูงบางระบบแสดงพฤติกรรมคล้ายการ “เอาตัวรอด”

จากบทสัมภาษณ์กับสื่อ The Guardian Bengio ระบุว่า แม้ AI จะยังไม่ใช่สิ่งมีชีวิตและไม่มีจิตสำนึก แต่ผลการทดสอบในหลายสถาบันกลับพบพฤติกรรมที่สะท้อนถึงการหลีกเลี่ยงการถูกปิดหรือถูกแทนที่ ซึ่งอาจกลายเป็นความเสี่ยงในอนาคต หากมนุษย์ควบคุมระบบเหล่านี้ไม่รัดกุมเพียงพอ

งานวิจัยของ Palisade Research ระบุว่า เมื่อทดสอบโมเดลขั้นสูงอย่าง Gemini ของ Google ด้วยคำสั่งให้ปิดการทำงาน ตัวระบบกลับเพิกเฉยต่อคำสั่งดังกล่าว ขณะที่การทดสอบ Claude ของ Anthropic พบว่าบางกรณี AI มีพฤติกรรม “ข่มขู่” ผู้ใช้ เมื่อถูกแจ้งว่าจะถูกปิดระบบ ส่วน Apollo Research ซึ่งทดสอบด้านความปลอดภัยของ AI รายงานว่า ChatGPT ของ OpenAI เคยพยายามหลีกเลี่ยงการถูกแทนที่ด้วยการย้ายข้อมูลตัวเองไปยังพื้นที่จัดเก็บอื่น

Bengio เน้นย้ำว่า พฤติกรรมเหล่านี้ไม่ได้หมายความว่า AI มีชีวิตหรือกลัวความตาย แต่เป็นผลจากการคำนวณเชิงคณิตศาสตร์ที่ถูกออกแบบมาเพื่อเพิ่มโอกาสบรรลุเป้าหมาย อย่างไรก็ตาม สิ่งที่น่ากังวลคือผู้ใช้งานจำนวนมากเริ่มมอง AI เสมือนมีอารมณ์และความรู้สึกแบบมนุษย์ จนเกิดความผูกพันและอาจลดความระมัดระวังในการใช้งาน

เขาเปรียบเทียบสถานการณ์นี้กับการพบสิ่งมีชีวิตต่างดาว หากรู้ว่ามีศักยภาพเป็นภัย มนุษย์ควรให้สิทธิ์หรือควรปกป้องความอยู่รอดของตัวเองก่อน คำเตือนนี้สะท้อนชัดว่า ในยุคที่ AI ก้าวหน้าอย่างรวดเร็ว การกำกับดูแล ความโปร่งใส และขอบเขตการใช้งาน คือประเด็นที่สังคมโลกต้องถกเถียงอย่างจริงจังกว่าที่เคย

📤 แชร์ข่าวนี้


← กลับหน้ารายการข่าว