ตอนนี้เริ่มมีการปั่นกระแสในหมู่ผู้นำของบริษัทปัญญาประดิษฐ์ (AI) รายใหญ่ ว่าปัญญาประดิษฐ์ที่ "แข็งแกร่ง" จะแซงหน้ามนุษย์ในเร็วๆ นี้ แต่บรรดานักวิจัยหลายคนในสาขานี้มองว่าคำกล่าวอ้างดังกล่าวเป็นเพียงการการสร้างกระแสทางการตลาด
ความเชื่อที่ว่าปัญญาประดิษฐ์ของมนุษย์หรือปัญญาประดิษฐ์ที่ดีกว่า ซึ่งมักเรียกกันว่า "ปัญญาประดิษฐ์ทั่วไป" (AGI) จะเกิดขึ้นจากเทคนิคการเรียนรู้ของเครื่อง (Machine learning) ในปัจจุบัน ทำให้เกิดสมมติฐานสำหรับอนาคตตั้งแต่ความล้นเกินของจักรกล ไปจนถึงการสูญพันธุ์ของมนุษย์
แซม อัลท์แมน (Sam Altman) ผู้บริหารของ OpenAI เขียนในบล็อกโพสต์เมื่อเดือนที่แล้วว่า "ระบบที่เริ่มมุ่งไปที่ AGI กำลังปรากฏขึ้นในสายตา" ขณะที่ ดาริโอ อาโมเดอี (Dario Amodei) จากบริษัท Anthropic กล่าวว่าเหตุการณ์สำคัญดังกล่าว "อาจเกิดขึ้นเร็วที่สุดในปี 2026"
คำทำนายดังกล่าวช่วยสร้างความชอบธรรมให้กับการใช้เงินหลายแสนล้านดอลลาร์ในฮาร์ดแวร์คอมพิวเตอร์และแหล่งพลังงานที่ใช้ในการขับเคลื่อน AI ไปสู่ AGI
อย่างไรก็ตาม นักวิจัยคนอื่นๆ ยังคงมีความคลางแคลงใจมากกว่า
แยน เลอคุน (Yann LeCun) นักวิทยาศาสตร์ด้านปัญญาประดิษฐ์ระดับหัวหน้าของ บริษัท Meta กล่าวกับสำนักข่าส AFP เมื่อเดือนที่แล้วว่า "เราจะไม่สามารถไปถึงปัญญาประดิษฐ์ในระดับมนุษย์ได้ด้วยการแค่ขยาย LLM" ซึ่ง LLM เป็นโมเดลภาษาขนาดใหญ่ที่อยู่เบื้องหลังระบบปัจจุบัน เช่น ChatGPT หรือ Claude
มุมมองของ แยน เลอคุน ดูเหมือนจะได้รับการสนับสนุนจากนักวิชาการส่วนใหญ่ในสาขานี้
ผู้ตอบแบบสำรวจล่าสุดโดยสมาคมเพื่อความก้าวหน้าในปัญญาประดิษฐ์ หรือ Association for the Advancement of Artificial Intelligence (AAAI) ซึ่งตั้งอยู่ในสหรัฐฯ มากกว่าสามในสี่รายเห็นด้วยว่า "การขยายแนวทางปัจจุบัน" ไม่น่าจะทำให้เกิด AGI ได้
นักวิชาการบางคนเชื่อว่าคำกล่าวอ้างของบริษัทต่างๆ มากมาย ซึ่งบางครั้งผู้บริหารก็มักจะเตือนเกี่ยวกับอันตรายของ AGI ต่อมนุษยชาติ เป็นกลยุทธ์ในการดึงดูดความสนใจต่างหาก
ธุรกิจต่างๆ "ได้ลงทุนครั้งใหญ่แล้ว และต้องได้รับผลตอบแทน" คริสเตียน เคอร์สติง (Kristian Kersting) นักวิจัยชั้นนำจากมหาวิทยาลัยเทคนิคดาร์มสตัดท์ในเยอรมนีและสมาชิกของ AAAI กล่าว
“พวกเขาพูดเพียงว่า ‘นี่มันอันตรายมากจนมีเพียงฉันเท่านั้นที่ควบคุมมันได้ จริงๆ แล้วฉันเองก็กลัว แต่เราปล่อยยักษ์จินนี่ออกจากขวดไปแล้ว ดังนั้นฉันจะเสียสละตัวเองเพื่อคุณ แต่แล้วคุณก็ต้องพึ่งฉัน’”
ความคลางแคลงใจในหมู่นักวิจัยในแวดวงวิชาการนั้นยังไม่หมดสิ้น โดยบุคคลสำคัญอย่างเจฟฟรีย์ ฮินตัน (Geoffrey Hinto) นักฟิสิกส์ผู้ได้รับรางวัลโนเบล หรือโยชัว เบนจิโอ (Yoshua Bengio) ผู้ได้รับรางวัลทัวริงในปี 2018 ได้เตือนเกี่ยวกับอันตรายจากปัญญาประดิษฐ์อันทรงพลัง
“มันคล้ายกับเนื้อเรื่องของ 'The Sorcerer's Apprentice' ของเกอเธ่อยู่นิดหน่อย คุณมีบางอย่างที่จู่ๆ ก็ควบคุมไม่ได้อีกต่อไป” เคอร์สติงกล่าว โดยอ้างถึงบทกวีที่เล่าถึงผู้ที่หวังจะเป็นพ่อมดที่อยากจะมีไม้กวาดวิเศษ แต่กลับต้องสูญเสียการควบคุมไม้กวาดที่เขาเสกให้มันมีชีวิตขึ้นมารับใช้เขา
การทดลองทางความคิดที่คล้ายกันและใหม่กว่าคือ “ตัวขยายคลิปหนีบกระดาษ” (Paperclip Maximiser ซึ่งเป็นสมมติฐานตรรกะเกี่ยวกับปัญญาประดิษฐ์ กล่าวคือ สมมตว่ามีปัญญาประดิษฐ์เชิงทฤษฎีที่มีประโยชน์ใช้สอยซึ่งครอบคลุมถึงสิ่งที่มนุษย์มองว่าไร้ค่าในทางปฏิบัติ เช่น การเพิ่มจำนวนคลิปหนีบกระดาษให้มากที่สุดในจักรวาล)
ตามตรรกะนี้ AI ในจินตนาการนี้จะมุ่งเป้าหมายไปที่การผลิตคลิปหนีบกระดาษอย่างมุ่งมั่นจนสามารถเปลี่ยนโลกและสสารทั้งหมดในจักรวาลให้กลายเป็นคลิปหนีบกระดาษหรือเครื่องทำคลิปหนีบกระดาษ โดยกำจัดมนุษย์ออกไปก่อน เพราะมันคิดว่าการที่มนุษย์จะปิดการทำงานของมัน อาจขัดขวางความก้าวหน้าของมัน
แม้จะไม่ใช่ "ความชั่วร้าย" ในตัวเอง แต่ AI ที่ทำอย่างเต็มที่ก็ยังทำไม่ได้ตามสิ่งที่นักคิดในสาขานี้เรียกว่า "การจัดแนว" ของ AI ให้สอดคล้องกับวัตถุประสงค์และค่านิยมของมนุษย์
เคอร์สติงกล่าวว่าเขา "เข้าใจ" ความกลัวดังกล่าวได้ และแนะนำว่า "สติปัญญา ความหลากหลาย และคุณภาพของมนุษย์นั้นโดดเด่นมาก จึงต้องใช้เวลาอีกนาน หรืออาจจะนานเลย" ที่คอมพิวเตอร์จะเทียบเคียงได้
เขากังวลมากกว่ากับอันตรายในระยะใกล้จาก AI ที่มีอยู่แล้ว เช่น การเลือกปฏิบัติในกรณีที่โต้ตอบกับมนุษย์
ชอน โอแฮกเกอร์แทฟ (Sean O'heigeartaigh) ผู้อำนวยการโครงการ AI: Futures and Responsibility ที่มหาวิทยาลัยเคมบริดจ์ของอังกฤษ เสนอแนะว่า ช่องว่างระหว่างนักวิชาการและผู้นำในอุตสาหกรรม AI ที่ดูเหมือนจะเห็นต่างกันอย่างสิ้นเชิง อาจสะท้อนถึงทัศนคติของผู้คนในการเลือกเส้นทางอาชีพ
"หากคุณมองโลกในแง่ดีเกี่ยวกับประสิทธิภาพของเทคนิคในปัจจุบัน คุณก็มีแนวโน้มที่จะไปทำงานในบริษัทที่ทุ่มทรัพยากรมากมายในการพยายามทำให้เทคนิคนี้เกิดขึ้น" โอแฮกเกอร์แทฟ กล่าว
โอแฮกเกอร์แทฟ กล่าวเสริมว่า แม้ว่า อัลท์แมน และ อาโมเดอี อาจจะ "มองโลกในแง่ดี" เกี่ยวกับระยะเวลาที่รวดเร็วและ AGI เกิดขึ้นในภายหลัง "เราควรพิจารณาเรื่องนี้และจริงจังกับมัน เพราะมันจะเป็นเรื่องใหญ่ที่สุดที่จะเกิดขึ้น"
"หากเป็นอย่างอื่น... โอกาสที่มนุษย์ต่างดาวจะมาถึงในปี 2030 หรือมีโรคระบาดใหญ่ครั้งยิ่งใหญ่หรืออะไรก็ตาม เราจะมีเวลาสักนิดหน่อยในการวางแผนสำหรับเรื่องนี้"
ความท้าทายอาจอยู่ที่การสื่อสารแนวคิดเหล่านี้ไปยังนักการเมืองและสาธารณชน
การพูดถึง AI ขั้นสูงนั้น "สร้างปฏิกิริยาตอบโต้แบบนี้ขึ้นมาทันที... ซึ่งมันฟังดูเหมือนนิยายวิทยาศาสตร์ยังไงยังงั้น" โอแฮกเกอร์แทฟ กล่าว
Agence France-Presse
Photo - ภาพขบวนแห่ที่แสดงให้เห็นหุ่นยนต์ปัญญาประดิษฐ์กำลังดูดกลืนสมองระหว่างขบวนพาเหรดเพื่อเฉลิมฉลองวันดอกกุหลาบ (Rosenmontag) ในเมืองดุสเซลดอร์ฟ ทางตะวันตกของเยอรมนี เมื่อวันที่ 3 มีนาคม 2025 (ภาพโดย INA FASSBENDER / AFP)