นักวิทยาศาสตร์ชาวอเมริกันผู้ได้รับรางวัลโนเบลสาขาฟิสิกส์ประจำปี 2024 จากผลงานบุกเบิกด้านปัญญาประดิษฐ์กล่าวเมื่อวันอังคารว่าเขาพบว่าความก้าวหน้าทางเทคโนโลยีล่าสุดนั้น "น่ากังวลมาก" และเตือนว่าอาจเกิดหายนะได้หากไม่ได้รับการควบคุม
จอห์น ฮอปฟิลด์ (John Hopfield) ศาสตราจารย์กิตติคุณแห่งมหาวิทยาลัยพรินซ์ตัน ร่วมกับเจฟฟรีย์ ฮินตัน (Geoffrey Hinton) ผู้ชนะรางวัลโนเบลร่วมกันเรียกร้องให้ทำความเข้าใจที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับการทำงานภายในของระบบการเรียนรู้เชิงลึก (deep-learning ระบบการทำงานอย่างหนึ่งของปัญญาประดิษฐ์) เพื่อป้องกันไม่ให้ระบบเหล่านี้อยู่เหนือการควบคุม
ในการกล่าวปราศรัยต่อผู้เข้าร่วมประชุมที่มหาวิทยาลัยนิวเจอร์ซีผ่านลิงค์วิดีโอจากอังกฤษ นักวิทยาศาสตร์วัย 91 ปีผู้นี้กล่าวว่าตลอดชีวิตของเขา เขาได้เห็นการเติบโตของเทคโนโลยีที่ทรงพลังแต่มีความเสี่ยงต่ออันตราย 2 ประเภท ได้แก่ วิศวกรรมชีวภาพและฟิสิกส์นิวเคลียร์
“คนเราคุ้นเคยกับการมีเทคโนโลยีที่ไม่เพียงแต่ดีหรือแย่เท่านั้น แต่มีความสามารถในทั้งสองทาง” เขากล่าว
“และในฐานะนักฟิสิกส์ ผมรู้สึกไม่สบายใจมากกับสิ่งที่ไม่สามารถควบคุมได้ บางอย่างที่ผมไม่เข้าใจดีพอที่จะเข้าใจว่าขีดจำกัดที่เราสามารถขับเคลื่อนเทคโนโลยีนั้นได้คืออะไร”
“นั่นคือคำถามที่กำลังเกิดขึ้นกับ AI” เขากล่าวต่อ และเสริมว่าแม้ว่าระบบ AI ในปัจจุบันจะดูเหมือนเป็น “สิ่งมหัศจรรย์อย่างแท้จริง” แต่กลับขาดความเข้าใจเกี่ยวกับวิธีการทำงานของมัน ซึ่งเขาอธิบายว่า “น่าวิตกกังวลมาก”
“นั่นเป็นเหตุผลว่าทำไมตัวผมเอง และผมคิดว่า เจฟฟรีย์ ฮินตัน เองก็ด้วยจึงสนับสนุนอย่างแข็งขันว่าความเข้าใจเป็นความต้องการพื้นฐานของสาขานี้ ซึ่งจะพัฒนาความสามารถบางอย่างที่เกินกว่าความสามารถที่คุณจะจินตนาการได้ในปัจจุบัน”
ฮอปฟิลด์ ได้รับเกียรติในฐานะผู้คิดค้น “Hopfield network” ซึ่งเป็นแบบจำลองทางทฤษฎีที่แสดงให้เห็นว่าเครือข่ายประสาทเทียมสามารถเลียนแบบวิธีการจัดเก็บและดึงความทรงจำของสมองทางชีววิทยาได้อย่างไร
แบบจำลองของเขาได้รับการปรับปรุงโดยฮินตันชาวอังกฤษ-แคนาดา ซึ่งมักถูกขนานนามว่าเป็น "เจ้าพ่อแห่งปัญญาประดิษฐ์" (Godfather of AI) โดยแนวคิดของเขาเรื่อง "เครื่องจักรโบลต์ซมันน์" (Boltzmann machine) ได้นำเสนอองค์ประกอบของความสุ่ม ซึ่งปูทางไปสู่การประยุกต์ใช้ปัญญาประดิษฐ์สมัยใหม่ เช่น เครื่องกำเนิดภาพโดยระบบปัญญาประดิษฐ์
ฮินตันเองก็แสดงจุดยืนเมื่อปีที่แล้วในฐานะหนึ่งในผู้นำที่ทำนายหายนะที่จะเกิดจากปัญญาประดิษฐ์ ซึ่งเป็นหัวข้อที่เขาหยิบยกมาพูดถึงอีกครั้งในระหว่างการแถลงข่าวที่จัดขึ้นโดยมหาวิทยาลัยโตรอนโต ซึ่งเขาดำรงตำแหน่งศาสตราจารย์กิตติคุณ
"หากคุณมองไปรอบๆ จะเห็นว่ามีตัวอย่างน้อยมากของสิ่งที่ฉลาดกว่าที่ถูกควบคุมโดยสิ่งที่ฉลาดน้อยกว่า ซึ่งทำให้คุณสงสัยว่าเมื่อปัญญาประดิษฐ์ฉลาดกว่าเรา มันจะเข้ามาควบคุมแทนหรือไม่" ชายวัย 76 ปีกล่าวกับนักข่าว
- การล่มสลายของอารยธรรม -
ด้วยศักยภาพของปัญญาประดิษฐ์ที่เพิ่มขึ้นอย่างรวดเร็ว และการแข่งขันที่ดุเดือดที่เกิดขึ้นระหว่างบริษัทต่างๆ เทคโนโลยี AI จึงเผชิญกับคำวิจารณ์ว่ามันกำลังพัฒนาเร็วกว่าที่นักวิทยาศาสตร์จะเข้าใจมันได้อย่างสมบูรณ์
“คุณไม่รู้ว่าคุณสมบัติส่วนรวมที่คุณเริ่มต้นไว้ เป็นคุณสมบัติส่วนรวมที่มีปฏิสัมพันธ์ทั้งหมดอยู่จริง และคุณจึงไม่รู้ว่ามีบางสิ่งที่เกิดขึ้นเองโดยธรรมชาติแต่ไม่เป็นที่พึงปรารถนา ซ่อนอยู่ในผลงานหรือไม่” ฮอปฟิลด์เน้นย้ำ
เขายกตัวอย่าง “ไอซ์ไนน์” (ice-nine) ซึ่งเป็นคริสตัลเทียมในนวนิยายเรื่อง Cat's Cradle ของเคิร์ต วอนเนกัต (Kurt Vonnegut นักเขียนชาวอเมริกันที่มีชื่อเสียง) ในปี 1963 ซึ่งพัฒนาขึ้นเพื่อช่วยให้ทหารรับมือกับสภาพโคลนเลน แต่กลับทำให้มหาสมุทรของโลกแข็งตัวโดยไม่ได้ตั้งใจ ส่งผลให้อารยธรรมล่มสลาย
“ผมเป็นห่วงทุกอย่างที่บอกว่า... 'ผมเร็วกว่าคุณ ผมตัวใหญ่กว่าคุณ... คุณอยู่ร่วมกับผมอย่างสันติได้ไหม' ผมไม่รู้ ผมเป็นห่วง”
ฮินตันกล่าวว่าเป็นไปไม่ได้ที่จะรู้ว่าจะหลีกหนีจากสถานการณ์เลวร้ายในปัจจุบันได้อย่างไร “นั่นเป็นสาเหตุว่าทำไมเราจึงต้องการการวิจัยเพิ่มเติมอย่างเร่งด่วน”
“ผมสนับสนุนให้บรรดานักวิจัยรุ่นเยาว์ที่เก่งที่สุดของเรา หรือหลายๆ คน ทำงานด้านความปลอดภัยของ AI และรัฐบาลควรบังคับให้บริษัทใหญ่ๆ จัดหาสิ่งอำนวยความสะดวกด้านการคำนวณที่จำเป็นเพื่อดำเนินการดังกล่าว” เขากล่าวเสริม
Report by Agence France-Presse
Photo of Geoffrey Hinton by Geoff Robins / AFP