ระวังสงครามหุ่นยนต์! โลกต้องเร่งทำสนธิสัญญาควบคุม AI ก่อนมันจะทำลายล้างเรา

ระวังสงครามหุ่นยนต์! โลกต้องเร่งทำสนธิสัญญาควบคุม AI ก่อนมันจะทำลายล้างเรา

เจฟฟรีย์ เอเวอเรสต์ ฮินตัน (Geoffrey Everest Hinton) เป็นนักวิทยาศาสตร์คอมพิวเตอร์และนักจิตวิทยาชาวอังกฤษ-แคนาดา ซึ่งมีชื่อเสียงมากที่สุดจากผลงานของเขาเกี่ยวกับโครงข่ายประสาทเทียม ตั้งแต่ปี 2013 ถึง 2023 เขาแบ่งเวลาทำงานให้กับ Google (Google Brain) และมหาวิทยาลัยโตรอนโต 

แต่ต่อมาเขาประกาศต่อสาธารณะว่าเขาออกจาก Google ในเดือนพฤษภาคม 2023 โดยอ้างถึงความกังวลเกี่ยวกับความเสี่ยงของเทคโนโลยีปัญญาประดิษฐ์ (AI) ในปี 2017 เขาได้ร่วมก่อตั้งและเป็นหัวหน้าที่ปรึกษาทางวิทยาศาสตร์ของ Vector Institute ในโตรอนโต โดยมุ่งเน้นไปที่การเรียนรู้ของปัญญาประดิษฐ์ (machine learning) และการวิจัยเชิงลึกของปัญญาประดิษฐ์เป็นหลัก

เมื่อไม่นานมานี้ เจฟฟรีย์ เอเวอเรสต์ ฮินตัน กล่าวในการให้สัมภาษณ์กับสถานีโทรทัศน์ RTE News ของไอร์แลนด์ ว่า โลกอาจเผชิญกับภัยพิบัติครั้งใหญ่จากการใช้อาวุธปัญญาประดิษฐ์ (AI)  โดยชี้ว่า “สิ่งที่น่ารังเกียจอย่างยิ่ง” จะเกิดขึ้นก่อนที่ประชาคมโลกจะบรรลุข้อตกลงที่ครอบคลุมการใช้งานปัญญาประดิษฐ์ซึ่งเทียบได้กับอนุสัญญาเจนีวาว่าด้วยการตั้งกติกาการทำสงครามของประชาคมโลก

"ภัยคุกคามที่ผมพูดถึงคือภัยคุกคามต่อการอยู่รอดของมนุษยชาติ” ศาสตราจารย์ฮินตันกล่าว “สิ่งเหล่านี้ (AI) จะฉลาดกว่าเรามากและพวกมันจะเข้ายึดครอง”

ฮินตัน ยังเตือนด้วยว่า  “ภัยคุกคามประการหนึ่งคือ 'หุ่นยนต์ต่อสู้' ซึ่งจะทำให้ประเทศร่ำรวยทำสงครามกับประเทศเล็กและยากจนได้ง่ายขึ้นมาก และจะเป็นเรื่องที่น่าสยดวสยองอย่างมาก และผมคิดว่าพวกเขากำลังเกิดขึ้นอย่างหลีกเลี่ยงไม่ได้” 

เขาเรียกร้องให้รัฐบาลต่างๆ กดดันบริษัทเทคโนโลยีขนาดใหญ่ โดยเฉพาะในแคลิฟอร์เนีย ซึ่งเป็นที่ตั้งของของซิลิคอนแวลีย์ อันเป็นศูนย์ของธุรกิจเทค ให้ดำเนินการวิจัยเชิงลึกเกี่ยวกับความปลอดภัยของเทคโนโลยี AI

“แทนที่จะคิดทีหลัง ควรมีแรงจูงใจจากรัฐบาลเพื่อให้แน่ใจว่าบริษัทต่างๆ ทุ่มเทงานจำนวนมากเพื่อความปลอดภัย และบางส่วนกำลังเกิดขึ้นในขณะนี้” ฮินตันกล่าว

นี่ไม่ใช่ครั้งแรกที่ ฮินตัน เตือนแบบนี้ ในปี 2023 เขาแสดงความกังวลเกี่ยวกับความก้าวหน้าอย่างรวดเร็วของ AI ก่อนหน้านี้ฮินตันเชื่อว่าปัญญาประดิษฐ์ทั่วไป (AGI) ต้องใช้เวลาพัฒนาอีก "30 ถึง 50 ปีหรือนานกว่านั้นด้วยซ้ำ" อย่างไรก็ตาม ในการให้สัมภาษณ์กับสำนักข่าว CBS เมื่อเดือนมีนาคม 2023 เขาระบุว่า "AI วัตถุประสงค์ทั่วไป" อาจพัฒนาได้สำเร็จในเวลาน้อยกว่า 20 ปี ออกไปและอาจนำมาซึ่งการเปลี่ยนแปลง "เทียบเท่ากับการปฏิวัติอุตสาหกรรมหรือไฟฟ้า"

ในการให้สัมภาษณ์กับ The New York Times ที่ตีพิมพ์เมื่อวันที่ 1 พฤษภาคม 2023 ฮินตันได้ประกาศลาออกจาก Google เพื่อที่เขาจะได้ "พูดคุยเกี่ยวกับอันตรายของ AI โดยไม่คำนึงว่าสิ่งนี้จะส่งผลกระทบต่อ Google "เขาตั้งข้อสังเกตว่า "เขารู้สึกเสียใจกับงานที่ทำมาตลอดชีวิต" เนื่องจากความกังวลของเขา และเขาแสดงความกลัวเกี่ยวกับการแข่งขันระหว่าง Google และ Microsoft ในเรื่องปัญญาประดิษฐ์

ในช่วงต้นเดือนพฤษภาคม 2023 ฮินตัน เปิดเผยในการให้สัมภาษณ์กับ BBC ว่าในไม่ช้า AI อาจจะเกินความสามารถด้านข้อมูลของสมองมนุษย์ เขาอธิบายความเสี่ยงบางประการที่เกิดจากแชทบอทเหล่านี้ว่า "ค่อนข้างน่ากลัว" เขาอธิบายว่าแชทบอทมีความสามารถในการเรียนรู้อย่างอิสระและแบ่งปันความรู้ ซึ่งหมายความว่าเมื่อใดก็ตามที่สำเนาได้รับข้อมูลใหม่ ข้อมูลดังกล่าวจะถูกเผยแพร่ไปยังทั้งกลุ่มโดยอัตโนมัติ ซึ่งช่วยให้แชทบอท AI มีความสามารถในการสะสมความรู้เกินกว่าความสามารถของบุคคลใดๆ ได้

ฮินตันแสดงความกังวลเกี่ยวกับการที่ AI จะควบคุมมนุษย์ โดยระบุว่า เป็นไปได้ที่ AI สามารถ "กวาดล้างมนุษยชาติได้" ฮินตันกล่าวว่าระบบ AI ที่สามารถเป็นหน่วยงานอัจฉริยะจะมีประโยชน์สำหรับวัตถุประสงค์ทางการทหารหรือเศรษฐกิจ เขากังวลว่าระบบ AI อัจฉริยะโดยทั่วไปอาจ "สร้างเป้าหมายย่อย" ที่ไม่สอดคล้องกับความสนใจของโปรแกรมเมอร์ได้ 

เขากล่าวว่าระบบ AI อาจหันมามุ่งแสวงหาอำนาจหรือป้องกันไม่ให้ตัวเองถูกปิดโดยมนุษย์ ฮันตัน จึงกล่าวว่า "เราต้องคิดอย่างหนักเกี่ยวกับวิธีควบคุม" ระบบ AI ที่สามารถพัฒนาตนเองได้ 

Photo - หุ่นยนต์ที่ปรากฏตัวระหว่างการกล่าวปาฐกถาพิเศษโดย เจนเซน หวง (Jensen Huang) ซีอีโอของ Nvidia ในระหว่างการประชุมปัญญาประดิษฐ์ Nvidia GTC ที่ SAP Center เมื่อวันที่ 18 มีนาคม 2024 ในเมืองซานโฮเซ่ รัฐแคลิฟอร์เนีย การประชุมนักพัฒนาคาดว่าจะเน้นย้ำถึงชิป ซอฟต์แวร์ และเทคโนโลยีโปรเซสเซอร์ AI ใหม่ (ภาพโดย JUSTIN SULLIVAN / GETTY IMAGES NORTH AMERICA / Getty Images ผ่าน AFP)
 

TAGS: #AI