Vitalik Buterin ลอย ‘การหยุดชั่วคราว’ ในการประมวลผล ในกรณีของ AI ที่มีความเสี่ยงกะทันหัน

ตามที่ Vitalik Buterin ผู้ร่วมสร้าง Ethereum กล่าวว่าการหยุดทรัพยากรคอมพิวเตอร์ทั่วโลกชั่วคราวอาจให้เวลาเพิ่มเติมสำหรับมนุษยชาติ หากมีความเสี่ยงที่ปัญญาประดิษฐ์ขั้นสูงอาจพิสูจน์ได้ว่าเป็นอันตราย

ในการอัปเดตบล็อกเมื่อวันที่ 5 มกราคม บูเตรินขยายโพสต์ในเดือนพฤศจิกายน พ.ศ. 2566 เกี่ยวกับ “การเร่งความเร็วในการป้องกัน” (d/acc) เขาเตือนว่าปัญญาประดิษฐ์ขั้นสูงอาจเกิดขึ้นได้ภายในเวลาเพียงห้าปี และไม่แน่ใจว่าผลที่ตามมาจะเป็นที่น่าพอใจหรือไม่

Vitalik Buterin เสนอว่าการจำกัดการผลิตฮาร์ดแวร์คอมพิวเตอร์ขนาดใหญ่ชั่วคราวอาจเป็นวิธีชะลอความก้าวหน้าของ AI สิ่งนี้อาจลดพลังการคำนวณทั่วโลกลงได้มากถึง 99% เป็นเวลาประมาณ 1 ถึง 2 ปี ทำให้มนุษยชาติมีเวลาเพิ่มเติมในการเตรียมตัวและปรับตัว

แนวคิดด้านปัญญาประดิษฐ์ขั้นสูงหรือที่เรียกว่าหน่วยสืบราชการลับขั้นสูง เป็นที่เข้าใจกันโดยทั่วไปว่าเป็นหน่วยงานที่มีประสิทธิภาพเหนือกว่าสติปัญญาของมนุษย์อย่างสม่ำเสมอในทุกสาขาวิชาและขอบเขตความรู้

ผู้นำด้านเทคโนโลยีและนักวิทยาศาสตร์จำนวนมากได้แสดงความกังวลเกี่ยวกับ AI ดังที่เห็นได้จากจดหมายเปิดผนึกที่เขียนเมื่อเดือนมีนาคม 2023 ซึ่งมีการลงนามโดยบุคคลมากกว่า 2,600 คน พวกเขาแสดงความกังวลเกี่ยวกับอันตรายที่อาจเกิดขึ้นกับสังคมและมนุษยชาติอันเนื่องมาจาก “ความเสี่ยงที่หยั่งรากลึก” ที่เกี่ยวข้องกับการพัฒนา

อย่างไรก็ตาม Buterin ชี้แจงว่างานชิ้นก่อนหน้านี้ของเขาเพียงบอกเป็นนัย ๆ เกี่ยวกับการหลีกเลี่ยงหน่วยสืบราชการลับสูงสุดประเภทที่เป็นอันตราย และตอนนี้ตั้งใจที่จะหารือเกี่ยวกับแนวทางแก้ไขที่เป็นไปได้สำหรับสถานการณ์ที่ AI ก่อให้เกิดความเสี่ยงที่สำคัญ

อย่างไรก็ตาม Buterin แสดงความเต็มใจที่จะสนับสนุนการหยุดชั่วคราวของฮาร์ดแวร์อย่างนุ่มนวลเฉพาะภายใต้เงื่อนไขที่เขาเชื่อว่า “การดำเนินการที่เข้มแข็งกว่า” เช่น ความรับผิดชอบทางกฎหมายเป็นสิ่งจำเป็น นี่หมายความว่าบุคคลที่ใช้ นำไปใช้ หรือสร้าง AI อาจต้องเผชิญกับการถูกฟ้องร้องหากแบบจำลองของพวกเขาก่อให้เกิดอันตราย

บุคคลดังกล่าวแนะนำว่าแผนการหยุดฮาร์ดแวร์ AI ชั่วคราวอาจเกี่ยวข้องกับการระบุตำแหน่งของชิป AI และต้องมีการลงทะเบียน แต่เขากลับเสนอแนวคิดว่าฮาร์ดแวร์ AI ระดับอุตสาหกรรมสามารถติดตั้งชิปที่อนุญาตให้เก็บไว้ได้เท่านั้น ทำงานได้หากได้รับชุดลายเซ็นสามฉบับจากองค์กรระหว่างประเทศที่สำคัญอย่างน้อยสัปดาห์ละครั้ง

พูดง่ายๆ ก็คือ Buterin ระบุว่าลายเซ็นเหล่านี้จะทำงานได้บนอุปกรณ์ต่างๆ (หรืออีกทางหนึ่ง เราอาจต้องการหลักฐานที่แสดงว่าลายเซ็นเหล่านี้โพสต์บนบล็อกเชน) ซึ่งหมายความว่าเมื่อได้รับอนุญาตแล้ว ไม่มีทางเป็นไปได้ที่จะอนุญาตให้อุปกรณ์เพียงเครื่องเดียวทำงานต่อไปโดยไม่อนุญาตอุปกรณ์อื่นๆ ทั้งหมดพร้อมกันด้วย

ข้อเสนอของ Buterin สำหรับการพัฒนาเทคโนโลยีเน้นที่กลยุทธ์ที่ระมัดระวังมากกว่าความก้าวหน้าที่รวดเร็วและอิสระซึ่งแนะนำโดย Accelerationism หรือ Effective Accelerationism

AI Eye: ลัทธิแปลกประหลาดกำลังเติบโตรอบๆ ‘ศาสนา’ มีมคอยน์ที่สร้างโดย AI

2025-01-06 06:07