ตามที่ Vitalik Buterin ผู้ร่วมสร้าง Ethereum กล่าวว่าการหยุดทรัพยากรคอมพิวเตอร์ทั่วโลกชั่วคราวอาจให้เวลาเพิ่มเติมสำหรับมนุษยชาติ หากมีความเสี่ยงที่ปัญญาประดิษฐ์ขั้นสูงอาจพิสูจน์ได้ว่าเป็นอันตราย
ในการอัปเดตบล็อกเมื่อวันที่ 5 มกราคม บูเตรินขยายโพสต์ในเดือนพฤศจิกายน พ.ศ. 2566 เกี่ยวกับ “การเร่งความเร็วในการป้องกัน” (d/acc) เขาเตือนว่าปัญญาประดิษฐ์ขั้นสูงอาจเกิดขึ้นได้ภายในเวลาเพียงห้าปี และไม่แน่ใจว่าผลที่ตามมาจะเป็นที่น่าพอใจหรือไม่
Vitalik Buterin เสนอว่าการจำกัดการผลิตฮาร์ดแวร์คอมพิวเตอร์ขนาดใหญ่ชั่วคราวอาจเป็นวิธีชะลอความก้าวหน้าของ AI สิ่งนี้อาจลดพลังการคำนวณทั่วโลกลงได้มากถึง 99% เป็นเวลาประมาณ 1 ถึง 2 ปี ทำให้มนุษยชาติมีเวลาเพิ่มเติมในการเตรียมตัวและปรับตัว
แนวคิดด้านปัญญาประดิษฐ์ขั้นสูงหรือที่เรียกว่าหน่วยสืบราชการลับขั้นสูง เป็นที่เข้าใจกันโดยทั่วไปว่าเป็นหน่วยงานที่มีประสิทธิภาพเหนือกว่าสติปัญญาของมนุษย์อย่างสม่ำเสมอในทุกสาขาวิชาและขอบเขตความรู้
ผู้นำด้านเทคโนโลยีและนักวิทยาศาสตร์จำนวนมากได้แสดงความกังวลเกี่ยวกับ AI ดังที่เห็นได้จากจดหมายเปิดผนึกที่เขียนเมื่อเดือนมีนาคม 2023 ซึ่งมีการลงนามโดยบุคคลมากกว่า 2,600 คน พวกเขาแสดงความกังวลเกี่ยวกับอันตรายที่อาจเกิดขึ้นกับสังคมและมนุษยชาติอันเนื่องมาจาก “ความเสี่ยงที่หยั่งรากลึก” ที่เกี่ยวข้องกับการพัฒนา
อย่างไรก็ตาม Buterin ชี้แจงว่างานชิ้นก่อนหน้านี้ของเขาเพียงบอกเป็นนัย ๆ เกี่ยวกับการหลีกเลี่ยงหน่วยสืบราชการลับสูงสุดประเภทที่เป็นอันตราย และตอนนี้ตั้งใจที่จะหารือเกี่ยวกับแนวทางแก้ไขที่เป็นไปได้สำหรับสถานการณ์ที่ AI ก่อให้เกิดความเสี่ยงที่สำคัญ
อย่างไรก็ตาม Buterin แสดงความเต็มใจที่จะสนับสนุนการหยุดชั่วคราวของฮาร์ดแวร์อย่างนุ่มนวลเฉพาะภายใต้เงื่อนไขที่เขาเชื่อว่า “การดำเนินการที่เข้มแข็งกว่า” เช่น ความรับผิดชอบทางกฎหมายเป็นสิ่งจำเป็น นี่หมายความว่าบุคคลที่ใช้ นำไปใช้ หรือสร้าง AI อาจต้องเผชิญกับการถูกฟ้องร้องหากแบบจำลองของพวกเขาก่อให้เกิดอันตราย
บุคคลดังกล่าวแนะนำว่าแผนการหยุดฮาร์ดแวร์ AI ชั่วคราวอาจเกี่ยวข้องกับการระบุตำแหน่งของชิป AI และต้องมีการลงทะเบียน แต่เขากลับเสนอแนวคิดว่าฮาร์ดแวร์ AI ระดับอุตสาหกรรมสามารถติดตั้งชิปที่อนุญาตให้เก็บไว้ได้เท่านั้น ทำงานได้หากได้รับชุดลายเซ็นสามฉบับจากองค์กรระหว่างประเทศที่สำคัญอย่างน้อยสัปดาห์ละครั้ง
พูดง่ายๆ ก็คือ Buterin ระบุว่าลายเซ็นเหล่านี้จะทำงานได้บนอุปกรณ์ต่างๆ (หรืออีกทางหนึ่ง เราอาจต้องการหลักฐานที่แสดงว่าลายเซ็นเหล่านี้โพสต์บนบล็อกเชน) ซึ่งหมายความว่าเมื่อได้รับอนุญาตแล้ว ไม่มีทางเป็นไปได้ที่จะอนุญาตให้อุปกรณ์เพียงเครื่องเดียวทำงานต่อไปโดยไม่อนุญาตอุปกรณ์อื่นๆ ทั้งหมดพร้อมกันด้วย
ข้อเสนอของ Buterin สำหรับการพัฒนาเทคโนโลยีเน้นที่กลยุทธ์ที่ระมัดระวังมากกว่าความก้าวหน้าที่รวดเร็วและอิสระซึ่งแนะนำโดย Accelerationism หรือ Effective Accelerationism
AI Eye: ลัทธิแปลกประหลาดกำลังเติบโตรอบๆ ‘ศาสนา’ มีมคอยน์ที่สร้างโดย AI
- โฆษณา Instacart Super Bowl เดิมพันกับคนดังที่ยากที่สุดในวงการโฆษณา: มาสคอตของ Madison Ave.
- แจ็คกี้ โอ เฮนเดอร์สัน ดาราวิทยุ ตกตะลึงกับการแกล้งอดีตสามีเสียชีวิตระหว่างถ่ายทอดสดฉลองวันเกิดครบรอบ 50 ปี!
- อัยการฝรั่งเศสก่อเหตุวุ่นวายทางกฎหมายบน Binance: วงการ Crypto ยังคงดำเนินต่อไป! 🎪
- Dogecoin ใกล้จะปรับฐานแล้ว – DOGE จะมุ่งหน้าไปทางไหนต่อไป?
- Kate Beckinsale เผย ‘วิกผมและเครื่องแต่งกายของเธอขาด’ เมื่อนักแสดง ‘หยาบคายกับเธอ’ ในฉาก ‘เป็นพิษ’ และเธออ้างว่าเธอ ‘ถูกเนรเทศ’ จากการบ่นเกี่ยวกับการทดสอบของเธอท่ามกลางคดีความของ Blake Lively
- เมื่อเผชิญกับกระแสตอบรับเชิงลบจากการไล่นักอุตุนิยมวิทยา Allen Media Group ได้เรียนรู้บทเรียนสำคัญ: นำ ‘ท้องถิ่น’ ออกจากทีวีท้องถิ่นด้วยความเสี่ยงของคุณเอง
- symphony รั้นของ🚀xrp: ผู้ค้า 73% เดิมพันใหญ่!?
- Keith Schleiger อดีตหัวหน้าคนงานของ The Block ตำหนิผู้เข้าแข่งขันที่ไม่รู้เรื่องในขณะที่เขาเงียบเมื่อออกจากรายการ: ‘ไม่รู้ว่าพวกเขากำลังทำอะไรอยู่’
- พรุ่งนี้ เมื่อ The War Began ดาราภาพยนตร์ ลินคอล์น ลูอิส ร่วมไว้อาลัยผู้เขียนหนังสือ จอห์น มาร์สเดน ภายหลังการเสียชีวิตของเขาในวัย 74 ปี
- Costars พี่น้องของ Blake Lively ตำหนิ Justin Baldoni “Vindictive”
2025-01-06 06:07