ในฐานะนักวิเคราะห์ที่มีพื้นฐานด้านจริยธรรมและความปลอดภัยของ AI ฉันกังวลอย่างยิ่งกับการพัฒนาล่าสุดของ OpenAI การลาออกของสมาชิกคนสำคัญในทีมที่เน้นเรื่องความปลอดภัยของ AI ซึ่งรวมถึง Ilya Sutskever และ Jan Leike ถือเป็นสัญญาณที่น่าหนักใจ
สมาชิกทุกคนในทีมของ OpenAI ที่อุทิศตนเพื่อจัดการกับความเสี่ยงที่อาจเกิดขึ้นจากปัญญาประดิษฐ์ได้ออกจากองค์กรหรือเข้าร่วมทีมวิจัยอื่น ๆ
หลังจากที่ Ilya Sutskever หัวหน้านักวิทยาศาสตร์ของ OpenAI และผู้ร่วมก่อตั้งบริษัท ได้ประกาศลาออก ฉันในฐานะส่วนหนึ่งของทีม Super Alignment ของ OpenAI และ Jan Leike หัวหน้าร่วมคนอื่นๆ ก็ได้แชร์กับ X ว่าฉันได้ยื่นคำลาออกแล้ว
ตามคำกล่าวของ Leike เขาลาออกจากบริษัทเนื่องจากมีความกังวลเกี่ยวกับการจัดลำดับความสำคัญของการพัฒนาผลิตภัณฑ์โดยเสียค่าใช้จ่ายในการรับรองความปลอดภัยของ AI
ในฐานะนักวิเคราะห์ ฉันจะตีความมุมมองของ Leike ดังต่อไปนี้: ในการตีพิมพ์เผยแพร่อย่างต่อเนื่อง ฉันได้แย้งว่าการมุ่งเน้นในปัจจุบันของ OpenAI ในลำดับความสำคัญเฉพาะที่กำหนดโดยความเป็นผู้นำของพวกเขาอาจไม่ใช่แนวทางที่มีประสิทธิภาพมากที่สุดในขณะที่เราก้าวหน้าไปสู่การพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) . แต่ฉันสนับสนุนอย่างยิ่งให้จัดลำดับความสำคัญด้านความปลอดภัยและการเตรียมพร้อมในความพยายามในการพัฒนา AGI ของเรา
AGI หมายถึงรูปแบบทางทฤษฎีของปัญญาประดิษฐ์ที่มีความสามารถในการจับคู่หรือเหนือกว่าความสามารถของมนุษย์ในงานต่างๆ
ที่ OpenAI ซึ่ง Leike ทำงานมาสามปี เขาแสดงความกังวลเกี่ยวกับความมุ่งมั่นของบริษัทในการสร้างผลิตภัณฑ์ที่สะดุดตา โดยเสียค่าใช้จ่ายในการสร้างวัฒนธรรมและขั้นตอนด้านความปลอดภัย AI ที่แข็งแกร่ง เขาเน้นย้ำถึงความสำคัญของการจัดสรรทรัพยากร โดยเฉพาะอย่างยิ่งในแง่ของพลังการคำนวณ เพื่อสนับสนุนความพยายามวิจัยด้านความปลอดภัยที่สำคัญของทีม ซึ่งกำลังถูกละเลย
“…ฉันไม่เห็นด้วยกับความเป็นผู้นำของ OpenAI เกี่ยวกับลำดับความสำคัญหลักของบริษัทมาระยะหนึ่งแล้วจนกระทั่งในที่สุดเราก็มาถึงจุดแตกหัก ในช่วงไม่กี่เดือนที่ผ่านมา ทีมของฉันได้แล่นทวนลม…”
ฤดูร้อนที่แล้ว OpenAI ได้จัดตั้งหน่วยวิจัยใหม่โดยมีเป้าหมายเพื่อคาดการณ์การเพิ่มขึ้นในที่สุดของหน่วยงานอัจฉริยะเทียมที่อาจเหนือกว่าสติปัญญาของมนุษย์และอาจก่อให้เกิดภัยคุกคามต่อผู้สร้าง Ilya Sutskever หัวหน้านักวิทยาศาสตร์และผู้ร่วมก่อตั้ง OpenAI ได้รับเลือกให้เป็นหนึ่งในผู้นำทีมที่ดูแลโครงการนี้ ซึ่งได้รับสิทธิ์เข้าถึง 20% ของความสามารถในการคำนวณของ OpenAI
หลังจากที่สมาชิกในทีมหลายคนลาออกจากตำแหน่ง OpenAI ก็เลือกที่จะยุบหน่วย “Superalignment” และมอบหมายความรับผิดชอบให้กับการวิจัยที่กำลังดำเนินอยู่ภายในบริษัท การกระทำนี้เชื่อว่ามีต้นกำเนิดมาจากกระบวนการปรับโครงสร้างทั่วทั้งองค์กรที่เริ่มดำเนินการภายหลังสถานการณ์การกำกับดูแลในเดือนพฤศจิกายน 2566
ในฐานะนักวิจัยที่ติดตามการพัฒนาของ OpenAI อย่างใกล้ชิด ฉันสามารถแบ่งปันว่ามีความพยายามที่นำโดย Sutskever และคนอื่นๆ ในบอร์ด OpenAI เพื่อแทนที่ Altman ในตำแหน่ง CEO ในเดือนพฤศจิกายนของปีที่แล้ว อย่างไรก็ตาม การตัดสินใจครั้งนี้ต้องเผชิญกับการต่อต้านอย่างรุนแรงจากเจ้าหน้าที่ของ OpenAI ส่งผลให้ Altman กลับคืนสู่ตำแหน่งของเขา
ตามรายงานของ The Information Sutskever สื่อสารกับพนักงานว่าการกระทำของคณะกรรมการที่จะไล่ Sam Altman แสดงถึงหน้าที่ของพวกเขาเพื่อให้แน่ใจว่า OpenAI จะสร้างปัญญาประดิษฐ์ทั่วไป (AGI) ที่ตอบสนองผลประโยชน์สูงสุดของมนุษยชาติโดยรวม ในฐานะหนึ่งในหกสมาชิก Sutskever เน้นย้ำถึงความทุ่มเทของคณะกรรมการในการปรับวัตถุประสงค์ของ OpenAI ให้สอดคล้องกับสิ่งที่ดีกว่า
Sorry. No data so far.
2024-05-18 14:45