OpenAI ทำให้เกิดการแข่งขันทางอาวุธและการรักษาความปลอดภัยของเราคือผู้บาดเจ็บ

หลังจาก ChatGPT เปิดตัวในช่วงปลายปี 2022 และมีส่วนสำคัญในการเผยแพร่ปัญญาประดิษฐ์ (AI) ก็มีความสนใจเพิ่มขึ้นอย่างรวดเร็วจากหน่วยงานต่างๆ รวมถึงบริษัทเทคโนโลยีและไม่ใช่เทคโนโลยี ธุรกิจที่จัดตั้งขึ้น และสตาร์ทอัพหน้าใหม่ พวกเขาทั้งหมดได้เปิดตัวผู้ช่วย AI และจัดแสดงแอปพลิเคชันที่เป็นนวัตกรรมหรือการปรับปรุงเพื่อดึงดูดความสนใจของสาธารณชน

การรับรองของผู้นำเทคโนโลยีว่า AI สามารถจัดการงานทั้งหมดและมีบทบาทได้หลากหลาย ทำให้ผู้ช่วย AI เข้ามาทำหน้าที่ต่างๆ ในชีวิตของเรา พวกเขาได้กลายเป็นที่ปรึกษาและที่ปรึกษาที่เชื่อถือได้ในด้านธุรกิจและความสัมพันธ์ โดยให้คำแนะนำและการสนับสนุน นอกจากนี้ พวกเขายังทำหน้าที่เป็นนักบำบัด สหาย และคนสนิท โดยตั้งใจฟังข้อมูลส่วนบุคคล ความลับ และความคิดของเรา

บริษัทที่นำเสนอบริการช่วยเหลือด้วย AI เข้าใจลักษณะที่เป็นความลับของการสนทนาดังกล่าว และรับประกันว่าพวกเขากำลังใช้มาตรการป้องกันที่แข็งแกร่งเพื่อรักษาข้อมูลของเราให้ปลอดภัย แต่เราจะเชื่อถือคำสัญญาของพวกเขาได้จริงหรือ?

ผู้ช่วย AI – เพื่อนหรือศัตรู?

การศึกษาใหม่ที่เผยแพร่ในเดือนมีนาคมโดยนักวิจัยจากมหาวิทยาลัย Ber-Gurion เปิดเผยว่าข้อมูลที่เป็นความลับของเราอาจตกอยู่ในความเสี่ยง นักวิทยาศาสตร์ได้พัฒนาวิธีการถอดรหัสการตอบสนองของผู้ช่วย AI ด้วยความแม่นยำที่น่าทึ่ง โดยเลี่ยงการเข้ารหัสของพวกเขา เทคนิคนี้ใช้ประโยชน์จากข้อบกพร่องด้านการออกแบบในระบบของแพลตฟอร์มหลัก เช่น Copilot ของ Microsoft และ ChatGPT-4 ของ OpenAI แต่ Gemini ของ Google ยังคงไม่ได้รับผลกระทบ

นอกจากนี้ การศึกษายังเผยให้เห็นว่าผู้โจมตีที่พัฒนาวิธีการสกัดกั้นการแชท เช่น ChatGPT สามารถใช้วิธีนี้กับแพลตฟอร์มอื่นที่คล้ายคลึงกันได้โดยไม่ต้องทำงานพิเศษมากนัก ส่งผลให้เครื่องมือนี้สามารถแพร่กระจายไปยังแฮกเกอร์และใช้กันอย่างแพร่หลาย

ก่อนหน้านี้มีการสอบสวนเผยให้เห็นช่องโหว่ในกระบวนการสร้างตัวช่วย AI รวมถึง ChatGPT ผลการวิจัยจากสถาบันการศึกษาต่างๆ และ Google DeepMind ได้รับการเผยแพร่ในช่วงปลายปี 2023 นักวิจัยเหล่านี้เปิดเผยว่าด้วยการแจ้งข้อมูลที่เฉพาะเจาะจง พวกเขาสามารถกำหนดให้ ChatGMT ท่องจำข้อมูลการฝึกอบรมบางส่วนได้

นักวิจัยสามารถดึงข้อมูลข้อความจากหนังสือและบทกวี ลิงก์หน้าเว็บ ตัวระบุผู้ใช้ ที่อยู่กระเป๋าสตางค์ Bitcoin และสคริปต์การเข้ารหัสจาก ChatGPT ได้สำเร็จ

ผู้ที่เป็นอันตรายอาจจงใจสร้างข้อความหลอกลวงหรือให้ข้อมูลเท็จแก่บอทเพื่อจัดการกระบวนการฝึกอบรม ซึ่งอาจส่งผลให้มีการรวมข้อมูลส่วนบุคคลและข้อมูลทางวิชาชีพที่เป็นความลับไว้ภายในชุดข้อมูล

โมเดลโอเพ่นซอร์สนำเสนอความท้าทายด้านความปลอดภัยเพิ่มเติม ตัวอย่างเช่น การศึกษาพบว่าผู้โจมตีสามารถจัดการบริการแปลงร่างของ Hugging Face และควบคุมโมเดลที่ส่งมาได้ ผลที่ตามมาของการละเมิดดังกล่าวมีความรุนแรง ผู้บุกรุกสามารถแทนที่โมเดลเป้าหมายด้วยโมเดลที่เป็นอันตรายของตนเอง อัปโหลดโมเดลที่เป็นอันตรายไปยังที่เก็บข้อมูล หรือแม้แต่เข้าถึงที่เก็บชุดข้อมูลส่วนตัวได้

องค์กรเหล่านี้ รวมถึง Microsoft และ Google ซึ่งมีโมเดลทั้งหมด 905 โมเดลบน Hugging Face ที่ได้รับการดัดแปลงผ่านบริการแปลงไฟล์ อาจเสี่ยงต่อการถูกโจมตีด้วยการแฮ็กและอาจถูกละเมิดแล้ว

สิ่งต่างๆ อาจเลวร้ายลงได้

การเพิ่มขีดความสามารถของผู้ช่วย AI อาจเป็นเรื่องน่าดึงดูด แต่ยังเพิ่มความเสี่ยงที่จะถูกโจมตีทางไซเบอร์อีกด้วย

เมื่อปีที่แล้ว Bill Gates เขียนในบล็อกของเขาเกี่ยวกับบทบาทในอนาคตของปัญญาประดิษฐ์ขั้นสูง (AI) เขาเรียก AI นี้ว่า “ผู้ช่วยที่ครอบคลุม” หรือ “ตัวแทน” ซึ่งจะอนุญาตให้เข้าถึงอุปกรณ์ส่วนตัวและอุปกรณ์ทำงานทั้งหมดของเรา หน้าที่ของมันคือการรวมและตรวจสอบข้อมูลที่รวบรวมจากอุปกรณ์เหล่านี้ ทำหน้าที่เป็นผู้ช่วยที่มีประสิทธิภาพและประสิทธิผลสำหรับเราโดยการจัดการข้อมูลและงานต่างๆ

ดังที่ Gates เขียนไว้ในบล็อก:

ตัวแทนจะสามารถช่วยเหลือคุณในทุกกิจกรรมของคุณได้หากคุณต้องการ ด้วยการอนุญาตให้ติดตามการโต้ตอบออนไลน์และตำแหน่งในโลกแห่งความเป็นจริง จะช่วยพัฒนาความเข้าใจอันทรงพลังเกี่ยวกับผู้คน สถานที่ และกิจกรรมที่คุณมีส่วนร่วม ซึ่งจะทำให้ได้รับความสัมพันธ์ส่วนตัวและการทำงาน งานอดิเรก ความชอบ และตารางเวลาของคุณ คุณจะเลือกว่าจะให้ความช่วยเหลือในเรื่องใดหรือขอให้คุณตัดสินใจอย่างไรและเมื่อใด

นี่ไม่ใช่นิยายวิทยาศาสตร์ และอาจเกิดขึ้นเร็วกว่าที่เราคิด Project 01 ซึ่งเป็นระบบนิเวศแบบโอเพ่นซอร์สสำหรับอุปกรณ์ AI เพิ่งเปิดตัวผู้ช่วย AI ชื่อ 01 Light “01 Light เป็นอินเทอร์เฟซเสียงแบบพกพาที่ควบคุมคอมพิวเตอร์ที่บ้านของคุณ” บริษัทเขียนไว้ใน X โดยสามารถดูหน้าจอของคุณ ใช้แอพของคุณ และเรียนรู้ทักษะใหม่ๆ”

OpenAI ทำให้เกิดการแข่งขันทางอาวุธและการรักษาความปลอดภัยของเราคือผู้บาดเจ็บ

การมีผู้ช่วย AI ส่วนตัวอาจเป็นเรื่องที่น่าตื่นเต้นทีเดียว แต่สิ่งสำคัญคือต้องแก้ไขข้อกังวลด้านความปลอดภัยโดยทันที นักพัฒนาจะต้องตรวจสอบระบบและโค้ดอย่างละเอียดเพื่อหาช่องโหว่เพื่อป้องกันการโจมตีที่อาจเกิดขึ้น หากตัวแทนรายนี้ตกเป็นเหยื่อของผู้ประสงค์ร้าย ชีวิตทั้งชีวิตของคุณอาจตกอยู่ในความเสี่ยง ไม่ใช่แค่ข้อมูลของคุณเท่านั้น แต่ยังรวมถึงบุคคลหรือองค์กรที่เกี่ยวข้องด้วย

เราจะป้องกันตัวเองได้ไหม?

เริ่มตั้งแต่ปลายเดือนมีนาคม สภาผู้แทนราษฎรแห่งสหรัฐอเมริกาได้กำหนดข้อจำกัดอย่างเข้มงวดต่อการใช้ Copilot ของ Microsoft โดยเจ้าหน้าที่ฝ่ายนิติบัญญัติ

ตามที่ Catherine Szpindor ประธานเจ้าหน้าที่ฝ่ายบริหารของ House กล่าว แอป Microsoft Copilot ได้รับการระบุว่าเป็นความเสี่ยงที่อาจเกิดขึ้นจากสำนักงานความปลอดภัยทางไซเบอร์ เนื่องจากอาจถ่ายโอนข้อมูล House ไปยังบริการคลาวด์ที่ไม่ได้รับอนุญาตโดยไม่ได้ตั้งใจ

ในช่วงต้นเดือนเมษายน คณะกรรมการพิจารณาความปลอดภัยทางไซเบอร์ (CSRB) เผยแพร่รายงานที่กล่าวหา Microsoft เกี่ยวกับความล้มเหลวด้านความปลอดภัยหลายครั้งที่อนุญาตให้แฮกเกอร์ชาวจีนเจาะบัญชีอีเมลของเจ้าหน้าที่รัฐบาลอเมริกันในช่วงฤดูร้อนปี 2023 เหตุการณ์เหล่านี้สามารถหลีกเลี่ยงได้และควรหลีกเลี่ยง ได้รับการป้องกัน

จากการค้นพบของรายงาน แนวทางปฏิบัติด้านความปลอดภัยในปัจจุบันของ Microsoft นั้นด้อยกว่าและจำเป็นต้องมีการปรับปรุงที่สำคัญ ซึ่งอาจส่งผลกระทบต่อผลิตภัณฑ์ Copilot ของพวกเขาด้วย

บริษัทเทคโนโลยีหลายแห่ง เช่น Apple, Amazon, Samsung และ Spotify รวมถึงสถาบันการเงิน เช่น JPMorgan, Citi และ Goldman Sachs ก่อนหน้านี้ได้จำกัดการใช้ผู้ช่วย AI โดยพนักงานของตน

เมื่อปีที่แล้ว บริษัทยักษ์ใหญ่ด้านเทคโนโลยีอย่าง OpenAI และ Microsoft ได้ให้คำมั่นสัญญาที่จะพัฒนาและใช้ปัญญาประดิษฐ์ที่มีจริยธรรม อย่างไรก็ตาม จนถึงขณะนี้ ยังไม่มีการดำเนินการที่สำคัญใดๆ ในทิศทางนี้

การให้คำมั่นสัญญาไม่เพียงพอ เจ้าหน้าที่และผู้มีอำนาจตัดสินใจจำเป็นต้องดำเนินการอย่างเป็นรูปธรรมแทน ในระหว่างนี้ ขอแนะนำให้ระงับการแบ่งปันรายละเอียดส่วนบุคคลหรือธุรกิจที่เป็นความลับ

หากเราทุกคนละเว้นจากการใช้บอทร่วมกัน เราอาจเพิ่มโอกาสในการถูกรับฟัง กระตุ้นให้ธุรกิจและผู้สร้างจัดลำดับความสำคัญด้านความปลอดภัยของเราโดยการปรับปรุงคุณสมบัติด้านความปลอดภัยที่จำเป็น

Dr. Merav Ozair is a guest author for CryptoMoon and is developing and teaching emerging technologies courses at Wake Forest University and Cornell University. She was previously a FinTech professor at Rutgers Business School, where she taught courses on Web3 and related emerging technologies. She is a member of the academic advisory board at the International Association for Trusted Blockchain Applications (INATBA) and serves on the advisory board of EQM Indexes — Blockchain Index Committee. She is the founder of Emerging Technologies Mastery, a Web3 and AI end-to-end consultancy shop, and holds a PhD from Stern Business School at NYU.

บทความนี้มีวัตถุประสงค์เพื่อให้ข้อมูลทั่วไป และไม่ได้มีวัตถุประสงค์เพื่อเป็นและไม่ควรถือเป็นคำแนะนำทางกฎหมายหรือการลงทุน มุมมอง ความคิด และความคิดเห็นที่แสดงที่นี่เป็นของผู้เขียนเพียงผู้เดียว และไม่จำเป็นต้องสะท้อนหรือเป็นตัวแทนของมุมมองและความคิดเห็นของ CryptoMoon

Sorry. No data so far.

2024-04-10 23:53