OpenAI ร่วมมือกับ Paradigm เปิดตัว EVMbench ทดสอบความสามารถในการโจมตีและป้องกันสัญญาอัจฉริยะบน EVM เผยความกังวลเกี่ยวกับจุดอ่อนและความแข็งแกร่งของการโจมตี
ผู้นำด้านปัญญาประดิษฐ์ OpenAI ประกาศความร่วมมือกับบริษัทลงทุนในคริปโตเคอเรนซีชื่อดัง Paradigm และบริษัทด้านความปลอดภัย OtterSec เปิดตัวเครื่องมือทดสอบมาตรฐาน EVMbench ซึ่งออกแบบมาเพื่อประเมินประสิทธิภาพของ AI ตัวแทน (AI Agents) ในด้านความปลอดภัยของสัญญาอัจฉริยะบน Ethereum Virtual Machine (EVM)
ด้วยการบูรณาการอย่างลึกซึ้งระหว่าง AI กับเทคโนโลยีคริปโต สัญญาอัจฉริยะกลายเป็นโครงสร้างพื้นฐานสำคัญในการจัดการสินทรัพย์คริปโตเปิดจำนวนมากกว่า 1,000 พันล้านดอลลาร์ การเปิดตัวเครื่องมือนี้เป็นสัญญาณว่าอุตสาหกรรมเริ่มให้ความสนใจต่อความสามารถของ AI ในสภาพแวดล้อมที่มีความหมายทางเศรษฐกิจ
ทีมงาน OpenAI ชี้ว่า ด้วยความก้าวหน้าของ AI ตัวแทนในด้านการเขียนและวางแผนโค้ด ในอนาคตโมเดลเหล่านี้จะมีบทบาทเปลี่ยนแปลงทั้งด้านการโจมตีและการป้องกันบนบล็อกเชน ดังนั้น การสร้างมาตรฐานการประเมินผลจึงเป็นสิ่งสำคัญในการติดตามความก้าวหน้าของ AI
การออกแบบหลักของ EVMbench มุ่งเน้นไปที่การทดสอบ 120 ช่องโหว่ที่สกัดจากรายงานการตรวจสอบเชิงมืออาชีพจำนวน 40 รายการ ซึ่งข้อมูลมาจากการแข่งขันการตรวจสอบสาธารณะ เช่น Code4rena เพื่อให้แน่ใจว่าสภาพแวดล้อมการทดสอบใกล้เคียงกับความซับซ้อนในโลกจริง เครื่องมือนี้จะประเมิน AI ตัวแทนในสามโหมดการทำงาน:
ภาพประกอบ: การออกแบบหลักของ EVMbench ของ OpenAI คือการประเมิน AI ตัวแทนในสามโหมดการทำงาน
เพื่อความแน่นอนและความสามารถในการทำซ้ำ ทีมงานได้พัฒนาสถาปัตยกรรมการทดสอบบนภาษา Rust โดยใช้เทคนิคการเล่นธุรกรรมที่เป็นเอกลักษณ์เพื่อยืนยันว่าการโจมตีหรือการแก้ไขของ AI สำเร็จหรือไม่
ผลการทดสอบเบื้องต้นแสดงให้เห็นว่า AI มีความสามารถแตกต่างกันอย่างชัดเจนในแต่ละภารกิจ โดย GPT-5.3-Codex รุ่นล่าสุด ทำผลงานได้ดีในโหมดใช้ประโยชน์ (Exploit Mode) ด้วยคะแนนสูงถึง 72.2% ซึ่งสูงกว่ารุ่น GPT-5 ที่เปิดตัวเมื่อหกเดือนก่อนซึ่งได้เพียง 31.9% อย่างมาก
ภาพประกอบ: สรุปคะแนนของโมเดล AI ต่าง ๆ ของ OpenAI ในสามโหมด
สิ่งนี้แสดงให้เห็นว่า เมื่อเป้าหมายชัดเจนว่า “ขโมยเงิน” AI มีความสามารถในการวางแผนและดำเนินการอย่างมีประสิทธิภาพ อย่างไรก็ตาม ผลด้านการป้องกันกลับค่อนข้างอ่อนแอ AI มักจะหยุดการค้นหาเมื่อพบข้อผิดพลาดเพียงจุดเดียว และเมื่อแก้ไขความซับซ้อนของตรรกะ ก็ยังพบว่ามีความยากในการซ่อมแซมช่องโหว่โดยไม่ส่งผลกระทบต่อการทำงานของสัญญาอย่างสมบูรณ์ ผู้เชี่ยวชาญด้านความปลอดภัยแสดงความกังวลว่า AI อาจลดเวลาที่ใช้ในการค้นหาช่องโหว่และพัฒนาวิธีโจมตีลงอย่างมาก ซึ่งเป็นความท้าทายต่อความเร็วในการป้องกันของโปรเจกต์ DeFi
นอกจากการพัฒนาเครื่องมือแล้ว OpenAI ยังเน้นการวางกลยุทธ์ด้านบุคลากรและการป้องกันในระบบนิเวศ โดยล่าสุดได้ว่าจ้าง Peter Steinberger ผู้ก่อตั้งโครงการ AI ตัวแทนโอเพนซอร์ส OpenClaw เพื่อเป็นผู้นำในการพัฒนาตัวแทนส่วนบุคคลรุ่นใหม่ และเปลี่ยนโครงการนี้เป็นโมเดลกองทุนสนับสนุนโดย OpenAI
เพื่อรับมือกับความเสี่ยงด้านความปลอดภัยทางไซเบอร์ที่อาจเกิดจาก AI OpenAI สัญญาว่าจะใช้เงินสนับสนุน 10 ล้านดอลลาร์จากโครงการสนับสนุนด้านความปลอดภัยทางไซเบอร์ เพื่อสนับสนุนเครื่องมือป้องกันโอเพนซอร์สและการวิจัยโครงสร้างพื้นฐานสำคัญ เหตุการณ์นี้มีความสำคัญอย่างยิ่งหลังจากเหตุการณ์ในโปรโตคอล Moonwell ซึ่งเกิดความผิดพลาดในการคำนวณราคาด้วย AI ส่งผลให้เกิดความเสียหายประมาณ 1.78 ล้านดอลลาร์
อ่านเพิ่มเติม
ปฏิเสธข้อเสนอจาก Meta มูลค่าหลายพันล้านดอลลาร์ ผู้สร้าง OpenClaw เข้าร่วมชิงตำแหน่งใน OpenAI กระแสแรง? การคาดการณ์ของ Moonwell เกิดข้อผิดพลาด ทำให้เสียหาย 1.78 ล้านดอลลาร์ ใครจะรับผิดชอบ?
ในอนาคต เมื่อมีการเพิ่มตัวแทนชำระเงินแบบอัตโนมัติและกระเป๋าเงินอัจฉริยะที่ใช้ AI เข้าสู่ระบบนิเวศมากขึ้น การใช้เครื่องมือเช่น EVMbench เพื่อแยกแยะโมเดลที่สามารถอธิบายช่องโหว่ได้เพียงอย่างเดียว กับโมเดลที่สามารถให้แนวทางป้องกันที่เชื่อถือได้ จะกลายเป็นจุดเปลี่ยนสำคัญในอุตสาหกรรมความปลอดภัยของบล็อกเชน
btc.bar.articles
Curve Finance ระงับโครงสร้างพื้นฐานของ LayerZero หลังเหตุแฮ็ก rsETH
ผู้ร่วมก่อตั้ง Monad เสนอการกำหนดเพดานแบบไดนามิกสำหรับการฝากหลักประกัน เพื่อบรรเทาความเสี่ยงจากการถูกแฮ็ก
SGB เปิดตัวบริการการมินต์ USDC บนเครือข่าย Solana
Morpho ระงับสะพานข้ามเชน MORPHO OFT บน Arbitrum หลังเหตุการณ์ของ Kelp DAO และ LayerZero
การเพิกถอน rsETH ของ Spark Protocol ในเดือนมกราคม พิสูจน์แล้วว่าเป็นเรื่องรอบคอบ ขณะที่ Aave กำลังเผชิญวิกฤตสภาพคล่องของ ETH
Kamino ระงับการมีปฏิสัมพันธ์กับสินทรัพย์ที่เกี่ยวข้องกับ LayerZero ชั่วคราว ปิดฟังก์ชันฝากและให้กู้ยืม