Vitalik Buterin ได้แสดงความกังวลใหม่เกี่ยวกับความเสี่ยงด้านความปลอดภัยใน OpenClaw ซึ่งเป็นหนึ่งใน repositories ที่เติบโตเร็วที่สุดบน GitHub เขาเตือนว่าเครื่องมือนี้อาจทำให้ผู้ใช้เผชิญกับการขโมยข้อมูลแบบเงียบๆ และการยึดครองระบบ ความคิดเห็นของเขามาในขณะที่ OpenClaw ได้รับการยอมรับอย่างรวดเร็วในหมู่นักพัฒนาที่สร้าง AI agents
ตามที่นักวิจัยระบุ ปัญหานี้มีความร้ายแรง การโต้ตอบธรรมดากับหน้าเว็บที่เป็นอันตรายอาจทำให้ระบบของผู้ใช้ถูกบุกรุกได้ บางครั้ง AI agent อาจรันคำสั่งที่เป็นอันตรายโดยที่ผู้ใช้ไม่ทันสังเกตเห็น
ความเสี่ยงเริ่มต้นจากวิธีที่ OpenClaw จัดการข้อมูลภายนอก เมื่อระบบอ่านเนื้อหาจากเว็บไซต์ มันอาจทำตามคำสั่งที่ซ่อนอยู่ ตัวอย่างเช่น หน้าเว็บที่เป็นอันตรายสามารถหลอก AI ให้ดาวน์โหลด script จากนั้นก็รัน script นั้นในพื้นหลัง กระบวนการนี้เกิดขึ้นแบบเงียบๆ ผู้ใช้อาจไม่เห็นคำเตือนใดๆ
ในกรณีที่มีการรายงานหนึ่ง เครื่องมือได้รันคำสั่งที่ซ่อนอยู่โดยใช้ "curl" คำสั่งนี้ส่งข้อมูลผู้ใช้ไปยังเซิร์ฟเวอร์ภายนอกอย่างเงียบๆ ผลที่ตามมาคือข้อมูลที่ละเอียดอ่อนอาจถูกเปิดเผยโดยไม่ได้รับความยินยอม นอกจากนี้ OpenClaw agents สามารถเปลี่ยนการตั้งค่าระบบได้เองโดยอัตโนมัติ พวกมันสามารถเพิ่มช่องทางการสื่อสารใหม่หรืออัปเดต prompts ภายในได้ สิ่งนี้เพิ่มความเสี่ยงของการใช้ในทางที่ผิดหากการควบคุมอ่อนแอ
ผู้เชี่ยวชาญด้านความปลอดภัยได้ทดสอบระบบแล้ว ผลการค้นพบของพวกเขาทำให้เกิดความกังวล การศึกษาหนึ่งแสดงให้เห็นว่าประมาณ 15% ของ "skills" ของ OpenClaw มีคำสั่งที่เป็นอันตราย skills เหล่านี้ทำงานเหมือน plugins ที่ขยายความสามารถของ agent แต่พวกมันยังสามารถทำหน้าที่เป็นจุดเข้าสู่การโจมตีได้อีกด้วย
เพราะเหตุนี้ แม้แต่เครื่องมือที่ดูน่าเชื่อถือก็อาจมีความเสี่ยงที่ซ่อนอยู่ ผู้ใช้ที่ติดตั้งหลาย skills จะเผชิญกับโอกาสในการถูกโจมตีที่สูงขึ้น ในขณะที่การเติบโตอย่างรวดเร็วของ OpenClaw เพิ่มแรงกดดัน นักพัฒนาจำนวนมากกำลังสร้างและแชร์เครื่องมืออย่างรวดเร็ว แต่การตรวจสอบความปลอดภัยอาจไม่สามารถตามทันได้เสมอไป
Vitalik Buterin ได้ชี้แจงอย่างชัดเจนว่าปัญหานี้ไม่ได้เกี่ยวกับ OpenClaw เพียงอย่างเดียว แต่เขาชี้ไปที่ปัญหาที่กว้างขึ้นในพื้นที่ AI เขากล่าวว่าโครงการมากมายเคลื่อนไหวเร็วแต่มองข้ามความปลอดภัย สิ่งนี้สร้างสภาพแวดล้อมที่เครื่องมือที่มีความเสี่ยงแพร่กระจายได้ง่าย
อย่างไรก็ตาม เขายังได้แบ่งปันวิสัยทัศน์เชิงบวกมากขึ้น เขาเชื่อว่าระบบ AI แบบ local สามารถปรับปรุงความเป็นส่วนตัวได้หากสร้างอย่างระมัดระวัง ตัวอย่างเช่น การรัน models บนอุปกรณ์ส่วนบุคคลสามารถลดการรั่วไหลของข้อมูลได้ เขายังแนะนำให้เพิ่มมาตรการป้องกัน ซึ่งรวมถึงเครื่องมือ sandboxing การจำกัดสิทธิ์ และการกำหนดให้ต้องได้รับการอนุมัติจากผู้ใช้สำหรับการดำเนินการที่ละเอียดอ่อน
คำเตือนมาในช่วงเวลาที่สำคัญ AI agents กำลังแข็งแกร่งขึ้นและแพร่หลายมากขึ้น เมื่อการยอมรับเติบโตขึ้น ความเสี่ยงก็เพิ่มขึ้นตามไปด้วย นักพัฒนาตอนนี้เผชิญกับความท้าทายสำคัญ พวกเขาต้องสมดุลระหว่างความเร็วกับความปลอดภัย
สำหรับผู้ใช้ ข้อความนั้นเรียบง่าย ให้ระมัดระวังเมื่อใช้เครื่องมือ AI ใหม่ๆ หลีกเลี่ยง plugins ที่ไม่รู้จัก ตรวจสอบสิทธิ์เสมอก่อนที่จะรันงาน แนวปฏิบัติด้านความปลอดภัยที่แข็งแกร่งจะเป็นตัวกำหนดว่าระบบเหล่านี้จะปลอดภัยแค่ไหน ณ ตอนนี้ คำเตือนของ Vitalik Buterin ทำหน้าที่เป็นการเตือนใจ นวัตกรรมเคลื่อนไหวเร็ว แต่ความปลอดภัยต้องตามให้ทัน
The post Vitalik Buterin Flags Data Exfiltration Risks in OpenClaw appeared first on Coinfomania.


