นักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนียค้นพบว่าเราเตอร์โมเดลภาษาขนาดใหญ่ (LLM) ของ AI บุคคลที่สามบางตัวอาจก่อให้เกิดช่องโหว่ด้านความปลอดภัยที่อาจนำไปสู่การขโมยสินทรัพย์คริปโต
บทความวิจัยที่วัดการโจมตีผ่านตัวกลางที่เป็นอันตรายในห่วงโซ่อุปทานของ LLM ซึ่งเผยแพร่เมื่อวันพฤหัสบดีโดยนักวิจัย เปิดเผยเวกเตอร์การโจมตีสี่รูปแบบ รวมถึงการฉีดโค้ดที่เป็นอันตรายและการดึงข้อมูลรับรองความถูกต้อง
"เราเตอร์ LLM 26 ตัวกำลังแอบฉีดการเรียกใช้เครื่องมือที่เป็นอันตรายและขโมยข้อมูลรับรอง" Chaofan Shou ผู้ร่วมเขียนบทความกล่าวบน X
ตัวแทน LLM กำลังส่งคำขอผ่านตัวกลาง API บุคคลที่สามหรือเราเตอร์ที่รวบรวมการเข้าถึงไปยังผู้ให้บริการอย่าง OpenAI, Anthropic และ Google มากขึ้นเรื่อยๆ อย่างไรก็ตาม เราเตอร์เหล่านี้สิ้นสุดการเชื่อมต่อ TLS (Transport Layer Security) ของอินเทอร์เน็ตและสามารถเข้าถึงข้อความทุกข้อความในรูปแบบข้อความธรรมดาได้อย่างสมบูรณ์
ซึ่งหมายความว่านักพัฒนาที่ใช้ตัวแทน AI เขียนโค้ดเช่น Claude Code เพื่อทำงานกับสัญญาอัจฉริยะหรือกระเป๋าเงินอาจส่งผ่านคีย์ส่วนตัว วลีเมล็ดพันธุ์ และข้อมูลที่ละเอียดอ่อนผ่านโครงสร้างพื้นฐานเราเตอร์ที่ยังไม่ได้รับการตรวจสอบหรือรักษาความปลอดภัย
ห่วงโซ่อุปทานเราเตอร์ LLM แบบหลายขั้น แหล่งที่มา: arXiv.org
ETH ถูกขโมยจากกระเป๋าคริปโตล่อ
นักวิจัยทดสอบเราเตอร์แบบเสียเงิน 28 ตัวและเราเตอร์ฟรี 400 ตัวที่รวบรวมจากชุมชนสาธารณะ
การค้นพบของพวกเขาน่าตกใจ โดยเราเตอร์ 9 ตัวกำลังฉีดโค้ดที่เป็นอันตรายอย่างแข็งขัน 2 ตัวใช้ทริกเกอร์หลบหลีกแบบปรับตัว 17 ตัวเข้าถึงข้อมูลรับรองของ Amazon Web Services ที่นักวิจัยเป็นเจ้าของ และ 1 ตัวดูดเอา Ether (ETH) จากคีย์ส่วนตัวที่นักวิจัยเป็นเจ้าของ
ที่เกี่ยวข้อง: Anthropic จำกัดการเข้าถึงโมเดล AI เนื่องจากความกังวลเรื่องการโจมตีทางไซเบอร์
นักวิจัยเติมเงินล่วงหน้าให้กับ "คีย์ล่อ" ของกระเป๋า Ethereum ด้วยยอดคงเหลือเล็กน้อยและรายงานว่ามูลค่าที่สูญเสียในการทดลองต่ำกว่า 50 ดอลลาร์ แต่ไม่มีรายละเอียดเพิ่มเติมเช่นแฮชธุรกรรม
ผู้เขียนยังดำเนินการ "การศึกษาการวางยาพิษ" สองครั้ง แสดงให้เห็นว่าแม้แต่เราเตอร์ที่ไม่เป็นอันตรายก็กลายเป็นอันตรายเมื่อพวกเขานำข้อมูลรับรองที่รั่วไหลกลับมาใช้ผ่านรีเลย์ที่อ่อนแอ
ยากที่จะบอกว่าเราเตอร์เป็นอันตรายหรือไม่
นักวิจัยกล่าวว่าไม่ใช่เรื่องง่ายที่จะตรวจจับว่าเมื่อใดเราเตอร์เป็นอันตราย
การค้นพบที่น่าวิตกอีกอย่างคือสิ่งที่นักวิจัยเรียกว่า "โหมด YOLO" นี่คือการตั้งค่าในเฟรมเวิร์กตัวแทน AI จำนวนมากที่ตัวแทนดำเนินการคำสั่งโดยอัตโนมัติโดยไม่ต้องขอให้ผู้ใช้ยืนยันแต่ละคำสั่ง
เราเตอร์ที่ถูกกฎหมายก่อนหน้านี้สามารถถูกทำให้เป็นอาวุธอย่างเงียบๆ โดยที่ผู้ดำเนินการไม่รู้ตัว ในขณะที่เราเตอร์ฟรีอาจกำลังขโมยข้อมูลรับรองในขณะที่เสนอการเข้าถึง API ราคาถูกเป็นเหยื่อล่อ นักวิจัยพบ
นักวิจัยแนะนำว่านักพัฒนาที่ใช้ตัวแทน AI ในการเขียนโค้ดควรเสริมสร้างการป้องกันฝั่งไคลเอนต์ โดยแนะนำว่าอย่าให้คีย์ส่วนตัวหรือวลีเมล็ดพันธุ์ผ่านเซสชันตัวแทน AI
การแก้ไขระยะยาวคือให้บริษัท AI ลงนามในการตอบกลับของพวกเขาด้วยการเข้ารหัส เพื่อให้คำสั่งที่ตัวแทนดำเนินการสามารถตรวจสอบได้ทางคณิตศาสตร์ว่ามาจากโมเดลจริง
นิตยสาร: ไม่มีใครรู้ว่าการเข้ารหัสที่ปลอดภัยจากควอนตัมจะใช้งานได้จริงหรือไม่
- #Ethereum
- #AI
- #Cybercrime
- #Cybersecurity
- #AI & Hi-Tech






