ศาลหยุดการห้ามใช้ Claude AI ของ Anthropic ในหน่วยงานของรัฐบาลกลางโดยรัฐบาลทรัมป์
ผู้พิพากษาศาลแขวงสหรัฐฯ Rita F. Lin ออกคำสั่งห้ามเบื้องต้นเมื่อวันที่ 26 มีนาคม โดยพบว่าการกระทำของรัฐบาลต่อ Anthropic มีแนวโน้มที่จะละเมิดการแก้ไขรัฐธรรมนูญฉบับที่หนึ่ง ปฏิเสธกระบวนการที่ถูกต้องตามกฎหมายของบริษัท และเกินอำนาจตามกฎหมายภายใต้พระราชบัญญัติว่าด้วยขั้นตอนการบริหาร คำตัดสินดังกล่าวถูกพักไว้เป็นเวลาเจ็ดวัน ทำให้รัฐบาลมีเวลาจนถึงประมาณวันที่ 2 เมษายนในการยื่นอุทธรณ์ฉุกเฉินต่อศาลอุทธรณ์เขตที่เก้า
ข้อพิพาทเริ่มต้นขึ้นเมื่อกระทรวงก국방 (DoD) ต้องการเข้าถึง Claude อย่างไม่จำกัดเพื่อการใช้งานของรัฐบาลกลาง Anthropic รักษาข้อยกเว้นสองประการในนโยบายการใช้งานที่ยอมรับได้มาโดยตลอด: Claude จะไม่ถูกใช้เพื่อการเฝ้าระวังประชาชนชาวอเมริกันภายในประเทศจำนวนมากหรือเพื่อระบบอาวุธอัตโนมัติที่ร้ายแรงซึ่งทำงานโดยไม่มีการกำกับดูแลของมนุษย์อย่างมีความหมาย DoD เรียกร้องให้เอามาตรการป้องกันเหล่านั้นออก Anthropic ปฏิเสธ
การเจรจาล่มสลายในช่วงปลายปี 2025 ความขัดแย้งกลายเป็นเรื่องสาธารณะผ่านแถลงการณ์เป็นลายลักษณ์อักษรของ CEO Dario Amodei และบทความที่อธิบายจุดยืนของบริษัทเกี่ยวกับความปลอดภัยของ AI เจ้าหน้าที่ DoD มองว่าข้อจำกัดเหล่านี้เป็นความพยายามของ Anthropic ที่จะกำหนดนโยบายของรัฐบาล
เมื่อวันที่ 27 กุมภาพันธ์ 2026 ประธานาธิบดีทรัมป์โพสต์บน Truth Social สั่งการให้หน่วยงานของรัฐบาลกลางทั้งหมดหยุดการใช้เทคโนโลยีของ Anthropic ทันที โดยมีระยะเวลาเลิกใช้หกเดือน รัฐมนตรีว่าการกระทรวงกลาโหม Pete Hegseth ประกาศการกำหนดความเสี่ยงของห่วงโซ่อุปทานภายใต้ 10 U.S.C. § 3252 — กฎหมายที่ใช้กับคู่แข่งต่างประเทศมาก่อน — โดยติดป้ายว่า Anthropic เป็นความเสี่ยงที่อาจเกิดขึ้นของ "การก่อวินาศกรรม" และ "การบ่อนทำลาย"
ผู้รับเหมาของรัฐบาลกลางหลายรายหยุดชั่วคราวหรือยกเลิกข้อตกลงกับบริษัทหลังจากการกำหนดดังกล่าว Anthropic ตอบสนองและยื่นฟ้องเมื่อวันที่ 9 มีนาคมในเขตภาคเหนือของแคลิฟอร์เนีย โดยกล่าวหาการตอบโต้ การละเมิดกระบวนการที่ถูกต้องตามกฎหมาย และการละเมิด APA มีการยื่นคำร้องที่เกี่ยวข้องใน D.C. Circuit
ในคำสั่ง 43 หน้า ผู้พิพากษา Lin สั่งห้าม DoD หน่วยงานของรัฐบาลกลางอื่นๆ 17 แห่ง และรัฐมนตรี Hegseth จากการดำเนินการหรือบังคับใช้การกระทำที่ถูกท้าทายใดๆ เธอสั่งให้ฟื้นฟูสถานะเดิม โดยอนุญาตให้ Anthropic ดำเนินสัญญาและความร่วมมือกับรัฐบาลกลางที่มีอยู่ต่อไป
Lin เขียนว่าการกระทำของรัฐบาลเป็นตัวแทนของ "การตอบโต้ตามการแก้ไขรัฐธรรมนูญฉบับที่หนึ่งที่ผิดกฎหมายแบบคลาสสิก" เธอสังเกตเห็นระยะเวลาของการกระทำ พร้อมกับการสื่อสารภายในรัฐบาลที่อ้างถึง "วาทศิลป์" "ความเย่อหยิ่ง" และ "การใช้กำลังบีบบังคับ" ของ Anthropic ชี้ไปโดยตรงที่เจตนาลงโทษที่เชื่อมโยงกับแถลงการณ์สาธารณะของบริษัทเกี่ยวกับความปลอดภัยของ AI
เกี่ยวกับกระบวนการที่ถูกต้องตามกฎหมาย ศาลพบว่ารัฐบาลได้ลิดรอนผลประโยชน์ด้านเสรีภาพของ Anthropic ในชื่อเสียงและการดำเนินธุรกิจโดยไม่แจ้งให้ทราบล่วงหน้าก่อนการลิดรอนหรือการพิจารณาคดี Lin ยังพบว่าการกำหนดตามกฎหมายไม่เคยถูกนำไปใช้กับบริษัทอเมริกันภายใต้สถานการณ์เหล่านี้มาก่อน และการตรวจสอบของรัฐบาลก่อนหน้านี้ต่อ Anthropic
ซึ่งรวมถึงการอนุญาตความลับสูงสุด การอนุญาต FedRAMP และสัญญามูลค่าสูงถึง 200 ล้านดอลลาร์ — ไม่แสดงความกังวลด้านความปลอดภัยที่แท้จริง "ไม่มีอะไรในกฎหมายที่ควบคุมสนับสนุนความคิดแบบออร์เวลเลียนที่ว่าบริษัทอเมริกันอาจถูกตราหน้าว่าเป็นคู่แข่งที่อาจเกิดขึ้นและผู้ก่อวินาศกรรมของสหรัฐฯ เพียงเพราะแสดงความไม่เห็นด้วยกับรัฐบาล" Lin เขียน
ศาลพบว่าความเสียหายทางการเงินที่อาจเกิดขึ้นกับ Anthropic อยู่ในระดับหลายร้อยล้านถึงหลายพันล้านดอลลาร์ พร้อมกับความเสียหายต่อชื่อเสียงที่การชดเชยทางการเงินไม่สามารถซ่อมแซมได้อย่างเต็มที่ สรุปข้อโต้แย้งจากผู้นำทางทหารและนักวิจัย AI อ้างถึงความเสี่ยงต่อความพร้อมในการป้องกันและการอภิปรายความปลอดภัยของ AI ในวงกว้าง
Anthropic กล่าวว่าบริษัทรู้สึกขอบคุณสำหรับความรวดเร็วของศาลและว่าบริษัทวางแผนที่จะทำงานร่วมกับรัฐบาลกลางต่อไป บริษัทระบุว่าเป้าหมายยังคงเป็นการรับประกันว่าชาวอเมริกันมีการเข้าถึง AI ที่ปลอดภัยและเชื่อถือได้
คำสั่งห้ามไม่ได้แก้ไขข้อพิพาทสัญญาที่เป็นพื้นฐาน ยังไม่มีการออกคำตัดสินเนื้อหาสาระขั้นสุดท้าย การท้าทายแยกต่างหากใน D.C. Circuit ยังคงรอดำเนินการ และรัฐบาลยังคงมีตัวเลือกในการอุทธรณ์
คำถามที่พบบ่อย 🔎
- ผู้พิพากษาของรัฐบาลกลางตัดสินอย่างไรเกี่ยวกับ Anthropic? ผู้พิพากษาศาลแขวงสหรัฐฯ Rita F. Lin ออกคำสั่งห้ามเบื้องต้นเมื่อวันที่ 26 มีนาคม ป้องกันไม่ให้เพนตากอนและรัฐบาลทรัมป์บังคับใช้การกำหนดความมั่นคงแห่งชาติและการห้ามของรัฐบาลกลางต่อ Anthropic และโมเดล Claude AI ของบริษัท
- ทำไมเพนตากอนจึงกำหนดให้ Anthropic เป็นความเสี่ยงของห่วงโซ่อุปทาน? DoD ต้องการใช้ Claude AI อย่างไม่จำกัด รวมถึงเพื่อการเฝ้าระวังจำนวนมากและอาวุธอัตโนมัติ และติดป้ายว่า Anthropic เป็นความเสี่ยงของห่วงโซ่อุปทานหลังจากที่บริษัทปฏิเสธที่จะเอาข้อจำกัดด้านความปลอดภัยเหล่านั้นออก
- คำสั่งห้ามมีผลบังคับใช้ในขณะนี้หรือไม่? คำสั่งห้ามถูกพักไว้เป็นเวลาเจ็ดวันนับจากวันที่ 26 มีนาคมเพื่อให้รัฐบาลยื่นอุทธรณ์ฉุกเฉิน ซึ่งหมายความว่าจะไม่มีผลจนกระทั่งประมาณวันที่ 2 เมษายน 2026
- ต่อไปจะเกิดอะไรขึ้นในคดี Anthropic กับเพนตากอน? คดีดำเนินต่อไปในเนื้อหาสาระ การกระทำที่เกี่ยวข้องยังคงรอดำเนินการใน D.C. Circuit และรัฐบาลทรัมป์อาจขอการบรรเทาทุกข์ฉุกเฉินจากศาลอุทธรณ์เขตที่เก้าก่อนที่การพักจะหมดอายุ
แหล่งที่มา: https://news.bitcoin.com/federal-judge-blocks-pentagon-from-labeling-anthropic-a-national-security-threat/




