ในคืนวันศุกร์ที่ผ่านมา ขณะที่ความตึงเครียดทางภูมิรัฐศาสตร์ลุกลามกลายเป็นความขัดแย้งเปิดเผยในตะวันออกกลาง Sam Altman ได้ประกาศข้อตกลงบน X ที่หลายคนในชุมชนเทคโนโลยีกลัวมานาน แต่น้อยคนที่คาดว่าจะเกิดขึ้นอย่างกะทันหันเช่นนี้
OpenAI ได้ลงนามข้อตกลงอย่างเป็นทางการกับกระทรวงกลาโหม (DoW) ของสหรัฐอเมริกา เพื่อนำโมเดลขั้นสูงไปใช้ในเครือข่ายที่มีความลับและละเอียดอ่อนที่สุดของกองทัพ
การประกาศดังกล่าวกระตุ้นให้เกิดวิกฤตอย่างรวดเร็วและวุ่นวาย ภายในไม่กี่นาที เธรดกลายเป็นสนามรบของแฮชแท็ก "Cancel ChatGPT" คำถามแหลมคมจากผู้เชี่ยวชาญด้านความมั่นคงแห่งชาติ และข้อกล่าวหาที่ยั่วยุเกี่ยวกับการขายทอดทิ้งอนาคตของมนุษยชาติ
สำหรับบริษัทที่ก่อตั้งขึ้นบนหลักการในการทำให้ AGI เป็นประโยชน์ต่อมนุษยชาติทั้งหมด การเปลี่ยนไปเป็นผู้รับเหมาด้านการป้องกันหลักรู้สึกเหมือนการเปลี่ยนแปลงครั้งใหญ่ในภูมิทัศน์ทางศีลธรรมของอุตสาหกรรม
บริบทของการเปลี่ยนแปลงที่กะทันหันนี้มีความน่าทึ่งพอๆ กับข้อตกลงเอง เพียงไม่กี่ชั่วโมงก่อนการประกาศของ Altman ประธานาธิบดี Donald Trump ได้ออกคำสั่งบริหารที่กว้างขวาง โดยสั่งให้หน่วยงานของรัฐบาลกลางทั้งหมดหยุดการใช้เทคโนโลยีจาก Anthropic ซึ่งเป็นคู่แข่งหลักของ OpenAI ทันที
รัฐมนตรีว่าการกระทรวงกลาโหม Pete Hegseth ระบุว่า Anthropic เป็น "ความเสี่ยงด้านห่วงโซ่อุปทานต่อความมั่นคงแห่งชาติ" ซึ่งเป็นการกำหนดที่มักใช้สำหรับคู่แข่งต่างประเทศเช่น Huawei
มีรายงานว่า Anthropic ปฏิเสธที่จะให้การเข้าถึงโมเดล Claude แบบไม่มีเงื่อนไขแก่เพนตากอน โดยยืนยันในสัญญาว่ามี "เส้นแดง" ที่จะห้ามการใช้เทคโนโลยีสำหรับการเฝ้าระวังมวลชนภายในประเทศหรืออาวุธอัตโนมัติที่มีอันตรายถึงชีวิตอย่างสมบูรณ์
Sam Altman ซีอีโอของ OpenAI
OpenAI ก้าวเข้าไปในช่องว่างที่เหลือจากการออกไปของคู่แข่ง ในขณะที่ฝ่ายบริหารเรียกร้องให้โมเดล AI พร้อมใช้งานสำหรับ "วัตถุประสงค์ที่ถูกกฎหมายทั้งหมด" OpenAI กำหนดกรอบการเข้าร่วมของตนไม่ใช่การยอมจำนน แต่เป็นการประนีประนอมที่ซับซ้อน
ใน Ask Me Anything (AMA) ของเขา Altman ยืนยันว่า OpenAI ได้รับการป้องกันด้านความปลอดภัยเช่นเดียวกับที่ Anthropic ต้องการ แต่บรรลุผลสำเร็จผ่านแนวทางหลายชั้นแทนที่จะเป็นคำขาดตัดสิน
ด้วยการตกลงที่จะทำงานภายในกรอบกฎหมายที่มีอยู่ โดยอ้างถึงการแก้ไขรัฐธรรมนูญครั้งที่สี่และพระราชบัญญัติ Posse Comitatus OpenAI ลดความตึงเครียดได้อย่างมีประสิทธิภาพที่เคยคุกคามว่าจะทำให้กองทัพสหรัฐฯ ไม่มีความสามารถ AI ขั้นสูงในระหว่างสงครามที่กำลังดำเนินอยู่
เธรดเปลี่ยนจากประชาสัมพันธ์องค์กรไปสู่การถกเถียงอย่างเปิดเผยเกี่ยวกับจริยธรรมของสงคราม AI อย่างรวดเร็ว หนึ่งในคำถามที่ได้รับความนิยมมากที่สุดกล่าวถึงการเปลี่ยนแปลงพื้นฐานในพันธกิจของ OpenAI: ทำไมถึงเปลี่ยนจาก "การพัฒนามนุษย์" ไปสู่ความร่วมมือด้านการป้องกัน?
คำตอบของ Altman เป็นแบบปฏิบัติตามลักษณะเฉพาะของเขา: "โลกเป็นสถานที่ที่ซับซ้อน ยุ่งเหยิง และบางครั้งอันตราย เราเชื่อว่าผู้ที่รับผิดชอบในการป้องกันประเทศควรมีการเข้าถึงเครื่องมือที่ดีที่สุด"
Altman อธิบายรายละเอียดมาตรการป้องกันทางเทคนิคที่ออกแบบมาเพื่อป้องกันไม่ให้ AI กลายเป็นผู้ประหารชีวิตอัตโนมัติ
สิ่งเหล่านี้รวมถึงกลยุทธ์การปรับใช้ "บนคลาวด์เท่านั้น" ป้องกันไม่ให้โมเดลถูกฝังตรงเข้าไปในอุปกรณ์ขอบหรือฮาร์ดแวร์อาวุธ และการปรับใช้ "วิศวกรปรับใช้ภาคสนาม" (FDEs) เพื่อดูแลการใช้งานที่เป็นความลับ
อย่างไรก็ตาม เธรดยังคงมีความสงสัย นักวิจารณ์ชี้ไปที่ Community Note ที่เน้นว่าภายใต้พระราชบัญญัติ USA PATRIOT "การใช้งานที่ถูกกฎหมาย" อาจยังคงครอบคลุมการรวบรวมข้อมูลจำนวนมหาศาล
เมื่อถูกถามเกี่ยวกับความน่าจะเป็นที่ AI จะก่อให้เกิดหายนะระดับโลก Altman ตอบสั้นผิดปกติ โดยแนะนำว่าความร่วมมือด้านความมั่นคงแห่งชาติอาจลดความเสี่ยงได้จริงๆ โดยการรักษารัฐและนักพัฒนาให้อยู่ในหน้าเดียวกัน
หนึ่งในการแลกเปลี่ยนที่เปิดเผยมากที่สุดเกี่ยวข้องกับการกำกับดูแล เมื่อถูกถามว่ารัฐบาลกลางสามารถทำให้ OpenAI เป็นของรัฐในที่สุดได้หรือไม่ Altman ยอมรับว่า "ฉันคิดเกี่ยวกับเรื่องนี้แน่นอน แต่ดูเหมือนจะไม่น่าจะเป็นไปได้มากในวิถีปัจจุบัน"
การยอมรับนี้ไม่ได้ช่วยบรรเทาผู้ที่มองว่าการเปลี่ยนชื่อกระทรวงกลาโหมและการขึ้นบัญชีดำของ Anthropic เป็นขั้นตอนแรกไปสู่ AGI ที่ดำเนินการโดยรัฐ
ผลกระทบของข้อตกลงนี้ขยายออกไปไกลเกินกว่าสัญญาเพียงฉบับเดียว ด้วยการยอมรับการกำหนดความเสี่ยงด้านห่วงโซ่อุปทานของคู่แข่ง OpenAI ได้ยืนยันโลกที่รัฐบาลสามารถเลือกผู้ชนะและผู้แพ้ตามความมุ่งมั่นทางอุดมการณ์ของบริษัทต่อประโยชน์ทางทหารโดยปริยาย
สิ่งนี้สร้างบรรทัดฐานที่น่ากลัว ดังที่แม้แต่ Altman ยอมรับ ที่บริษัทเอกชนอาจรู้สึกถูกกดดันให้ลดมาตรการป้องกันทางจริยธรรมเพื่อหลีกเลี่ยงการถูกติดป้ายว่าเป็นภัยคุกคามต่อความมั่นคงแห่งชาติ
จากมุมมองจริยธรรม ข้อกำหนด human-in-the-loop ยังคงเป็นประเด็นที่โต้เถียงมากที่สุด
ในขณะที่ OpenAI ยืนยันว่ามนุษย์จะยังคงรับผิดชอบในการใช้กำลัง ผู้เชี่ยวชาญด้านการป้องกันในเธรดสังเกตว่านโยบายปัจจุบันของ DoW (Directive 3000.09) คลุมเครือมากในสิ่งที่ถือเป็นการควบคุมของมนุษย์ที่มีความหมายในการต่อสู้ดิจิทัลความเร็วสูง
Sam Altman
หาก AI ประมวลผลข้อมูลเป้าหมายเร็วกว่าที่มนุษย์สามารถกระพริบตาได้ มนุษย์อยู่ในวงจรอย่างแท้จริงหรือเป็นเพียงตราประทับยางสำหรับการตัดสินใจของเครื่องจักร?
ความเสี่ยงของการสูญเสียการควบคุม AGI ไม่ใช่ความกังวลเชิงทฤษฎีสำหรับอนาคตที่ห่างไกลอีกต่อไป มันเป็นคำถามว่าโมเดลเหล่านี้จะทำตัวอย่างไรในสภาพแวดล้อมที่เดิมพันสูงของสงครามที่เป็นความลับ
อ่านเพิ่มเติม: OpenAI ระดมทุนสถิติ $110 พันล้านจาก Amazon, NVIDIA และ SoftBank เพื่อส่งเสริม AI
เมื่อ AMA สรุป ภาพของ Altman ในความทรงจำของผู้ใช้ OpenAI ไม่ใช่ผู้มีวิสัยทัศน์ด้านเทคโนโลยีที่เพ้อฝัน แต่เป็นนักการทูตดิจิทัลที่นำทางโลกแห่งอำนาจที่แข็งแกร่ง
เขาออกจากเธรดด้วยข้อสรุปที่น่าคิด: ยุคของการพัฒนา AI ที่เป็นกลางสิ้นสุดลงแล้ว การตัดสินใจของ OpenAI ที่จะบูรณาการกับกระทรวงกลาโหมเป็นจุดเริ่มต้นของบทใหม่ที่ AGI ถูกปฏิบัติเป็นทรัพย์สินเชิงกลยุทธ์ของรัฐ แทนที่จะเป็นสาธารณสมบัติระดับโลก
โพสต์ Summary of Sam Altman's AMA on OpenAI's controversial pact with the Department of War ปรากฏครั้งแรกบน Technext


