Vineri seara târziu, pe măsură ce tensiunile geopolitice au escaladat într-un conflict deschis în Orientul Mijlociu, Sam Altman a anunțat pe X un acord pe care mulți din comunitatea tech îl temeau de mult timp, dar pe care puțini se așteptau să se materializeze atât de brusc.
OpenAI semnase oficial un acord cu Departamentul de Război al SUA (DoW) pentru a-și implementa modelele de frontieră în cele mai sensibile rețele clasificate ale armatei.
Anunțul a declanșat imediat o furtună haotică. În câteva minute, discuția a devenit un câmp de bătălie al hashtag-urilor "Cancel ChatGPT", întrebări pointed din partea experților în securitate națională și acuzații incendiare de vânzare a viitorului umanității.
Pentru o companie fondată pe principiul asigurării că AGI beneficiază întreaga umanitate, pivotarea către un contractor principal de apărare s-a simțit ca o schimbare tectonică în peisajul moral al industriei.
Contextul acestei pivotări bruște este la fel de dramatic ca însuși acordul. La doar câteva ore înainte de anunțul lui Altman, Președintele Donald Trump a emis un ordin executiv amplu care îndrepta toate agențiile federale să înceteze imediat utilizarea tehnologiei de la Anthropic, rivalul principal al OpenAI.
Secretarul de Război Pete Hegseth a etichetat Anthropic drept "risc pentru lanțul de aprovizionare pentru securitatea națională", o desemnare de obicei rezervată adversarilor străini precum Huawei.
Se pare că Anthropic refuzase să acorde Pentagonului acces necondiționat la modelele sale Claude, insistând pe "linii roșii" contractuale care ar interzice utilizarea tehnologiei pentru supraveghere în masă internă sau arme letale complet autonome.
Sam Altman, CEO al OpenAI
OpenAI a intrat în vidul lăsat de plecarea rivalului său. În timp ce administrația a cerut ca modelele AI să fie disponibile pentru "toate scopurile legale", OpenAI și-a încadrat intrarea nu ca o capitulare, ci ca un compromis sofisticat.
În Ask Me Anything (AMA) al său, Altman a susținut că OpenAI a asigurat aceleași măsuri de siguranță pe care le căuta Anthropic, dar le-a realizat printr-o abordare cu mai multe straturi, mai degrabă decât un ultimatum.
Prin acceptarea de a lucra în cadrul juridic existent, citând al Patrulea Amendament și Posse Comitatus Act, OpenAI a de-escalat efectiv o confruntare care amenința să lase armata americană fără capacități AI de frontieră în timpul unui război activ.
Discuția a trecut rapid de la PR corporativ la o dezbatere crudă despre etica războiului AI. Una dintre cele mai apreciate întrebări a abordat schimbarea fundamentală în misiunea OpenAI: de ce trecerea de la "îmbunătățirea umană" la colaborarea de apărare?
Răspunsul lui Altman a fost caracteristic pragmatic: "Lumea este un loc complicat, dezordonat și uneori periculos. Credem că oamenii responsabili pentru apărarea țării ar trebui să aibă acces la cele mai bune instrumente disponibile."
Altman a detaliat măsurile de siguranță tehnice concepute pentru a preveni ca AI-ul să devină un executor autonom.
Acestea includ o strategie de implementare "doar în cloud", împiedicând modelele să fie integrate direct în dispozitive edge sau hardware de armament, și implementarea "Inginerilor de Implementare în Teren" (FDE) pentru a supraveghea utilizarea clasificată.
Cu toate acestea, discuția a rămas sceptică. Criticii au indicat o Notă Comunitară care subliniază că sub USA PATRIOT Act, "utilizarea legală" ar putea include totuși colectarea vastă de date.
Când a fost întrebat despre probabilitatea ca AI să cauzeze o catastrofă globală, Altman a fost necaracteristic de scurt, sugerând că colaborarea în securitate națională ar putea reduce de fapt riscul prin menținerea statului și a dezvoltatorilor pe aceeași pagină.
Unul dintre cele mai revelatoare schimburi a implicat guvernanța. Când a fost întrebat dacă guvernul federal ar putea în cele din urmă să naționalizeze OpenAI, Altman a admis: "M-am gândit la asta, desigur, dar nu pare foarte probabil pe traiectoria actuală."
Această admitere a făcut puțin pentru a liniști pe cei care văd rebrandingul Departamentului de Război și includerea pe lista neagră a Anthropic ca primii pași către un AGI condus de stat.
Implicațiile acestui acord se extind mult dincolo de un singur contract. Acceptând desemnarea de risc pentru lanțul de aprovizionare a competitorului său, OpenAI a validat implicit o lume în care guvernul poate alege câștigători și învinși pe baza angajamentului ideologic al unei companii față de utilitatea militară.
Acest lucru stabilește un precedent înfricoșător, după cum a recunoscut chiar și Altman, în care companiile private pot simți presiunea de a-și reduce măsurile de protecție etică pentru a evita să fie etichetate ca o amenințare la securitatea națională.
Din punct de vedere etic, cerința "omului în buclă" rămâne cel mai controversat punct.
Deși OpenAI insistă că oamenii vor păstra responsabilitatea pentru utilizarea forței, experții în apărare din discuție au remarcat că politica actuală a DoW (Directiva 3000.09) este notoriu vagă cu privire la ceea ce constituie un control uman semnificativ în lupta digitală de mare viteză.
Sam Altman
Dacă un AI procesează date de țintire mai repede decât poate clipi un om, este omul cu adevărat în buclă sau doar o ștampilă pentru decizia unei mașini?
Riscul pierderii controlului AGI nu mai este o preocupare teoretică pentru viitorul îndepărtat; este o întrebare despre cum se vor comporta aceste modele în mediul cu miză mare al războiului clasificat.
Citește și: OpenAI strânge suma record de 110 miliarde dolari de la Amazon, NVIDIA și SoftBank pentru a stimula AI
Pe măsură ce AMA s-a încheiat, imaginea lui Altman în amintirile utilizatorilor OpenAI nu era aceea a unui vizionar tehnologic cu ochii în stele, ci a unui diplomat digital care navighează o lume a puterii dure.
El a părăsit discuția cu o concluzie îngrijorătoare: era dezvoltării AI neutre s-a încheiat. Decizia OpenAI de a se integra cu Departamentul de Război marchează începutul unui nou capitol în care AGI este tratat ca un activ strategic al statului, mai degrabă decât un bun public global.
Postarea Rezumatul AMA-ului lui Sam Altman despre pactul controversat al OpenAI cu Departamentul de Război a apărut pentru prima dată pe Technext.


