Caitlin Kalinowski, la ahora exjefa de robótica de OpenAI, ha renunciado a su cargo después de trabajar para la compañía durante poco más de un año. Kalinowski citó preocupaciones de que el ejército estadounidense podría utilizar las herramientas de IA de la compañía para vigilancia doméstica y para sistemas automatizados y dirigidos en armas estadounidenses.
La jefa de ingeniería de hardware y robótica de OpenAI, Caitlin Kalinowski, ha dejado la compañía de IA después de prestar servicios desde noviembre de 2024. Kalinowski anunció su renuncia el 7 de marzo, citando preocupaciones sobre un acuerdo alcanzado entre OpenAI y el Departamento de Defensa de EE.UU. en febrero.
El ejército estadounidense utilizará IA para vigilancia doméstica, afirma Kalinowski
Según Kalinowski, su renuncia fue motivada por la intención del Departamento de Defensa de EE.UU. de utilizar herramientas y capacidades de IA para realizar vigilancia de ciudadanos estadounidenses sin supervisión judicial. La exempleada de OpenAI escribió en X que la IA tiene un papel vital que desempeñar en la seguridad nacional.
Explicó que el Departamento de Defensa de EE.UU. tiene la intención de utilizar IA para vigilancia y armas autónomas, una decisión con la que no está de acuerdo. Dijo que su decisión "fue sobre principios, no sobre personas" y que estaba orgullosa de lo que el equipo de OpenAI había construido durante su tiempo en la compañía.
En febrero, el Pentágono estadounidense intensificó las conversaciones con las principales compañías de IA sobre el despliegue de modelos automatizados en sistemas clasificados. Cryptopolitan informó que el Pentágono estaba impulsando conversaciones con Anthropic y OpenAI para incorporar herramientas de IA en redes militares clasificadas.
Emil Michael, el Director de Tecnología (CTO) del Pentágono, dijo en una reunión en la Casa Blanca con líderes tecnológicos que el ejército quiere que los modelos de IA operen tanto en redes clasificadas como no clasificadas sin limitaciones ni restricciones.
Las negociaciones entre el gobierno de EE.UU. y Anthropic chocaron contra un muro ya que sus líderes trazaron líneas firmes de que su tecnología no sería utilizada para operaciones de vigilancia doméstica y sistemas de focalización de armas autónomas. La compañía desafió el ultimátum del Pentágono de eliminar las salvaguardas de IA a finales de febrero.
El CEO de Anthropic, Dario Amodei, mantuvo su posición, negándose a permitir que la tecnología de la compañía se utilizara en expediciones militares. En respuesta, Trump ordenó a todas las agencias federales que dejaran de usar la tecnología de Anthropic a finales de febrero.
OpenAI impuso restricciones al despliegue militar de IA
El departamento de defensa alcanzó un acuerdo con OpenAI que desde entonces ha suscitado críticas. Sam Altman mencionó que el acuerdo parecía bastante oportunista y aclaró que la compañía ha impuesto restricciones sobre cómo se utilizarán sus herramientas de IA en operaciones militares.
Sin embargo, la impugnación de Kalinowski afirma que el anuncio fue apresurado, sin las salvaguardas necesarias en su lugar. Agregó que su salida se basó en preocupaciones de gobernanza, que son demasiado importantes como para apresurarlas.
OpenAI confirmó la salida de Kalinowski en un comunicado, pero afirmó que los vínculos de la compañía con los departamentos de defensa allanan el camino para el uso responsable de herramientas de IA en seguridad nacional.
En febrero, OpenAI anunció que desplegaría una versión personalizada de ChatGPT en la plataforma segura de IA empresarial del Departamento de Guerra llamada GenAI.mil. La compañía señaló que sus colaboraciones con departamentos militares y de defensa se derivan del papel crítico de la IA en la protección de personas y la prevención de conflictos.
La fricción entre el gobierno de EE.UU. y las compañías de IA sobre el avance de la IA militar también ha llevado a que más investigadores abandonen compañías de IA. Uno de los principales investigadores de salvaguardas de Anthropic renunció con una declaración: "El mundo está en peligro."
Otro investigador de OpenAI también renunció a su cargo, diciendo que la tecnología de IA tiene una forma de controlar a los seres humanos que los desarrolladores no pueden entender ni prevenir.
Zoë Hitzig, una exinvestigadora de OpenAI, también dejó la compañía el 11 de febrero. Renunció el mismo día que OpenAI anunció que había comenzado a probar anuncios en su LLM ChatGPT. Afirmó que la compañía de IA estaba cometiendo el mismo error que Facebook había cometido.
Hitzig expresó sus preocupaciones de que el papel único de ChatGPT como confidente para divulgaciones profundamente personales (miedos médicos, problemas de relación, creencias religiosas) hace que la focalización de anuncios sea especialmente arriesgada.
Fuente: https://www.cryptopolitan.com/openai-robotics-boss-resigns-ai-warning/


