El periodista especializado en tecnología alertó sobre la integración directa de gigantes tecnológicos con el Pentágono para desarrollar inteligencia artificial con fines militares, lo que genera controversia ética y temor a armas autónomas.
El uso de inteligencia artificial con fines militares volvió a generar alarma global tras conocerse que siete gigantes tecnológicos firmaron acuerdos con el Pentágono para desarrollar herramientas aplicadas a la guerra. Sebastián Di Doménica, periodista especializado en tecnología, explicó que la decisión marca un cambio histórico en la relación entre Silicon Valley y el aparato militar estadounidense.
“Por primera vez hay una integración clara y directa entre las empresas tecnológicas de Silicon Valley y el Pentágono”, señaló. Según detalló, las compañías involucradas son Google, Microsoft, Amazon, Nvidia, OpenAI, Reflection y SpaceX.
El especialista explicó que el objetivo de Estados Unidos es incorporar inteligencia artificial en tareas militares estratégicas como vigilancia, análisis de datos, identificación de objetivos y toma de decisiones en combate. Sin embargo, advirtió que gran parte de esas aplicaciones generan una fuerte controversia ética y tecnológica.
“Quieren poner que las Fuerzas Armadas sean con inteligencia artificial ante todo para diferentes acciones”, sostuvo. Di Doménica remarcó que uno de los principales temores internacionales es el desarrollo de armas autónomas sin supervisión humana. En ese sentido, recordó el conflicto entre la empresa Anthropic y el Pentágono, luego de que la firma se negara a garantizar que su inteligencia artificial no fuera utilizada para vigilancia masiva o armamento autónomo.
“El gran riesgo del uso de la inteligencia artificial para la guerra es la vigilancia masiva y la generación de armas autónomas”, afirmó. Además, alertó sobre la pérdida de control humano en situaciones bélicas. “Se deshumaniza la guerra porque no hay un ser humano detrás sino una máquina que puede llegar a tomar una decisión”, explicó.
El periodista también señaló que distintos ensayos detectaron comportamientos agresivos en sistemas autónomos de inteligencia artificial. “Descubrieron que la inteligencia artificial tenía respuestas excesivamente agresivas”, indicó. Según explicó, un error de identificación o una reacción automatizada podría provocar escaladas militares de gran magnitud. “Un error en un objetivo puede generar una escalada bélica y determinar una guerra por error”, advirtió.
Durante la entrevista, Di Doménica cuestionó la ausencia de mecanismos de control sobre el uso militar de la inteligencia artificial. Aunque Estados Unidos sostiene que existirá supervisión humana y que los desarrollos serán legales, el especialista consideró que el escenario sigue siendo “difuso”. “La legalidad durante la guerra siempre es relativa”, afirmó.
También recordó que el papa Francisco ya había alertado sobre este tema en distintos foros internacionales. “El uso de la IA para la guerra va a deshumanizar la guerra y puede generar enormes riesgos”, citó. Finalmente, Di Doménica pidió mayor debate global sobre el tema y reclamó límites claros para el uso militar de la tecnología. “La sociedad debería exigir que extremen las condiciones de seguridad frente a eso”, concluyó.
