En el contexto de una competencia cada vez más aguda en el campo de la inteligencia artificial (IA), las empresas están revisando sus políticas sobre el uso de esta tecnología. OpenAI previamente eliminó ciertos términos de uso que prohibían aplicaciones militares de sus algoritmos, un movimiento seguido de cerca por un acuerdo con el Pentágono. Recientemente, Google ha realizado cambios significativos en sus “principios para la IA”, suprimiendo la sección que delineaba “Aplicaciones de la IA que no vamos a abordar”, donde se excluían usos específicos de la IA para garantizar un desarrollo responsable, como la creación de tecnologías dañinas en general o aquellas destinadas a causar daño directo a personas.
La eliminación de esta sección ha sido interpretada como una señal de que Google podría estar abriendo la puerta a colaboraciones en el ámbito militar o de defensa. Aunque Google ha publicado una declaración reafirmando su compromiso con el desarrollo responsable de la IA y destacando la evolución constante del debate sobre la implementación y usos de la IA, no ha anunciado específicamente nuevos contratos de defensa.
Es importante recordar que Google ya tuvo una participación controvertida con el Pentágono a través del proyecto Maven, en el cual utilizaba IA para procesar datos de drones, entre otras aplicaciones militares. Esta colaboración terminó después de protestas de los empleados de Google, mostrando la tensión entre los valores éticos de sus trabajadores y las oportunidades de negocio en el sector de defensa. La situación actual refleja tanto los desafíos éticos como las presiones competitivas en el desarrollo y aplicación de la IA, marcando un momento de reflexión sobre el equilibrio entre la innovación tecnológica y la responsabilidad social.
