Google ha actualizado sus principios de inteligencia artificial (IA) eliminando una de las restricciones más relevantes de su política anterior: la prohibición de desarrollar armas con esta tecnología. La modificación ha generado dudas sobre la postura de la compañía respecto al uso de IA en aplicaciones militares y de vigilancia.
Un cambio estratégico en la ética de la IA
En su versión anterior, los principios de IA de Google incluían una sección denominada “Aplicaciones de IA que no vamos a abordar”, en la cual se detallaban los usos que la compañía se comprometía a evitar. Entre ellos figuraban:
- Tecnologías que pudieran causar daño significativo, a menos que los beneficios superaran ampliamente los riesgos.
- Desarrollo de armamento o tecnologías cuya finalidad principal fuera ocasionar daños a personas.
- Sistemas de vigilancia que violaran normativas internacionales.
- Aplicaciones contrarias a los derechos humanos y al derecho internacional.
Sin embargo, esta sección ha desaparecido de la versión más reciente del documento publicado en la web de Google AI. En su lugar, la empresa ha optado por un enfoque más general, mencionando su intención de “mitigar resultados no deseados o dañinos” y “alinearse con principios ampliamente aceptados del derecho internacional y los derechos humanos”. No obstante, el compromiso explícito de no desarrollar armas con IA ha sido eliminado.
Google y la creciente vinculación con la defensa
El cambio en los principios de IA de Google ocurre en un contexto de creciente colaboración entre grandes tecnológicas y gobiernos en el ámbito de la defensa. En el pasado, Google trabajó con el Departamento de Defensa de EE.UU. en el Proyecto Maven, un programa que utilizaba IA para analizar imágenes captadas por drones con el fin de identificar objetivos en zonas de guerra. Sin embargo, tras las protestas internas de empleados, la empresa decidió no renovar su contrato con el Pentágono en 2018.
Desde entonces, Google ha seguido participando en contratos de defensa, proporcionando servicios en la nube a organismos gubernamentales y militares de EE.UU. e Israel. La eliminación de la restricción sobre armamento en sus principios de IA podría indicar una mayor apertura a nuevas colaboraciones en este sector.
Respuestas de Google y preocupaciones sobre la ética en la IA
Consultada sobre este cambio, Google respondió con una publicación firmada por James Manyika, vicepresidente senior, y Demis Hassabis, CEO de DeepMind. En el texto, la compañía reafirma su compromiso con el desarrollo responsable de la IA y la necesidad de adaptación a los cambios en la tecnología y el debate global. Sin embargo, no abordaron directamente la eliminación de la restricción sobre el uso de IA en armamento.
El debate sobre la ética en la IA sigue en aumento, especialmente a medida que la tecnología avanza en capacidades estratégicas y militares. Empresas como OpenAI también han ajustado sus políticas, lo que sugiere un cambio general en la industria hacia una mayor flexibilidad en la relación con gobiernos y fuerzas armadas.
Implicaciones y posibles escenarios
La decisión de Google de modificar sus principios de IA sin explicar claramente el motivo detrás de la eliminación de su compromiso anterior ha generado inquietudes en la comunidad tecnológica y en defensores de los derechos humanos. Entre las principales preocupaciones destacan:
- ¿Mayor involucramiento en proyectos militares? Aunque Google no ha anunciado nuevos contratos de defensa, la eliminación de la restricción puede ser interpretada como una señal de apertura a futuras oportunidades en el sector militar.
- ¿Pérdida de confianza? El cambio podría erosionar la credibilidad de Google en materia de ética en IA, especialmente después de que la empresa se distanciara públicamente del desarrollo de tecnologías con potencial armamentístico.
- ¿Normativas gubernamentales? Con el avance de la IA en el ámbito militar, gobiernos de diferentes países podrían empezar a regular más estrictamente el uso de esta tecnología, estableciendo límites sobre su aplicación en conflictos.
En un contexto donde la IA está transformando la seguridad global, la decisión de Google marca un antes y un después en la postura de las grandes tecnológicas respecto al desarrollo de herramientas con posibles usos bélicos. Ahora, la comunidad internacional observará con atención los próximos movimientos de la compañía en este ámbito.
Referencia: IA Google y versión antigua de los principios de IA Google en web archive