En una reciente actualización de sus principios de inteligencia artificial (IA), Google ha eliminado una de las restricciones más relevantes de su política anterior: la prohibición expresa de desarrollar armamento o tecnologías destinadas a causar daño a personas. Según un análisis realizado por Noticias Inteligencia Artificial, el cambio implica la eliminación de una sección clave del documento, lo que genera interrogantes sobre la postura ética de la compañía respecto al uso de la IA en ámbitos militares y de vigilancia.
La modificación de la política de Google se alinea con un cambio de tendencia en la industria tecnológica. En 2023, OpenAI también ajustó su postura eliminando ciertas restricciones en su normativa antes de anunciar un acuerdo con el Pentágono. Ahora, Google ha actualizado su marco de principios para la IA, eliminando una categoría específica que detallaba explícitamente las aplicaciones que no se desarrollarían bajo ninguna circunstancia.
Google elimina la lista de aplicaciones prohibidas de su IA
Hasta hace poco, la política de IA de Google incluía una sección titulada «Aplicaciones de IA que no vamos a abordar», donde la empresa detallaba explícitamente los usos que evitaría en sus desarrollos tecnológicos. En esta lista figuraban:
- Tecnologías que puedan causar daño significativo, a menos que los beneficios superaran ampliamente los riesgos.
- El desarrollo de armas o sistemas cuya finalidad principal sea causar daño a personas.
- Sistemas de vigilancia masiva que violen las normas internacionales.
- Aplicaciones contrarias a los derechos humanos y al derecho internacional.
Con la actualización reciente, esta sección ha desaparecido por completo. En su lugar, la nueva versión de los principios de Google menciona únicamente que la empresa trabajará para «mitigar resultados no deseados o dañinos» y «alinearse con principios aceptados del derecho internacional y los derechos humanos», pero sin establecer restricciones explícitas sobre el desarrollo de IA para aplicaciones militares.
¿Por qué Google ha realizado este cambio?
El ajuste en la política de IA de Google se da en un contexto de creciente interés del sector tecnológico en contratos gubernamentales y militares. Aunque la empresa previamente había evitado involucrarse en proyectos con el Departamento de Defensa de EE.UU., en los últimos años ha incrementado su participación en licitaciones de infraestructura tecnológica para organismos de defensa y seguridad.
Proyecto Maven y el precedente de Google
En 2017, Google colaboró con el Pentágono en el Proyecto Maven, una iniciativa que usaba IA para procesar imágenes captadas por drones y ayudar en la identificación de objetivos en zonas de conflicto. La revelación de este acuerdo provocó una protesta masiva de empleados, que denunciaron que la tecnología de Google se estaba utilizando con fines militares. Como resultado, la compañía optó por no renovar el contrato y reafirmó su compromiso de no desarrollar IA para armas.
Sin embargo, el cambio en los principios de IA de Google sugiere una posible apertura a este tipo de colaboraciones en el futuro. En los últimos años, la empresa ha trabajado con gobiernos en proyectos de infraestructura en la nube, análisis de datos y ciberseguridadLas soluciones de ciberseguridad son esenciales en la era di, lo que podría indicar una estrategia más flexible respecto a su participación en defensa.
La respuesta de Google y el debate sobre la ética de la IA
Consultada sobre este cambio en su política, Google respondió con una publicación de blog firmada por James Manyika, vicepresidente senior, y Demis Hassabis, CEO de Google DeepMind. En el documento, la compañía reafirma su compromiso con el desarrollo responsable de la IA, pero evita mencionar de manera directa la eliminación de la restricción sobre armamento.
“Reconocemos la rapidez con la que la tecnología subyacente y el debate en torno al avance, implementación y uso de la IA seguirán evolucionando. Continuaremos adaptando y refinando nuestro enfoque a medida que todos aprendamos con el tiempo.” – Google AI
Si bien la declaración enfatiza la necesidad de una gestión responsable de la IA, no aborda el motivo detrás de la eliminación de la prohibición de aplicaciones militares. Esto ha generado dudas sobre si la compañía está preparando el terreno para nuevos acuerdos con el Pentágono o si simplemente ha optado por una postura menos restrictiva para evitar conflictos en futuras negociaciones.
Implicaciones del cambio en la política de Google
El ajuste en los principios de IA de Google puede tener múltiples consecuencias a corto y largo plazo:
1. Mayor flexibilidad para contratos militares
La eliminación de la restricción contra el desarrollo de armas sugiere que Google podría considerar futuros acuerdos con el Pentágono u otros gobiernos en proyectos de IA con aplicaciones militares. Aunque no necesariamente implique el desarrollo de armas letales, sí abre la puerta a colaboraciones en análisis de datos, seguridad cibernética y automatización militar.
2. Posible reacción de empleados
El antecedente del Proyecto Maven demostró que los empleados de Google tienen una postura crítica sobre la participación de la empresa en iniciativas militares. Si Google avanza en nuevos contratos con el Departamento de Defensa, es probable que se enfrente nuevamente a protestas internas y debates sobre la ética de la IA.
3. Regulación y supervisión gubernamental
A medida que la IA se convierte en un elemento estratégico en defensa y seguridad nacional, es probable que los gobiernos comiencen a imponer regulaciones más estrictas sobre su uso. Tanto en EE.UU. como en la Unión Europea, ya se están discutiendo normas para controlar el desarrollo y aplicación de IA en entornos militares, lo que podría afectar a Google y otras compañías tecnológicas.
4. Impacto en la competencia del sector
Si Google, que previamente se rehusó a colaborar con el sector militar, ahora modifica sus principios, otras empresas tecnológicas como Microsoft, Amazon y OpenAI podrían seguir el mismo camino. Esto abriría una nueva fase de competencia en el mercado de IA para defensa y seguridad, con contratos multimillonarios en juego.
Conclusión: Un cambio estratégico con consecuencias a largo plazo
La eliminación de la restricción sobre el desarrollo de IA para armamento en la política de Google marca un cambio estratégico que podría redefinir su papel en el sector de defensa. Si bien la empresa sigue mencionando el respeto a los derechos humanos y al derecho internacional, la omisión de una prohibición explícita ha generado inquietudes en la comunidad tecnológica y entre expertos en ética de la IA.
En un momento en el que la inteligencia artificial se está convirtiendo en una herramienta clave para la seguridad global, esta decisión de Google podría influir en la postura de otras grandes tecnológicas y en la evolución de la IA en el ámbito militar. Ahora, la atención está puesta en si la compañía anunciará nuevos contratos con el Pentágono y cómo responderán sus empleados ante este cambio de rumbo.
Referencia: IA Google y versión antigua de los principios de IA Google en web archive