El 4 de febrero de 2025, Google anunció una actualización de sus principios éticos sobre la inteligencia artificial (IA), marcando un giro decisivo en su política.
La empresa eliminó un compromiso clave que había asumido en 2018, el cual prohibía el desarrollo de IA destinada a fines militares, especialmente para armas y vigilancia. Este cambio se produce en un contexto en el que la IA se está volviendo cada vez más omnipresente en diversos sectores, incluidos la defensa y la seguridad nacional.
El grupo justifica esta evolución al mencionar un cambio radical en el panorama tecnológico desde 2018. En ese momento, tras protestas internas, Google se había comprometido a no participar en proyectos militares como el programa Maven, destinado a desarrollar drones para el Pentágono. Sin embargo, con la aceleración del uso de la IA, especialmente por parte de regímenes autoritarios, Google consideró que las democracias no podían permitirse quedarse atrás en esta carrera tecnológica mundial.
Una revisión bajo presión geopolítica
El cambio de posición de Google ocurre en un contexto geopolítico cada vez más tenso. La competencia mundial por el liderazgo en materia de IA está en el centro de las preocupaciones, especialmente frente a las inversiones masivas de los países en investigación militar relacionada con la IA.
James Manyika (vicepresidente de investigación) y Demis Hassabis (responsable de la filial Google DeepMind) destacaron que las democracias deben mantenerse a la vanguardia de esta revolución tecnológica para garantizar valores como la libertad y el respeto de los derechos humanos, al mismo tiempo que refuerzan la seguridad nacional.
Esta actualización también llega después de que el presidente estadounidense Donald Trump cancelara un decreto de su predecesor Joe Biden que regulaba el uso de la IA en contextos de seguridad nacional. Esto permitió reducir los requisitos de transparencia para las empresas que desarrollan tecnologías potencialmente riesgosas. Este marco menos estricto ha permitido a los gigantes tecnológicos, incluido Google, fortalecer su colaboración con los gobiernos en proyectos militares y de seguridad.
Una estrategia comercial y competitiva
Algunos expertos y observadores perciben esta revisión de los principios de Google como un intento de alinear sus prácticas con las de sus competidores, como Microsoft y Amazon, que ya han firmado contratos con el Pentágono.
El mercado de la IA militar está en pleno auge, y Google, para no arriesgarse a perder cuota de mercado, parece haber optado por eliminar las restricciones que limitaban su desarrollo en este ámbito. El grupo busca así asegurar que sus productos puedan utilizarse en sectores relacionados con la defensa, respetando los principios de seguridad nacional.
Esta evolución se produce después de que Google enfrentara protestas internas en 2023 por un proyecto de IA destinado al ejército israelí. Aunque surgieron protestas, la empresa continuó acercándose a los gobiernos, deseosa de no quedarse atrás en la carrera mundial por la IA, que se ha convertido en un pilar estratégico en el contexto de crecientes rivalidades geopolíticas.
El impacto en los empleados y la cultura empresarial
En 2018, la política ética de Google había sido fuertemente influenciada por las protestas internas de más de 3,000 empleados. Estos se opusieron al proyecto Maven, que buscaba desarrollar drones militares, temiendo que esta colaboración marcara el inicio de un uso letal de la IA. Desde entonces, el grupo había prometido no desarrollar tecnologías militares, pero esta promesa se derrumba hoy bajo la presión de la geopolítica y los intereses comerciales.
Hoy, la resistencia interna parece más tímida. La mayoría de los empleados parece menos dispuesta a cuestionar a la dirección, especialmente después de las olas de despidos posteriores al Covid. La fusión de intereses comerciales y políticos parece haber erosionado el impulso inicial de los empleados, y la dirección de Google, aunque ha tomado un giro importante, sigue alineada con la tendencia general de las empresas tecnológicas de trabajar mano a mano con los gobiernos, especialmente en un contexto en el que la IA se ha convertido en un pilar de la seguridad nacional.
Un giro decisivo para Google
El cambio de rumbo de Google, al eliminar la prohibición del uso militar de sus tecnologías, marca el fin de una época en la que la empresa se esforzaba por mantener una imagen de responsabilidad social y alineación con valores éticos sólidos. Al eliminar esta sección de sus principios, Google parece embarcarse en un camino más pragmático, influenciado por las dinámicas políticas y comerciales globales.
Este cambio plantea preguntas sobre el futuro de la ética en la tecnología, mientras las fronteras entre el progreso tecnológico y la seguridad nacional se vuelven cada vez más difusas. Google, alguna vez percibido como un modelo de responsabilidad tecnológica, parece ahora conformarse con una lógica en la que la innovación y la colaboración con los gobiernos son primordiales, incluso si eso significa sacrificar algunos principios éticos establecidos.