Alphabet, la empresa matriz de
Google, ha cambiado, reciente y silenciosamente, la declaración de principios éticos relativa al uso su tecnología de inteligencia artificial en aplicaciones militares y de vigilancia, suprimiendo la prohibición que hasta ahora (y desde 2018) impedía usarla en esta clase de casos.
Una versión anterior de los origenes de IA de la compañía, afirmaba que la compañía no desarrollaría armas "u otras tecnologías cuyo propósito más importante o implementación sea causar o facilitar directamente lesiones a las personas", así como aquellas "que recopilen o utilicen información para vigilancia violando las normas internacionalmente aceptadas".
Esos objetivos, ya no se encuentran entre los Comienzos de IA publicados en su sitio web. Esto, claro, ha generado una ola de preocupación entre expertos y organizaciones de la sociedad civil.
La compañía ha suprimido dichas restricciones argumentando que la evolución de la tecnología y la creciente competencia global en IA exigen una revisión de sus principios.
En una publicación firmada por James Manyika, vicepresidente sénior de tecnología y sociedad de Alphabet, y Demis Hassabis, CEO de
Google DeepMind, estos directivos han defendido ese cambio de rumbo alegando la necesidad de que "las democracias lideren el desarrollo de la IA" y de que ésta se utilice para "proteger a las personas, promover el crecimiento global y apoyar la seguridad nacional".