El Proyecto Maven de Google fue arriesgado desde sus inicios. Que una de las empresas tecnológicas más poderosas del mundo se implicara en un proyecto militar para mejorar la precisión de los ataques del Departamento de Defensa de Estados Unidos tenía demasiadas implicaciones éticas.
Pero el viernes pasado Diane Greene, una alta ejecutiva de la compañía, declaró que la firma no renovará el contrato, el cual termina en marzo de 2019.
Y es que la polémica se había incrementado en los últimos meses. Más de 3.000 de sus empleados le pidieron en una carta abierta a principios de abril que se cancelara el proyecto.
En ella expresaban sus temores ante lo que consideraban el primer gran paso en el uso de la inteligencia artificial para fines letales:
"Creemos que Google no debería participar en el negocio de la guerra", aseguraban. También decían que esta iniciativa ignora la "responsabilidad ética y moral" . Y a mediados de mayo una docena empleados renunciaron en protesta por el proyecto Maven.
Parece ser que Google lo tuvo en cuenta, pues, según Greene, la empresa no extenderá su contrato a causa de las fuertes "reacciones", negativas para la empresa.
A pesar de las declaraciones de Greene -quien es la responsable del área de negocios en la nube- algunos tienen dudas.
Kate Conger, una periodista del sitio de noticias tecnológicas Gizmodo, le dijo a la BBC que cree que Google seguirá trabajando en el entorno militar a pesar de la controversia.
Greene dijo que el contrato con el Pentágono le aportará a Google unos US$9 millones -una suma relativamente pequeña- pero muchos piensan que podría implicar una cooperación mucho mayor en el futuro.
El Proyecto Maven incluye el uso de aprendizaje automático y talento de ingeniería para distinguir personas y objetos en videos de drones.
También supone la creación de un software de código abierto (el que se fabrica bajo una licencia que permite su uso, modificación y redistribución) y algoritmos de aprendizaje automático.
El objetivo final es crear un sofisticado sistema con el que se puedan vigilar ciudades enteras.
De acuerdo con un informe publicado en Gizmodo que cuenta con tres fuentes internas de Google, el principal problema radica en que el liderazgo de la compañía en el desarrollo de estas tecnologías entró profundamente en conflicto con los intereses militares.
Una serie de emails internos a los que también tuvo acceso el diario estadounidense The New York Times sugieren que algunos ejecutivos vieron el contrato como una enorme oportunidad, mientras que a otros les preocupaba cómo pudiera percibirse su implicación en este tipo de actividades si se hacían públicas.
Pero eso no fue todo.
"Para poder llevar a cabo del Proyecto Maven, Google Cloud (el sistema de servicios en la nube) se enfrentaba a un desafío", se lee en el informe de Gizmodo.
"La empresa necesitaría usar imágenes recabadas de drones militares para construir sus modelos de aprendizaje automático, pero le faltó la autorización oficial del gobierno para poder almacenar datos sensibles de ese tipo en su nube", añaden.
Esa autorización, conocida como FedRAMP, establece los estándares de seguridad para servicios en la nube contratados por el gobierno. Pero Google no la tenía, por lo que debía confiar en otras imágenes geoespaciales para llevar a cabo las fases iniciales del proyecto.
Sin embargo, continúa el reporte, a finales de marzo de este año, la directora de Seguridad, Confianza y Privacidad de Google Suzanne Frey anunció que la compañía había obtenido una autorización "provisional" .
Y esa autorización no solo era fundamental para el Proyecto Maven, sino también para obtener nuevos contratos gubernamentales.
Google se aseguró el contrato en septiembre y hasta la fecha cedió más de diez puestos de trabajo para este proyecto. Entre las empresas que competían figuran IBM, Amazon y Microsoft.
Uno de los puntos del contrato establecía que el nombre de la empresa colaboradora no fuera mencionado públicamente sin su permiso.
El escrito legal dice que "Maven es un gran programa gubernamental que resultará en una mayor seguridad para ciudadanos y naciones a través de la rápida identificación de males tales como las actividades de violencia extremista o los abusos a los derechos humanos".
También asegura que "aportará mejoras en seguridad y protección en todo el mundo".
Pero Google se ha enfrentado últimamente a ciertos problemas relativos a la privacidad de datos que podrían repercutir en su imagen y ser agravados por esta colaboración.
La empresa planea lanzar un documento la próxima semana sobre sus principios éticos en el uso de inteligencia artificial en el que se espera que aclare su posición a este respecto.
Ahora puedes recibir notificaciones de BBC News Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.