Los empleados de la compañía enviaron una carta de protesta a Sundar Pichai por su colaboración militar con el Pentágono.
Google está con una polémica por estos días entre su jefatura y sus empleados, ya que a través de una carta un grupo de trabajadores de la empresa le pidió al CEO Sundar Pichai que no colabore más con el Pentágono y el Departamento de Defensa de Estados Unidos en la utilización de inteligencia artificial para interpretar imágenes de video y poder usar mejora la selección de ataques con drones.
Según destaca el New York Times en un informe, ya van más de 3.100 firmas para que se detenga la colaboración de IA militar en el Project Maven.
"Creemos que Google no debería estar en el negocio de la guerra", dice la carta, dirigida a Sundar Pichai, director ejecutivo de la compañía, y anuncie una política de que "nunca construirá tecnología de guerra".
La carta de los empleados de Google
En la carta además se hace alusión según el NYT al lema de la empresa "Do not be evil"y a hacer frente a las palabras del secretario de Defensa, Jim Mattis, quien apeló al patriotismo para usar Project Maven.
Los empleados de Google han realizado varias peticiones de protesta sobre una variedad de temas, incluido Google Plus, el competidor más rezagado de la compañía en Facebook, y el patrocinio a la Conferencia de Acción Política Conservadora.
Los empleados hicieron preguntas sobre la participación en Project Maven en una reciente reunión de toda la compañía. En ese momento, Diane Greene, quien lidera el negocio de infraestructura en la nube, defendió el acuerdo y trató de tranquilizar los ánimos.
Si bien se ha dicho que la intención es que la IA de la compañía no crearía un sistema autónomo de armas que podría disparar sin un operador humano, un análisis mejorado del video de drones demuestra que esto podría usarse para identificar objetivos humanos para ataques, al tiempo que identificaría mejor a los civiles para reducir el asesinato accidental de personas inocentes.
Sundar Pichai declaró sobre el tema que, "cualquier uso militar del aprendizaje automático naturalmente plantea preocupaciones válidas. Estamos activamente comprometidos en toda la empresa en una discusión exhaustiva de esto".
Por otro lado, la empresa dijo que el Pentágono estaba usando este "software de reconocimiento de objetos de código abierto disponible para cualquier cliente de nuestra plataforma Cloud" y basado en datos no clasificados. "La tecnología se usa para marcar imágenes para su revisión humana y tiene como objetivo salvar vidas y salvar a la gente de tener que hacer un trabajo muy tedioso".
Google está con una polémica por estos días entre su jefatura y sus empleados, ya que a través de una carta un grupo de trabajadores de la empresa le pidió al CEO Sundar Pichai que no colabore más con el Pentágono y el Departamento de Defensa de Estados Unidos en la utilización de inteligencia artificial para interpretar imágenes de video y poder usar mejora la selección de ataques con drones.
Según destaca el New York Times en un informe, ya van más de 3.100 firmas para que se detenga la colaboración de IA militar en el Project Maven.
"Creemos que Google no debería estar en el negocio de la guerra", dice la carta, dirigida a Sundar Pichai, director ejecutivo de la compañía, y anuncie una política de que "nunca construirá tecnología de guerra".
La carta de los empleados de Google
En la carta además se hace alusión según el NYT al lema de la empresa "Do not be evil"y a hacer frente a las palabras del secretario de Defensa, Jim Mattis, quien apeló al patriotismo para usar Project Maven.
Los empleados de Google han realizado varias peticiones de protesta sobre una variedad de temas, incluido Google Plus, el competidor más rezagado de la compañía en Facebook, y el patrocinio a la Conferencia de Acción Política Conservadora.
Los empleados hicieron preguntas sobre la participación en Project Maven en una reciente reunión de toda la compañía. En ese momento, Diane Greene, quien lidera el negocio de infraestructura en la nube, defendió el acuerdo y trató de tranquilizar los ánimos.
Si bien se ha dicho que la intención es que la IA de la compañía no crearía un sistema autónomo de armas que podría disparar sin un operador humano, un análisis mejorado del video de drones demuestra que esto podría usarse para identificar objetivos humanos para ataques, al tiempo que identificaría mejor a los civiles para reducir el asesinato accidental de personas inocentes.
Sundar Pichai declaró sobre el tema que, "cualquier uso militar del aprendizaje automático naturalmente plantea preocupaciones válidas. Estamos activamente comprometidos en toda la empresa en una discusión exhaustiva de esto".
Por otro lado, la empresa dijo que el Pentágono estaba usando este "software de reconocimiento de objetos de código abierto disponible para cualquier cliente de nuestra plataforma Cloud" y basado en datos no clasificados. "La tecnología se usa para marcar imágenes para su revisión humana y tiene como objetivo salvar vidas y salvar a la gente de tener que hacer un trabajo muy tedioso".