¿Tecnología para matar? Google elimina su compromiso de no usar IA para armas 🛑🤖
“Eliminar ese compromiso es borrar el trabajo de quienes lucharon por una IA ética”.
– Margaret Mitchell, exdirectora de IA ética en Google (Bloomberg)
El cambio que preocupa al mundo 🌍
Google ha actualizado sus normas éticas sobre inteligencia artificial (IA), eliminando una cláusula clave que prohibía el uso de esta tecnología para el desarrollo de armas y herramientas de vigilancia peligrosas. Esta cláusula, establecida en 2018, aseguraba que la empresa no diseñaría ni desplegaría IA para causar daño directo a las personas o violar normas internacionales de vigilancia.
- 2018: Google establece principios éticos tras protestas de empleados contra el Proyecto Maven del Departamento de Defensa de EE.UU. (The New York Times)
- 2023: Elimina la cláusula que prohibía el uso de IA en armas y vigilancia peligrosa.
¿Por qué el cambio? 🤔
Según Demis Hassabis (jefe de IA de Google) y James Manyika (vicepresidente de tecnología y sociedad), la decisión se debe a la rápida evolución de la tecnología y la competencia global por el liderazgo en IA. Argumentan que las democracias deben liderar este desarrollo, guiadas por valores como la libertad y los derechos humanos.
- Nuevos principios: Innovación audaz, desarrollo responsable y progreso colaborativo.
- Críticas: Expertos como Margaret Mitchell advierten que esto podría permitir el desarrollo de tecnología letal.
¿Qué significa esto para el futuro? 🔮
La eliminación de esta cláusula abre la puerta a que Google colabore en proyectos de defensa y seguridad nacional, lo que ha generado preocupación entre activistas y empleados. En 2018, miles de trabajadores protestaron contra el Proyecto Maven, y algunos incluso renunciaron.
- Proyecto Maven: Programa del Departamento de Defensa de EE.UU. que usaba IA para analizar imágenes de drones (Departamento de Defensa).
- Impacto global: La decisión de Google podría influir en cómo otras empresas abordan la ética en IA.
“Google probablemente ahora trabajará en el despliegue directo de tecnología que puede matar a personas”.
– Margaret Mitchell (Bloomberg)