Los Ángeles.- Google anunció recientemente una revisión de sus normativas éticas sobre la Inteligencia Artificial (IA), eliminando su previo compromiso de no implementar esta tecnología en desarrollos vinculados a armamento o sistemas de vigilancia que infrinjan estándares internacionales o vulneren derechos fundamentales.
Hasta la fecha anterior, la versión que podía consultarse en Internet Archive establecía la exclusión de “tecnologías que causen o puedan causar un perjuicio generalizado”, incluyendo armamento, alineándose así con principios de derechos humanos internacionales.
Las modificaciones y el nuevo enfoque de la empresa respecto a los principios de la IA fueron detallados este martes a través de una publicación en el blog corporativo, firmada por Demis Hassabis, líder de IA en Google, y James Manyika, vicepresidente sénior de tecnología y sociedad en Google.
Según el documento, Google sostiene que “las democracias deben estar al frente en el desarrollo de la IA, siendo guiadas por valores fundamentales como la libertad, la igualdad y el respeto a los derechos humanos”.
Google expresa que es esencial que las empresas, gobiernos y organizaciones que compartan estos valores colaboren en la creación de una IA que defienda al individuo, fomente el desarrollo global y respalde la seguridad nacional.
Esta nueva actualización contemplará medidas como el involucramiento activo del factor humano y el apoyo en la colaboración de los usuarios para asegurarse de que la tecnología se aplique conforme a los “principios ampliamente aceptados del derecho internacional y los derechos humanos”.
creditos de las imagenes de este post: Deultimominuto.net


