MADRID, 18 (Portaltic/EP)
PUBLICIDAD
PUBLICIDAD
La Ley de IA, que entró en vigor hace unos meses en la Unión Europea, se desarrolló bajo un enfoque basado en los niveles de riesgo que presenta la IA, recogidos en tres categorías: los sistemas que suponen un riesgo inaceptable -que están directamente vetados-, los sistemas de alto riesgo y los sistemas de riesgo limitado.
Esto ha hecho que las compañías desarrolladoras de herramientas y soluciones impulsadas por esta tecnología deban especificar cuáles son los usos de la IA que admiten y en qué circunstancias están sujetos a excepciones como la necesidad de contar con un humano.
Es el caso de Google, que ha modificado recientemente sus políticas de uso con una actualización que no introduce ninguna pauta nueva ni cambia la forma en que aplica sus normativa, pero que con ella busca simplificar el lenguaje y categorizar las conductas prohibidas para "que tenga más sentido".
En este sentido, ha optado por declarar "explícitamente" que el uso de sus herramientas para crear o distribir imágenes íntimas sin consentimiento o para comprometer la seguridad facilitando el 'phishing' o el 'malware' no está permitido.
Asimismo, ha añadido un lenguaje que permite tener excepciones para ciertos casos de uso educativos, artísticos, periodísticos o académicos que, de otro modo, podían violar sus políticas.
Google ha compartido la que hasta ahora era su normativa de uso, a fin de contrastarla la actual, que ha entrado en vigor este martes y en la que se añaden diferentes matices y se explica con mayor detalle lo que está prohibido hacer con sus soluciones de IA.
Además de eso, en este apartado de Privacidad y Condiciones se indica que está prohibido realizar actividades peligrosas o ilegales, ni infringir las leyes o los reglamentos aplicables. Esto incluye generar o distribuir contenido que "tome decisiones automatizadas que tengan un impacto perjudicial en los derechos individuales sin supervisión humana", tal y como se indica en su web.
Más concretamente, los asuntos críticos a los que se refiere Google son el empleo, la atención sanitaria, las finanzas, el ámbito legal, la vivienda, los seguros o la asistencia social, entre otros.
Tal y como señalan medios como TechCrunch, el borrador anterior de sus condiciones señalaba una prohibición total de la toma de decisiones de alto riesgo automatizada cuando se empleara alguna de sus herramientas de IA.
No obstante, un portavoz de Google ha señalado que el requisito de supervisión humana siempre ha formado parte de su política "para todos los dominios de alto riesgo". "Estamos recategorizando algunos elementos [en nuestros términos] y pensando en algunos explícitos para ser más claros para los usuarios", ha añadido.
Conviene apuntar que otras compañías desarrolladoras de herramientas de IA, como OpenAI y Anhtropic, cuentan con normas más estrictas que rigen el uso de su IA en la toma de decisiones automatizadas de alto riesgo.
OpenAI, por ejemplo, prohíbe totalmente el uso de sus servicios para decisiones automatizadas relacionadas con el crédito, el empleo, la vivienda, los seguros o la educación. La propietaria de Claude, por su parte, no permite el uso de su IA de forma autónoma en el ámbito jurídico, la atención sanitaria y los serguros, entre otros, sino que exige que haya un profesional cualificado que supervise su trabajo. Asimismo, exige a los usuarios señalar que están utilizando esta tecnología para esos fines.