Los legisladores en Europa aprobaron el miércoles el primer conjunto de reglas integrales del mundo para la Inteligencia Artificial (IA), franqueando un obstáculo clave mientras las autoridades de todo el mundo se apresuran para controlarla.
PUBLICIDAD
La votación del Parlamento Europeo es uno de los últimos pasos antes de que las reglas se conviertan en ley, y podría servir de modelo para otros lugares que trabajan en regulaciones similares.
PUBLICIDAD
Un esfuerzo de años por parte de Bruselas para elaborar medidas de seguridad para la IA se ha vuelto más urgente a medida que los rápidos avances en chatbots como ChatGPT muestran los beneficios que puede traer la tecnología emergente y los peligros nuevos que implica.
Este es un vistazo a la Ley de Inteligencia Artificial de la Unión Europea:
¿Cómo funcionan las reglas?
La medida, propuesta por primera vez en 2021, regirá cualquier producto o servicio que utilice un sistema de IA. La ley clasificará los sistemas de IA según cuatro niveles de riesgo, desde mínimo hasta inaceptable.
Las aplicaciones más riesgosas, como para la contratación o la tecnología dirigida a los niños, enfrentarán requisitos más estrictos que incluyen ser más transparentes y utilizar datos precisos.
Dependerá de los 27 estados miembros de la Unión Europea hacer cumplir las reglas. Los reguladores podrían obligar a las empresas a retirar sus aplicaciones del mercado.
En casos extremos, las infracciones podrían generar multas de hasta 40 millones de euros (43 millones de dólares) o el 7% de los ingresos globales anuales de una compañía, que en el caso de empresas tecnológicas como Google y Microsoft podrían ascender a miles de millones de dólares.
¿Cuáles son los riesgos?
Uno de los principales objetivos de la Unión Europea es proteger contra cualquier amenaza de la IA sobre la salud y la seguridad, y proteger los derechos y valores fundamentales.
Eso significa que algunos usos de la IA están absolutamente prohibidos, como los sistemas de “puntuación social” que juzgan a las personas en función de su comportamiento.
También está prohibida la IA que abuse de las personas vulnerables, incluidos los niños, o utiliza la manipulación subliminal que puede resultar en daños, por ejemplo, un juguete interactivo parlante que fomente un comportamiento peligroso.
Las herramientas policiales predictivas, que procesan datos para pronosticar quién cometerá delitos, también quedan fuera.
Los legisladores reforzaron la propuesta original de la Comisión Europea —el poder ejecutivo de la UE— al ampliar la prohibición del reconocimiento facial remoto en tiempo real y la identificación biométrica en público. La tecnología escanea a los transeúntes y usa IA para comparar sus rostros u otros rasgos físicos con una base de datos.
Una enmienda polémica para permitir excepciones en la aplicación de la ley —como encontrar a niños desaparecidos o prevenir amenazas terroristas— no fue aprobada.
Los sistemas de IA utilizados en categorías como el empleo y la educación, que afectarían el curso de la vida de una persona, enfrentan requisitos estrictos, como ser transparentes con los usuarios y tomar medidas para evaluar y reducir los riesgos de sesgo de los algoritmos.
La mayoría de los sistemas de Inteligencia Artificial, como los videojuegos o los filtros de spam, entran en la categoría de riesgo bajo o sin riesgo, dice la comisión.
¿Qué pasa con ChatGPT?
La iniciativa original apenas mencionaba los chatbots, y principalmente sólo requeriría que se etiquetaran para que los usuarios supieran que interactuaban con una máquina. Los negociadores agregaron después disposiciones para cubrir la IA de propósito general como ChatGPT, luego de que explotó en popularidad, y sometió a esa tecnología a algunos de los mismos requisitos que los sistemas de alto riesgo.
Una adición clave es el requisito de documentar minuciosamente cualquier material con derechos de autor utilizado para enseñar a los sistemas de IA cómo generar texto, imágenes, video y música que se parezcan al trabajo humano.
Eso permitiría a los creadores de contenido saber si sus publicaciones de blog, libros digitales, artículos científicos o canciones se han utilizado para entrenar algoritmos que alimentan sistemas como ChatGPT. Entonces podrían decidir si su trabajo ha sido copiado y buscar compensación.
¿Por qué son importantes estas reglas?
La Unión Europea no es un participante importante en el desarrollo de IA de vanguardia. Ese papel lo tienen Estados Unidos y China. No obstante, Bruselas a menudo juega un papel de establecimiento de tendencias con regulaciones que tienden a convertirse en estándares globales de facto, y se ha convertido en pionera en los esfuerzos que tienen como objetivo limitar el poder de las grandes empresas tecnológicas.
El tamaño del mercado único de la UE, con 450 millones de consumidores, hace que sea más fácil para las empresas cumplir que desarrollar productos distintos para regiones diferentes, dicen los expertos.
Pero no se trata simplemente de medidas enérgicas. Al establecer reglas comunes para la IA, Bruselas también trata de desarrollar el mercado al infundir confianza entre los usuarios.
“El hecho de que esta sea una regulación que se pueda hacer cumplir, y que las empresas sean responsables, es significativo” porque otros lugares como Estados Unidos, Singapur y Gran Bretaña solamente han ofrecido “orientación y recomendaciones”, recalca Kris Shrishak, tecnólogo y miembro principal del Irish Council for Civil Liberties (Consejo Irlandés para las Libertades Civiles). “Otros países podrían querer adaptar y copiar” las reglas de la Unión Europea, agrega.
Las empresas y los grupos industriales advierten que Europa debe encontrar el equilibrio adecuado.
“La Unión Europea está decidida a convertirse en líder en la regulación de la Inteligencia Artificial, pero todavía está por verse si liderará la innovación de la IA”, opina Boniface de Champris, gerente de políticas de la Asociación de la Industria de la Computación y las Comunicaciones, un grupo de cabildeo para las empresas de tecnología.
“Las nuevas reglas de IA de Europa deben abordar de manera efectiva los riesgos claramente definidos, y a la vez dar suficiente flexibilidad para que los desarrolladores entreguen aplicaciones de IA útiles en beneficio de todos los europeos”, añade.
Sam Altman, director general de OpenAI, el desarrollador de ChatGPT, expresó su apoyo a algunas medidas de seguridad respecto a la IA y se unió a otros ejecutivos de tecnología para advertir sobre los riesgos que representa para la humanidad. Pero también ha dicho que es “un error establecer una regulación estricta en el campo en este momento”.
Otros tratan de ponerse al día con reglas sobre la IA. Gran Bretaña, que abandonó la UE en 2020, compite por un puesto en el liderazgo de la IA. Su primer ministro, Rishi Sunak, planea organizar una cumbre mundial sobre seguridad de IA este otoño.
¿Qué sigue?
Podrían pasar años antes de que las reglas entren en vigencia por completo. El siguiente paso son las negociaciones a tres bandas que involucran a los países miembros, el Parlamento y la Comisión Europea, que posiblemente enfrenten más cambios a medida que intenten ponerse de acuerdo sobre la redacción.
Se espera la aprobación final antes de que concluya este año, seguida de un período de gracia para que las empresas y las organizaciones se adapten, a menudo de alrededor de dos años.
Brando Benifei, un miembro italiano del Parlamento Europeo que codirige su trabajo sobre la Ley de IA, advirtió que impulsarían una adopción más rápida de las reglas para tecnologías de evolución veloz como la IA generativa.
Para llenar el vacío antes de que la legislación entre en vigor, Europa y Estados Unidos redactan un código de conducta voluntario que los funcionarios prometieron, a finales de mayo, que se redactaría en unas semanas y que podría expandirse a otros “países con una mentalidad similar”.