MADRID, 26 (Portaltic/EP)
PUBLICIDAD
PUBLICIDAD
La Comisión Europea planteó la Ley de Inteligencia Artificial en el año 2021, momento en que los legisladores europeos advirtieron que la tecnología podría "brindar una gran cantidad de beneficios económicos y sociales", pero también "nuevos riesgos o consecuencias negativas para las personas o la sociedad", tal y como recuerda The Verge.
El Parlamento Europeo aprobó en junio de este año el borrador de esta ley, que además de para regularla, nace con el objetivo de explicar qué es realmente la IA, estableciendo una serie de líneas maestras. Entonces, se determinó que se trabajaría en ellas durante este año y el siguiente, a fin de tenerla lista en 2025. "Debería terminar este año y entrar en vigor en dos a cinco años", puntualizó la asesora principal de Políticas de la Asociación Europea de Derechos Digitales, Sarah Chander, a este medio.
En este primer proyecto de mandato de negociación para las primeras normas de la historia para este campo de la tecnología se redefinen y armonizan las pautas integradas en el texto ya existente del reglamento europeo sobre IA, incluyendo nuevas enmiendas con normas de transparencia y gestión de riesgo para estos sistemas.
Los miembros del Parlamento Europeo aprobaron en junio algunas enmiendas que incluían las propuestas que se deseaban integrar en la nueva Ley, a fin de grantizar que los sistemas de IA cuenten con la supervisión de personas, sean transparentes, respetuosas con el medio ambiente y que eviten la discriminación, entre otras medidas.
La Ley de IA de la UE ha sido criticada porque no abarca todos los servicios que se basan en esta tecnología e introduce definiciones demasiado generales. Asimismo, compañías dedicadas a estos productos han comentado que, aunque "puede regular los proyectos 'open-source' comerciales, sería incompatible con las ptácticas de desarrollo de código abierto".
Así lo ha dicho el gerente senior de Políticas de GitHub, Peter Cihon, que ha insistido en que esta regulación también sería contraria a las necesidades de los desarrolladores autónomos y las organizaciones sin fines de lucro.
"La Ley podría perjudicar el desarrollo de la IA de código abierto y, por lo tanto, podría socavar sus objetivos de promover la innovación responsable en línea con los valores europeos", ha matizado este responsable.
En este sentido, conviene recordar que el 'software' de código abierto es aquel desarrollado y mantenido a través de una colaboración abierta y generalmente gratuita, para que cualquiera lo pueda utilizar, modificar o redistribuir a su manera.
Estos sistemas 'open-source' contrastan, por tanto, con aplicaciones de 'software' propietario o de código cerrado, como pueden ser los programas de Microsoft o Adobe. En estos casos, son sus creadores o titulares de sus derechos de autor quienes venden sus productos a los usuarios finales, sin que estos puedan editarlos o compartirlos.
Para explicar los riesgos a los que se exponen los servicios 'open-source' con una ley que está más pensada para este otro tipo de 'software' de código cerrado, GitHub se ha unido a otras organizaciones como Creative Commons, EleutherAI, Hugging Face, LAION y Open Source, para lanzar el documento 'Apoyo al código abierto y la ciencia abierta en la IA Act'.
Con este, las compañías miembro de esta coalicción esperan que "sirva como un recurso" para los legisladores que trabajan en la regulación de esta tecnología y "apoyen el floreciente ecosistema de IA de código abierto".
GARANTIZAR UNA IA BENEFICIOSA PARA SERVICIOS 'OPEN-SOURCE'
Los firmantes insisten en este documento que las propuestas de la actual ley "amenazan con crear barreras poco proactivas y desventajas para los contribuyentes de este ecosistema abierto" con respecto a otras empresas que desarrollan la IA bajo un sistema cerrado y patentado.
En esta línea, GitHub, Creative Commons y el resto de empresas insisten en que la naturaleza de sus sistemas de código abierto se contrapone a lo que busca regular la Ley de IA, debido a que el proyecto de ley solo plantea el intercambio de servicios y componentes tecnológicos como algo comercial.
"El desarrollo colaborativo de componentes de IA de código abierto implica ponerlos a disposición de otros para que los estudien y modifiquen. Este proceso incluye compartir los componentes en repositorios abiertos. Ninguna de estas actividades se debe interpretar erróneamente como actividades comerciales sujetas a las regulaciones del mercado y considerarse como la comercialización de los componentes", se matiza en este documento.
Los firmantes también defienden que la nueva ley debe permitir el uso de tecnología de código abierto para llevar a cabo pruebas "en condiciones del mundo real", ya que el actual proyecto "parece impedirlo".
"Si bien reconocemos que el propósito de esta disposición es evitar la creación de un vacío legal, creemos que si se adopta en la forma actual, osbtaculizará significativamente la investigación y el desarrollo", se añade en este escrito.