Regulación de IA: un debate global

La regulación de la inteligencia artificial preocupa en Europa y Estados Unidos generando diversos debates sobre protección de datos y derechos humanos.
ebiz

ebiz

Tanto en Europa, como en Estados Unidos, se vienen discutiendo distintas opciones de regulación sobre las herramientas que utilizan Inteligencia Artificial buscando que se logre una adecuada protección de los datos personales y se respeten los derechos humanos de los ciudadanos.

La Inteligencia Artificial (IA) ya es parte de nuestras vidas. Más allá de las interacciones con ChatGTP, que simulan muy bien una conversación humana, estas herramientas permiten programar software, resolver emergencias en una planta, advertir sobre plagas en los cultivos, diseñar productos, editar videos, resumir PDFs y hasta hacer presentaciones. Y no solo eso, responden los exámenes de los abogados en las universidades mejor que los alumnos homo sapiens.

En su quehacer, estas herramientas consumen energía eléctrica y dan trabajo a muchos ingenieros, pero también implican el reemplazo de personal en diversas labores. Los debates en torno a su uso van, sin embargo, mucho más allá. Tal como lo planteaban los libros y películas de ciencia ficción en el pasado, el encuentro de opiniones se centra en las implicancias éticas y legales que implican su uso.

Las preocupaciones abarcan varios aspectos. Por un lado, están los derechos humanos a la libertad, la privacidad de los datos personales y la expresión de opiniones. Por otro los derechos de autor. En todos estos casos, mal empleada, terminará coaccionando la voluntad al manipular a las personas, o discriminándolas por su aspecto físico. Como destaca Erick Iriarte, CEO de eBIZ, el instrumento tecnológico es construido por otras personas, y si estas personas colocan sesgos (con intención o sin ella) para el análisis de la información, o para la construcción de las bases de datos que emplea la IA, termina generando algo perjudicial. “La tecnología no es buena ni mala, pero nunca es neutra”, advierte.

Banner-campaña-isométrico-2a
Banner-campaña-isométrico-2b
Banner-campaña-isométrico-c
Banner-campaña-isométrico-d

Hasta ahora, los derechos y deberes son humanos y es a ellos a quienes se les atribuye la responsabilidad de lo que las maquinas que ellos construyeron hacen o dejan de hacer. Por eso las empresas deben estar conscientes de la responsabilidad jurídica que tienen las máquinas que producen. Pero no es momento de lamentos. Iriarte considera que en lugar de asustarse por lo que la IA puede hacer, toca reaccionar con prontitud, actualizar las legislaciones y tomar acciones para avanzar al ritmo de la tecnología, aprovechando la inteligencia artificial en favor de la humanidad.  

Debate europeo 

Según reportaron las agencias de noticias internacionales, hace pocas semanas el Consejo de Europa, que incluye países que no forman parte de la Unión Europea, urgió a sus miembros a tener una «actitud proactiva» en el uso de la IA con la meta de promover la protección de los Derechos Humanos de los ciudadanos, en vez de dejar esa tarea en manos de las empresas privadas. Se amplían las recomendaciones del 2019 y pide a los Estados dejar de ser sólo “reactivos”. 

A nivel de la Unión Europea (UE) ya se está trabajando una ley. En abril del 2021 la Comisión Europea (CE) presentó un paquete de medidas sobre IA que incluye una propuesta para regular la IA en la UE. Tras varias discusiones, se hicieron modificaciones al texto que ahora están en debate en el Parlamento Europeo.   

Hasta ahora, los derechos y deberes son humanos y es a ellos a quienes se les atribuye la responsabilidad de lo que las maquinas que ellos construyeron hacen o dejan de hacer. Por eso las empresas deben estar conscientes de la responsabilidad jurídica que tienen las máquinas que producen.

La propuesta adopta un enfoque basado en riesgos. Esto significa que los sistemas o aplicaciones de IA se clasificaran como de riesgo inaceptable, alto, limitado o mínimo. Los sistemas de riesgo inaceptable estarían prohibidos y los de alto riesgo estarían sujetos a obligaciones estrictas relativas a la calidad de los datos utilizados, la documentación técnica, el mantenimiento de registros, la transparencia, el suministro de información a los usuarios, la supervisión humana y la ciberseguridad. 

Quienes critican este modelo en el debate sostienen que cualquier intento de categorización deberá ser lo suficientemente flexible y dinámico para adaptarse a los nuevos sistemas, que evolucionan de forma muy veloz. Sin dicha flexibilidad existe un alto riesgo de que se produzcan violaciones de los derechos humanos que serán imposibles de prevenir, advierten. La labor de protección recae tanto sobre la sociedad y las empresas, como en los gobiernos, que deben tener un mínimo de principios por respetar, pero no como un pantalón unisex de talla única, que no sirve para todos, sino a medida de cada industria o sector.  

En la práctica, ya se han realizado algunas acciones concretas. Puntualmente en Italia, su órgano de protección a la privacidad ha prohibido temporalmente ChatGTP porque le preocupa el almacenamiento masivo de datos que posee. Otros países de la región, como Alemania y Francia están estudiando el tema y evalúan tomar acciones similares.   

Otras legislaciones en marcha 

En Estados Unidos también se han realizado algunas acciones. la Casa Blanca en Estados Unidos presentó una ‘Declaración de derechos de IA’. No es una ley, sino una serie de sugerencias que esperan sean consideradas al crear un marco legal. Incluyen cinco principios para proteger a los humanos, que van desde cuidar la seguridad de los sistemas a emplearse, hasta evitar la discriminación algorítmica por raza o sexo y cuidar la privacidad de los datos que manejen dichos sistemas. También se establece que se debe dar a los ciudadanos la opción de no participar en dichos sistemas.  

Esta declaración va a tono con la recomendación emitida por la Unesco en 2021 para sus países miembros. En su escrito proponen criterios para reducir los riesgos que conlleva el uso de la IA al tiempo de potenciar su uso como ayuda en la consecución de los Objetivos de Desarrollo Sostenible (ODS). Se abordan cuestiones relativas a la transparencia, la rendición de cuentas y la privacidad, con capítulos políticos orientados a la acción sobre la gobernanza de los datos. 

Como consecuencia de esto, un grupo de seis empresas de robótica ya firmó una declaración en la que aseguran que sus productos no servirán para uso bélico. Boston Dynamics, Agility RoboticsANYboticsClearpath Robotics, Open Robotics y Unitree Robotics se han comprometido a no armar robots de movilidad avanzada o desarrollar software que pueda tener un uso potencial en armas.  

Pero no son las únicas reacciones. A nivel de legislación especializada hay avances en temas relativos al derecho de autor. Si una IA crea una ilustración o te responde sobre una consulta con un texto, ¿Quién tiene los derechos? ¿El que lo solicitó o el creador del software? La Organización Mundial de la Propiedad Intelectual ha celebrado varias sesiones centradas en el tema, dado que ya hay solicitudes de patente que han sido rechazadas en diferentes jurisdicciones porque las leyes aplicables establecen que los inventores deben ser humanos, no programas inteligentes.    

Por lo pronto, la Oficina de Derechos de Autor de los Estados Unidos (USCO, por sus siglas en inglés) concluyó que ciertas imágenes generadas por IA no estaban sujetas a la protección de los derechos de autor, ya que no eran “obras de autor” originales. La USCO examinó imágenes creadas por Midjourney y determinó que las instrucciones no determinaban el resultado de forma suficientemente significativa, pero aclaró que su resolución se basaba solo en los hechos de este caso, dejando la puerta abierta a otros programas de IA. La política de la institución establece que se evaluará si es producto de la concepción mental original de un autor humano. Y eso es solo el principio de un largo viaje de variaciones legales por recorrer.

ÚLTIMAS NOTICIAS

NOTICIAS RELACIONADAS