¿Leyes para la IA?

ebiz

ebiz


Columnista: Erick Iriarte, CEO de eBIZ

Ley Cero
Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Primera Ley
Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.

Segunda Ley
Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

Tercera Ley
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.


Desde que Asimov planteara estas leyes para los cerebros positrónicos ha transcurrido casi un siglo. Éstas, que han ido evolucionando, se han plasmado también para la Inteligencia Artificial (IA) y, de hecho, son nuestro punto de partida.

Consideremos que una IA no es autogenerada -aún no estamos en Skynet- sino que fue creada por alguien, ya por un programador o un grupo de ellos y, en el mejor sentido, tendrá su impronta, incluyendo sus visiones del mundo y sus propios prejuicios. Así contamos con un instrumento que, aún con la capacidad de aprender, termina tomando como base ciertos límites propios de ese o esos programadores. Por más desarrollada que pueda ser una IA, sigue siendo una construcción humana.

Pero ¿qué pasa si una IA hace una IA? Si las reglas iniciales están claras, similares a las planteadas por Asimov como mandatos imperativos a un cerebro positrónico, las seguirán como si fuera una licencia vírica. El tema está en que, con una generación sin reglas, donde el machine learning no tenga mayores parámetros que la “tendencia” o la “mayor presencia de casos positivos”, podríamos terminar dependiendo de la forma de aprendizaje. Y nos trae de vuelta a preguntarnos cómo aprendemos y, sobre todo, el cómo aprenderá la IA ¿Qué programación para aprender y aprehender tiene dicha tecnología?

¿Puede la IA ser un problema para el derecho de autor o para el arte? ¿la investigación científica se verá afectada por textos no creados por humanos? ¿cómo nos afectará si las IA comienzan a tener “prejuicios” o “tendencias” hacia una visión del mundo en específico? ¿terminará siendo un instrumento discriminador?

Lo cierto es que al momento tenemos más preguntas que respuestas. Pero no significa que sean nuevas preguntas: pueden encontrarse en diversas novelas de ciencia ficción de los últimos 100 años, con visiones pesimistas donde la IA termina llegando a la conclusión que la única manera es eliminar a los humanos, o que, por el contrario, sirve para desarrollar nuestra sociedad, eliminando brechas sociales y diferencias. Probablemente, la IA que tenemos hoy no sea ninguna de las dos, pero queda claro que la visión pro-tecnología olvida que ésta fue hecha por personas con sus propias dimensiones, realidades, miedos y prejuicios.


ÚLTIMAS NOTICIAS

NOTICIAS RELACIONADAS