Isabel Alvarez Castro
La IA ha experimentado un crecimiento exponencial, lo que ha generado inquietud sobre su uso acorde con nuestros valores y necesidades. Estados Unidos y Europa se preparan para una legislación ética que contemple los derechos fundamentales y los avances económicos.
Expertos en inteligencia artificial han recomendado en la Universidad Internacional de La Rioja (UNIR) una regulación ética y responsable sobre los avances tecnológicos.
Instituciones y empresas desarrolladoras, de Estados Unidos y Europa, trabajan conjuntamente un “código de conducta” para un correcto uso de la IA, mientras se espera que a comienzos de 2024 entren en vigor las primeras leyes.
Juan Ignacio Rouyet, profesor del Máster Universitario en Gemelos Digitales de la Universidad Internacional de La Rioja (UNIR), aseguró que los usos de la IA han generado una creciente preocupación social y política por lograr que no sobrepase unos límites éticos. “El reconocimiento facial, la vigilancia continua, los sistemas de chat, el arte en campos como la fotografía y la literatura, así como la predicción del comportamiento social han planteado cuestiones éticas y morales que deben abordarse de manera adecuada”.
La IA han generado una creciente preocupación social y política por lograr que no sobrepase unos límites éticos.
Rouyet, quien además es director del think tank por una IA ética “We the Humans”, habló en la openclass “Construir un futuro responsable de la IA”, organizada por UNIR, sobre cómo la Inteligencia Artificial ha experimentado un crecimiento exponencial, y generado inquietud y dudas sobre su uso acorde con nuestros valores y necesidades.
La regulación de la IA es un paso crucial para construir un futuro tecnológico responsable y equitativo. Juan Ignacio Rouyet
“La regulación de la IA es posible y necesaria en nuestra sociedad. Lograrlo y que respete la ética es un desafío que requiere la colaboración de gobiernos, empresas, expertos y la sociedad en su conjunto, pero es un paso crucial para construir un futuro tecnológico responsable y equitativo”, según el experto.
Punto de partida: soft regulation o autorregulación normativa
Por el momento, existen unos estándares y códigos de conducta para el uso de la IA mientras las grandes potencias trabajan para crear una normativa regulatoria.
En este sentido, el vicepresidente del Consejo General de Colegios Oficiales de Ingeniería en Informática (CCII), Juan Pablo Peñarrubia, comentó en UNIR que “en cualquier actividad económica o social tendemos a una regulación legal normativa de carácter esencial obligatoria, y así debe ser también en el caso de la IA”.
Entre julio y noviembre habrá más de 127 reuniones en la Comisión Europea para trabajar sobre la IA y se estima que para el 2024 se apruebe la primera ley europea al respecto.
Estados Unidos y Europa se están preparando para crear leyes que ayuden a los avances económicos. Juan Pablo Peñarrubia.
Según Peñarrubia, “tanto Estados Unidos como Europa se están preparando para crear leyes que ayuden a los avances económicos, al mismo tiempo que analiza los riesgos de la IA y protege los derechos fundamentales para garantizar la seguridad y la transparencia en el uso de estas tecnologías”.
Actualmente hay dos vertientes en la IA que se refieren a la autorregulación normativa: normalización o estandarización y la ética a través de comités, códigos éticos o deontológicos. “Estos dos elementos son necesarios para atender el contexto de la IA a nivel mundial, en el que actualmente hay 3 aproximaciones: la de Estados Unidos, Europa y China”, destacó Peñarrubia.
En Estados Unidos, la National Artificial Intelligence Initiative trabaja coordinando las actividades de investigación, desarrollo y demostración de IA entre las agencias civiles, el Departamento de Defensa y la comunidad de inteligencia.
En el encuentro, Peñarrubia explicó que “la visión de USA es una aproximación de economía y liderazgo con una esencia similar a la de la irrupción de la tecnología informática, con un enfoque económico y liberal, pero con un ingrediente nuevo, la regulación de los riesgos”. Esto viene de las carencias regulatorias de la informática algorítmica y sus consecuencias.
El ámbito europeo tiene una diferencia principal en su visión de la IA respecto a Estados Unidos, la ética a nivel regulatorio. Así lo refleja el documento “Directrices Éticas para una IA confiable” desarrollado por la Comisión Europea.
La fiabilidad de la IA en Europa se centra en que sea lícita, ética y robusta. Juan Ignacio Rouyet.
“La fiabilidad de la IA en Europa se centra en tres directrices: debe ser lícita, es decir, que cumpla con la normativa vigente de las leyes y reglamentos; ética, que garantice el cumplimiento de los principios y valores; y robusta, que no cause daños involuntarios y que tome en cuenta sus consecuencias desde el punto de vista técnico y social”, añadió el profesor del máster de UNIR en su explicación.
La aproximación china es totalmente distinta. Según explicó el vicepresidente del Consejo General de Colegios Oficiales de Ingeniería en Informática, “en 2022 China y Rusia firmaron un acuerdo por una asociación sin límites denominada la IA y el control de internet. Una sociedad con una gran diferencia en el entendimiento de la sociedad y la política al respecto, regulando sus modelos de IA según los valores socialistas, como lo indicaron a través de la prensa en abril de este año”.
Complementariedad entre USA y Europa
“Es normal que exista una inquietud de algo que es una amenaza tan importante”, reflexionó Peñarrubia. A finales de mayo, la UE y Estados Unidos se reunieron para poner de manifiesto la importancia de la colaboración y complementariedad de la regulación en el ámbito de la IA: confianza, uso ético y complementariedad de normalización, aunque sea una regulación suave por el momento.
Es importante un acuerdo en la definición de la IA porque puede afectar a la regulación. Juan Pablo Peñarrubia.
Además, Peñarrubia aclaró que “es importante la definición de IA, porque puede tener regulación y responsabilidades distintas. Hay que concretarlo a nivel jurídico y que se pueda extender a cualquier dispositivo. Si no se define, puede quedar un vacío legal en su aplicación no solo a la informática tradicional, sino algorítmica”.
La regulación de la IA no es como la informática en general, ya que éstas se encuentran cimentadas en una falla técnica y jurídica de la época de la eclosión de la informática clásica, lo que pone en manifiesto las debilidades relacionadas con la ciberseguridad hoy en día.
En este sentido, gracias a la complementariedad y colaboración entre Europa y Estados Unidos, la UE incorporó el término machine based en su definición de IA. Inicialmente Europa hablaba de software, mientras Estados Unidos se refería a la IA como un sistema basado en máquinas, lo que constituye un aspecto más amplio jurídicamente.
“Es necesario pasar de un enfoque más técnico a un enfoque más amplio para concretar a nivel jurídico y que se pueda extender a cualquier dispositivo de IA”, subrayó el experto.
En el contexto de uso y servicio de actividades de la IA y de la ingeniería informática la regulación legal, la normalización y la ética no son estancos, son vasos comunicantes de múltiples dimensiones y es importante entender la interrelación de la regulación y ética en el ámbito de la IA e ingeniería informativa.
Regulación Europea
La UE regula sistemas de alto riesgo. En el caso de la IA, se regularán los usos prohibidos y luego habrá algunas aplicaciones que se legislarán según su uso o aplicación y requisitos. Actualmente se han incorporado en sistemas de alto riesgo sistemas que inciden en la democracia o estado de derecho, esto obedece a la preocupación de la UE por la social concerns y el ethics side.
En este sentido, la UE no tiene competencias exhaustivas. Los estados miembros tendrán competencias exclusivas y ámbitos de acción. Las actividades profesionales y las autoridades nacionales de IA tendrán que supervisar el tema de la sanción y supervisión.
Actualmente, los principios éticos y derechos fundamentales son la base de la regulación que está en macha a espera de que sea aprobada. La Comisión Europea habla de los requisitos claves de la IA en 7 dimensiones: responsabilidad, supervisión humana, solidez, gestión de datos, transparencia, justicia, bienestar social e impacto en el medio ambiente.
- escuela-superior-de-ingenieria-y-tecnologia