Esta declaración tiene como objetivo sentar unas bases de consenso que guíen a todos los actores que forman parte del grupo Proeduca (profesores, estudiantes, personal de gestión, junta de gobierno, investigadores, etc.) en el uso, aplicación, e incluso desarrollo de soluciones basadas en IA.

Introducción
La humanidad está viviendo una apasionante e imparable transformación digital desde las pasadas décadas. La última fase de este proceso revolucionario es, sin duda, la implantación masiva de servicios, productos y dispositivos que ponen la Inteligencia Artificial (IA) al alcance del gran público, con aplicaciones que pueden utilizarse en contextos cotidianos.
Aunque los orígenes de la Inteligencia Artificial se remontan a los años 50 (Turing, 1950), su adopción masiva y democratización no se han consolidado hasta la última década. Este avance ha sido posible gracias a la combinación del desarrollo de las capacidades de procesamiento de datos unido a la disponibilidad global de grandes volúmenes de datos para alimentar modelos de IA. Actualmente casi la totalidad de dispositivos, programas y sistemas de acceso a la información hacen ya uso de esta tecnología de manera directa o indirecta.
La IA es ya una parte esencial de nuestra vida digital, con aspectos positivos como el tratamiento de datos no estructurados, pero también con riesgos como la introducción de sesgos y la potencial intromisión en la privacidad. Asimismo, la IA también puede aumentar el acceso de información, conocimiento y educación dentro de cualquier sector económico y cultural.
El impacto de la IA ya afecta de manera tangible a todos los sectores productivos, y en los próximos años alterará de manera significativa el mercado laboral, haciendo que algunos empleos desaparezcan, otros nuevos surjan y la inmensa mayoría mute de alguna forma.
Este efecto se está notando ya especialmente en el ámbito educativo, donde la IA tiene el potencial de complementar y/o sustituir muchas actividades docentes y evaluadoras, además de proporcionar al estudiante recursos y herramientas que faciliten su rendimiento académico. En este sentido, las instituciones de Educación Superior deben desempeñar un papel clave para facilitar la transición hacia nuevas demandas de empleo según vayan evolucionando los escenarios laborales y la penetración de la IA.
La Universidad Internacional de La Rioja (UNIR), junto con el resto de universidades y empresas que componen el grupo educativo Proeduca, debe adaptarse a las necesidades de un mundo en constante desarrollo. Por este motivo, como miembros de una institución que produce y transmite conocimiento y cultura, tenemos el reto de conciliar los aspectos más provechosos de la IA con nuestra realidad docente e investigadora.
Esta declaración tiene como objetivo sentar unas bases de consenso que guíen a todos los actores que forman parte del grupo (profesores, estudiantes, personal de gestión, junta de gobierno, investigadores, etc.) en el uso, aplicación, e incluso desarrollo de soluciones basadas en IA. Inicialmente, se proporciona una definición de IA de manera general, así como sus aplicaciones más actuales. A continuación, se describen varias aplicaciones interesantes (pero también de riesgo) de la misma. Por último, se esboza el papel de UNIR a la hora de tratar de convertirse en un modelo de referencia para la aplicación de normativas mundiales sobre IA o cualquier otra tecnología que genere un reto social, a través de su ecosistema centrado en los estudiantes.
¿Qué es realmente la IA?
Para definir la IA, podríamos remitirnos, entre otras muchas, a la interpretación dada por la UNESCO (2021), según la cual, los sistemas de IA son tecnologías de tratamiento de la información que integran modelos y algoritmos y que producen una capacidad de aprendizaje y de realización de tareas cognitivas. Estas conducen a resultados tales como la predicción y la toma de decisiones en entornos materiales y virtuales. Los sistemas de IA están diseñados para funcionar con diversos grados de autonomía mediante el modelado y la representación de conocimientos, así como la explotación de datos y el cálculo de correlaciones.
Otra definición proviene del reputado científico de la computación y uno de los padres de esta disciplina, John McCarthy (McCarthy, 2007), al que alude IBM, una de las multinacionales informáticas referencia en la materia (IBM, 2023): la inteligencia artificial es la ciencia y la ingeniería de la fabricación de máquinas inteligentes, especialmente programas informáticos inteligentes. Está relacionada con la tarea similar de usar ordenadores para entender la inteligencia humana, pero la IA no tiene que limitarse a métodos que son biológicamente observables.
Dentro de la IA existe una especial mención a la IA general o fuerte, que se define como la inteligencia de las máquinas que les permite comprender, aprender y realizar tareas intelectuales de manera muy similar a los humanos (e.g., IA generativa). La AI general o fuerte emula la mente y el comportamiento humano para resolver cualquier tipo de problema complejo (Goertzel, 2007). Una evolución sería el concepto de singularidad y el riesgo asociado, que supondría la eventual superación de la inteligencia humana desde la propia IA, mediante la aplicación recursiva de sí misma (Von Neumann, 1958).
Fundamentos y aplicaciones actuales de la IA
La Inteligencia Artificial se puede aplicar en una amplia variedad de áreas, como el procesamiento del lenguaje natural, la visión por computadora, la robótica, el reconocimiento de voz y muchas otras. El objetivo común a todas ellas es el de realizar tareas de manera autónoma o asistir a los seres humanos en la toma de decisiones y la resolución de problemas. Toda IA podría realizar normalmente, a día de hoy, dos funciones: la clasificación y/o la predicción. A partir de estas dos funciones, existen otras derivadas, como el resumen, la interpretación y la generación de nuevos resultados no inferidos de un histórico.
Un clasificador ordena información nueva en clases o grupos previamente conocidos. Por otro lado, un predictor se refiere a un algoritmo basado en IA que es capaz de generar nuevos valores a partir de un histórico de datos. Ambas funciones se apoyan a su vez en varios fundamentos computacionales complementarios: las redes neuronales, el aprendizaje profundo, el aprendizaje máquina, la extracción de datos y la extracción de características, entre otros.
A partir de todos estos pilares, a lo largo del tiempo se han ido construyendo distintas soluciones más refinadas, especializadas y abiertas al público general (a través de la web, APIs, aplicaciones de escritorio o móvil), como los transformadores generativos pre-entrenados (GPT), el procesado de lenguaje natural (NLP), el reconocimiento de imágenes (típicamente con máquinas de vectores de soporte o SVM), o la inferencia generativa (en imágenes o textos, por ejemplo).
El uso responsable de la IA: un reto para la sociedad, un reto para la universidad
Las tecnologías informáticas, estadísticas, de sistemas de información, de sistemas de comunicación, de redes sociales y robóticas basadas en IA impregnan el panorama digital de manera más extensa de lo que a menudo somos conscientes. En este contexto de uso legítimo, pero indiscriminado de la IA y en el que la humanidad parece unida en torno a una suerte de usufructo irreflexivo de la misma, varias organizaciones de pensadores y activistas han levantado la voz de alarma.
Cabe destacar el caso protagonizado por los fundadores del Future of Life Institute (FLI) (Future of Life Institute, 2023), una carta abierta en la que se aboga por una pausa activa en el desarrollo de la IA para la reflexión en lo que concierne a los grandes despliegues de sistemas de consulta para uso público. Asimismo, resultan de amplia utilización los modelos de caja negra, que resultan inexplorable y altamente no deterministas, lo que puede introducir sesgos imposibles de rastrear y/o resultados altamente erróneos de manera totalmente desapercibida para usuarios y los propios creadores (He & Tao, 2025).
En la actualidad, además, existen otras iniciativas como el marco Directrices éticas para una IA Fiable de la Unión Europea (EU, 2019) o Inteligencia Artificial y educación. Guía para las personas a cargo de formular políticas de la UNESCO (UNESCO, 2021a). Entre ellas, cabe destacar el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) nº 300/2008, (UE) nº 167/2013, (UE) nº 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial) (EU, 2024), más conocido como RIA, que complementa la EU AI Act (EU, 2024, que entró en vigor el 2 de febrero de 2025. El Reglamento establece un marco jurídico uniforme, que recoge una utilización de la IA conforme con los valores de la Unión, centrada en el ser humano, y garantizando un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales. En cualquier caso, el sentido común impone las siguientes limitaciones que todos podemos suscribir: una IA debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables. También ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos. Por último, debe ser robusta, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si estos han sido programados con buenas intenciones, pueden provocar daños accidentales.
Es responsabilidad de cada institución, grupo de interés, colectivo e individuo delimitar el marco de influencia de las tecnologías IA en su ámbito concreto y de auditarse en la aplicación y respeto por la legislación vigente. Este marco puede tener forma de código de conducta, decálogo de directrices, de manifiesto o de declaración de principios. En UNIR, así como en Proeduca, como grupo educativo centrado en el estudiante, se ha optado por este último formato, partiendo de una Declaración para un uso ético de la Inteligencia Artificial en Educación Superior, que a su vez se emplea como punto de partida para plantear una serie de guías prácticas por grupos objetivo, como la Guía Sobre el Uso de IA en Investigación (Proeduca, 2024),
Declaración UNIR 2025 para un uso ético de la Inteligencia Artificial en Educación Superior
El enfoque de UNIR al respecto de la IA puede resumirse en la siguiente declaración, aplicable a cualquier empresa, fundación, universidad o institución de cualquier carácter dependiente de la misma matriz educativa, Grupo Proeduca. El manifiesto se ha confeccionado teniendo en cuenta la documentación, guías y marcos referenciados en este documento. Esta versión de 2025 supone la revisión de la declaración original, publicada en 2023 (UNIR).
Los siguientes principios, compatibles con la legislación vigente, como las Directrices Éticas para una IA Fidedigna (EU, 2019a), el Código de Conducta Europeo para la Integridad en la Investigación (ALLEA, 2023) y el Reglamento IA (EU, 2024). De esta manera, los siguientes principios fundamentan el diseño, desarrollo y aplicación de las soluciones y herramienta de IA en UNIR. No obstante, esta declaración de principios no supone una normativa o una operativa procedimental internas, que se encuentran detalladas en documentos específicos como, por ejemplo, la Guía de uso responsable de IA Generativa en tareas de investigación (Proeduca, 2024)
El orden de la lista no refleja la prioridad de los principios, que se abordan e implementan con el mismo grado de importancia:
- Principio de Contribución Social: se garantizará el alineamiento entre los intereses propios de proyectos científicos y esfuerzos técnicos relacionados con la IA y aquellos de la sociedad, en general o de los sectores donde se aplique, ya sean industriales, educativos, de servicios, o cualquier
- Principio de Equidad: se enfatizará el uso de sistemas IA sin ningún tipo de discriminación de usuario o público objetivo. El uso de productos, tecnologías y servicios IA no estigmatizará, incriminará o discriminará por razón de sexo, etnia, credo, religión, edad, discapacidad, afinidad política, orientación sexual, nacionalidad, ciudadanía, estado civil o estatus socioeconómico, o cualquier otra condición personal, física o social (UNIR, 2020). Se evitarán, por tanto, los sesgos por sectores o cualquier otra categorización, dentro de los márgenes posibles, en la configuración y desarrollo de productos y servicios IA. También se evitará el sesgo algorítmico inherente a esta disciplina a día de hoy, tanto en los desarrollos propios como en los productos IA de terceros y usados en cualquier capa del grupo educativo (gestión ejecutiva, gestión académica, docencia, atención al estudiante, ) Se vigilará que la IA no perpetúe ni amplifique desigualdades existentes, sino que sea una herramienta para fomentar la equidad y la inclusión en la sociedad.
- Principio de Capacitación: se capacitarán en la utilización de sistemas Se está formando a empleados, estudiantes, profesores y otros profesionales para que sigan prácticas responsables en el uso, distribución, divulgación y producción de las tecnologías y servicios basados en IA, coherentes con las normas éticas del grupo. Asimismo, se fomentará la concienciación sobre los mismos, a cualquier nivel, en cualquier sector del ecosistema educativo. Del mismo modo, se formará en los riesgos específicos del uso de IA Generativa para minimizar los posibles efectos negativos en el aprendizaje, la enseñanza y la evaluación.
- Principio de Supervisión Humana: se mantendrán el uso, configuración e implementación de la IA de forma controlada por personal competente, dejando en su juicio la última decisión sobre cualquier aspecto relacionado, sin ser delegado el mismo en sistemas IA que tomen decisiones completamente De esta manera, se garantizará que los usuarios (estudiantes, profesores y personal de servicios) mantengan control activo sobre las decisiones y acciones realizadas con ayuda de la IA, preservando siempre la autonomía y capacidad de decisión humana; es decir, utilizando la IA como herramienta de apoyo, y no como sustituto de la responsabilidad individual.
- Principio de Confidencialidad: se respetarán la seguridad y privacidad de datos en uso y desarrollo de sistemas IA. En el caso de configuraciones de uso de productos propios o externos, y en el caso de desarrollos llevados a cabo dentro del grupo educativo (como productos de investigación o soporte), se respeta la confidencialidad del individuo o corporación y se protege la privacidad de los datos personales, así como de cualquier dato almacenado, recuperado de manera automática o recogido en forma de campo expreso, cumpliendo la política de privacidad del Grupo Proeduca[1] y con la legislación vigente (en concreto, la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales). Del mismo modo, se protegen los datos y documentos de Proeduca contra una exposición externa no consentida.
- Principio de Transparencia e Identificación: se garantizarán la identificación y trazabilidad de los contenidos producidos por IA. Todo sistema de IA generativa desarrollado o utilizado por UNIR indicará claramente su origen artificial y su trazabilidad asociada de manera inequívoca, ya sean imágenes, vídeos, textos o cualquier otro formato o producto.
- Principio de Sostenibilidad: se garantizará que en la selección o desarrollo de sistemas basados en IA se adopte una postura innovadora y colaborativa para minimizar el impacto ambiental y consumo energético. Se procura dejar la menor huella ecológica posible y la aplicación del principio DNSH (No Causar Daño Significativo, por sus siglas en inglés) (EU, 2021a).
Asimismo, esta serie de principios viene supervisada por un sistema de auditoría y seguimiento interno eficaz, adaptado a los requerimientos del Reglamento (UE) 2024/1689, dependiente de un comité multi-disciplinar sobre el desarrollo y uso de procesos, servicios y productos propios (o de integración de ajenos) que evalúa periódicamente el nivel de cumplimiento del compromiso que establece el presente manifiesto, y que sugiere medidas correctivas y transparentes en caso de identificar cualquier desviación significativa.
Alcance e integridad
Desde UNIR, reconocemos el impacto transformador de la IA en nuestro entorno, y somos plenamente conscientes del gran potencial que ofrece para facilitar y potenciar una educación de calidad para todos. UNIR se compromete a utilizar la inteligencia artificial de manera ética y responsable, a potenciar el conocimiento, promover la innovación y beneficiar a la sociedad en su conjunto respetando siempre la legislación vigente.
Asimismo, UNIR fomenta la responsabilidad compartida entre distintas ciencias para que, en una esfera de conocimiento tan interdisciplinar como es la Inteligencia Artificial, se fomente la colaboración ellas, de cualquier ámbito, categoría profesional y escala académica, equilibrando el peso tecnológico inherente a la IA con los posibles ámbitos de actuación compartidos como, por ejemplo, las diversas ramas de las ciencias y de las artes.
El manifiesto aquí expuesto pretende establecer los principios fundamentales que guiarán las decisiones en este vertiginoso campo del saber humano, en todas las universidades, empresas y entidades del Grupo, incluyendo todas las capas y roles que los componen: profesores, investigadores, estudiantes, gestores académicos, consejos directivos, cargos intermedios, expertos y cualquier otro relacionado.
A través de las normativas desarrolladas a partir de este manifiesto y de las actuaciones de los órganos competentes de la universidad (como el Comité de Ética en la Investigación, el Departamento de Compliance, o los Servicios Jurídicos), UNIR fomenta un enfoque centrado en el beneficio de la sociedad, la transparencia y la colaboración, a la vez que promoveremos la ética, la educación, la observación de la legislación vigente y la responsabilidad, en cada paso de su utilización.
Referencias
ALLEA (2023). The European Code of Conduct for Research Integrity. Retrieved July, the 10th, 2023, from https://allea.org/code-of-conduct/
EU (2019). Directrices éticas para una IA fiable. EU Publications. DOI: https ://doi.org/10.2759/14078.
Retrieved July, the 10th, 2023, from https://op.europa.eu/es/publication-detail/-
/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1
EU (2019a). Ethics Guidelines for Trustworthy AI. Retrieved July, the 9th, 2023, from https://knowledge4policy.ec.europa.eu/glossary-item/do-no-significant-harm_en
EU (2021). Regulation of the European parliament and of the council. Laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts. Retrieved June, the 7th, 2023, from https://artificialintelligenceact.eu/the-act/
EU (2021a). Do No Significant Harm. Retrieved July, the 10th, 2023, from https://knowledge4policy.ec.europa.eu/glossary-item/do-no-significant-harm_en
EU (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial), from https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=OJ:L_202401689
Future of Life Institute (2023). Pause Giant AI Experiments: An Open Letter. Retrieved June, 7th, 2023, from https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Goertzel, B. (2007). Artificial general intelligence (Vol. 2, p. 1). C. Pennachin (Ed.) New York: Springer.
He, F., & Tao, D. (2025). Deep Learning: A (Currently) Black-Box Model. In Foundations of Deep Learning (pp. 1-13). Singapore: Springer Nature Singapore.
IBM (2023). What is artificial intelligence?. Retrieved June, the 1st, 2023, from https://www.ibm.com/topics/artificial-intelligence
McCarthy, J. (2007). What is Artificial Intelligence. Computer Science Department, Standford University.
Retrieved June, the 1st, 2023, from http://jmc.stanford.edu/articles/whatisai.html
Proeduca (2024). Guia de uso responsable de IA Generativa en tareas de investigación. Retrieved April, the 1st, 2025, from https://bit.ly/unir-ia
Turing, A. (1950). Computing Machinery and Intelligence. Mind 49, pp. 433-460 UNESCO (2021). Inteligencia artificial . Retrieved June, the 1st, 2023, from
https://www.unesco.org/es/artificial-intelligence
UNESCO (2021a). AI and education. Guidance for policy-makers. DOI: https://doi.org/10.54675/PCSP7350. Retrieved July, the 10th, 2023, from https://www.unesco.org/en/artificial-intelligence
UNIR (2020). Segundo Plan de igualdad UNIR. Retrieved July, the 10th, 2023, from http://research.unir.net/wp-content/uploads/2022/10/PlanIgualdad_UNIR_octubre2020.pdf
UNIR (2023). Declaración UNIR para un uso ético de la Inteligencia Artificial en Educación Superior. Proeduca. DOI: https://doi.org/10.5281/zenodo.10686437
Von Neumann, J. (1958). The computer and the brain. New Haven, Connecticut: Yale university press.
[1] PROEDUCA – UNIR (2019). Cláusulas legales RGPD
Créditos
- Daniel Burgos. Vicerrector de Proyectos Internacionales, Director del Instituto de Investigación UNIR iTED, Catedrático en Tecnologías para la Educación y la Comunicación. Universidad Internacional de La Rioja (UNIR)
Contribuidores (orden alfabético):
- Alonso, Joaquín. Responsable del Servicio de Asistencia Legal a Investigación Internacional. Gestor de proyecto senior. Vicerrectorado de Proyectos Internacionales. UNIR.
- Frías, Enrique. Investigador senior del Instituto de Investigación UNIR iTED, Director de la Cátedra IBM-UNIR en Ciencia de los Datos y Education (2023-2025), Doctor en Informática. UNIR
- González Crespo, Rubén. Vicerrector de Organización y Planificación Académica. Catedrático en Ciencias de la Computación e Inteligencia Artificial, UNIR. Director Académico Global, Proeduca. Editor jefe de la revista científica The International Journal of Interactive Multimedia and Artificial Intelligence (IJIMAI)
- Griffiths, David. Investigador senior del Instituto de Investigación UNIR iTED, Doctor en Cibernética. UNIR
- Moreno Ger, Pablo. Vicerrector de Investigación, Director de la Escuela de Doctorado EDUNIR, Catedrático en Ciencias de la Computación e Inteligencia Artificial. UNIR
- San José, José Carlos. Director de Desarrollo del Vicerrectorado de Proyectos Internacionales. UNIR
Agradecimientos (orden alfabético):
- Arranz Madrid, Lola. Vicedecana de la Facultad de Derecho. Delegada del Rector para Política Universitaria, Doctora en Derecho. UNIR (actualización de referencias legales)
- Corbí, Director del Grado en Física, Doctor en Ciencias Físicas. UNIR (contribuidor a la versión de 2023)
- Díaz Bizkarguenaga, Koldo. Profesor de Derecho digital y Derecho penal. Investigador Equipo alto rendimiento IA-PDI. Abogado. UNIR (actualización de referencias legales)
- Martín Algarra, Bosco. Director de Comunicación. UNIR (contribuidor a la versión de 2023)
- Villegas García, Margarita. Consejera, exCTO. Proeduca (contribuidor a la versión de 2023)
Copyright y referencia
© Universidad Internacional de La Rioja (UNIR) / Proeduca. Licencia de uso bajo Creative Commons CC-BY-NC: https://www.creativecommons.org/licenses/by-nc/4.0/deed.es
Citar como: “Universidad Internacional de La Rioja (2025). Declaración UNIR 2025 para un uso ético de la Inteligencia Artificial en Educación Superior. Proeduca. DOI: XXX”
Versión: 2.0
Fecha: 09 de abril de 2024
https://bit.ly/unir-ia
Versiones anteriores
- UNIR-Declaración para un uso ético de la IA en Educación Superior-ES
- UNIR-Declaration for an ethical use of Artificial Intelligence in Higher Education-EN
- UNIR-Déclaration pour une utilisation éthique de l’Intelligence Artificielle dans l’Enseignement Supérieur-FR
- Proeduca-Guia de uso responsable de IA Generativa en tareas de investigacion-ES
- Proeduca-Guide for the Responsible Use of Generative AI in Research Tasks-EN
- Proeduca-Guide pour l’utilisation responsable de l’IA générative dans les tâches de recherche-FR