InternacionalAcceso estudiantes

Hatemedia: un instrumento para combatir el odio en las redes mediante la inteligencia artificial

La docente de UNIR Almudena Ruiz Iniesta cuenta cómo una nueva herramienta puede detectar, entender y evitar el odio en los medios digitales.

La coordinadora académica del Máster Universitario en Inteligencia Artificial de UNIR, Almudena Ruiz Iniesta, participó a finales del mes pasado en el post evento “Futuro Inteligente”, un encuentro profesional sobre el impacto de la IA en la economía, la tecnología y la sociedad. Ruiz habló sobre Hatemedia, una iniciativa para detectar y categorizar las expresiones de odio vertidas en las redes sociales y en los medios de comunicación online, y con la que se busca entender el funcionamiento de estas corrientes letales que circulan por internet.

Esta clasificación debe partir de una definición clara de lo que es el odio y sustentarse en la labor de profesionales de distintos campos del saber, especialmente de la Inteligencia Artificial (IA), una tecnología que ya está transformando el presente y que marcará cómo será el futuro. La idea es diseñar un algoritmo que prevenga y combata estos mensajes.

¿En qué consiste el proyecto Hatemedia? ¿Y qué repercusión ha tenido en el encuentro digital “Futuro Inteligente”?

El proyecto Hatemedia tiene como objetivo analizar cómo se difunden las expresiones de odio en España en los medios de comunicación social (medios informativos y redes sociales). Con este análisis se pretende monitorizar este tipo de enunciados en los medios de comunicación digital.

Participar en el post evento de “Futuro Inteligente” supuso una oportunidad para compartir ideas y conocimientos con expertos en inteligencia artificial (IA) y dar a conocer otros aspectos menos conocidos de la IA, como su vinculación con las ciencias sociales.

¿Por qué nació este proyecto y qué papel juega en él la Inteligencia Artificial?

Hatemedia nace por la carencia detectada en España de una atención y un análisis académico de estas expresiones tóxicas. Existen iniciativas que siguen procesos concretos, como el Observatorio Español del Racismo y la Xenofobia (OBERAXE). Pero con este proyecto creemos que se puede contribuir al avance del debate desde la perspectiva metodológica, conformando una librería pública y robusta (en cuanto a número de elementos) de léxicos y frases alusivas al odio, desde el punto de vista de la semántica española, y también de los principios deontológicos y estilísticos de los medios informativos profesionales.

El código penal contempla el odio como un delito, pero no todo el odio es delito

 

La inteligencia artificial es una tecnología transversal que se utiliza en cada vez más disciplinas. Uno de sus usos nos permite automatizar tareas que hasta el momento eran laboriosas o tediosas. Es el caso del monitoreo de expresiones de odio en medios digitales. Gracias a la IA, el número de medios que se puede rastrear es mucho mayor, ya que el agente inteligente encargado de hacerlo tiene más capacidad para rastrear medios, recuperar noticias o comentarios, y detectar odio. Además, este mismo agente puede clasificar automáticamente las noticias para identificar si lo que se está diciendo es algo positivo, negativo, o incluso si se trata de una noticia falsa.

¿En qué punto os encontráis? ¿Cómo ha sido el trabajo hasta ahora y a qué problemas os habéis enfrentado?

Ahora mismo estamos terminando el primer año del proyecto. Hasta ahora hemos sentado las bases del trabajo y de la investigación necesaria para abordar un proyecto de estas características. Desde el punto de vista técnico, hemos tenido que resolver varios problemas, como, por ejemplo, construir ese conjunto de datos de partida del que se van a alimentar nuestros modelos para aprender a detectar este fenómeno. Actualmente, contamos con prototipos experimentales, y a lo largo del segundo año del proyecto esperamos tener una aplicación.

¿Cómo identificáis qué tipos de ataques o expresiones de odio existen en estos medios digitales?

Queremos diseñar un conjunto de algoritmos que sean capaces de detectar expresiones de odio. Esto se hace gracias al trabajo de los lingüistas que estudian cómo se construyen manifestaciones de este tipo, y de los expertos en inteligencia artificial, que diseñan e implementan estos algoritmos.

ciberacoso

Las declaraciones de odio son diferentes y de distinta intensidad. No olvidemos que el código penal contempla el odio como un delito, pero no todo el odio es delito. Por ello, en este proyecto hemos definido una serie de categorías con cinco niveles de intensidad para empezar a trabajar. Indudablemente, esta primera diferenciación es orientativa. Se definirá su versión final durante la realización del proyecto para tipificar el tipo de expresión de odio promovido, como la identificación de expresiones que dejen en evidencia problemas de tolerancia, civismo y respeto a los derechos civiles y humanos, aunque sin llegar a constituir necesariamente por ello un delito penalmente tipificado.

Estas expresiones se ordenan en niveles del 1 al 5, en el que 1 sería “una alusión insultante, pero no grosera”, y en el nivel 5 se aplicaría un procedimiento judicial de expresión de odio con frases como “te voy a matar”.

¿Qué papel juegan los propios medios en aumentar la llama que incendia más las redes?

En este proyecto también analizaremos el papel que juegan los medios de comunicación. Por ahora nos apoyamos en estudios que nos hacen ver que los medios y las redes sociales asumen un rol importante porque interpretan lo que acontece para sus afines sin argumentación. Esto los convierte en actores clave en la difusión o no de expresiones, prejuicios y estereotipos negativos sobre, por ejemplo, la inmigración, la religión musulmana o la cultura española.

Más aún cuando nos encontramos en un sistema de comunicación híbrido en el que las redes sociales orientan activamente las lecturas que se hacen de los canales de comunicación tradicionales. Al intensificar la influencia de este contexto, se quiebra la capacidad de influir de los hechos objetivables en unos ciudadanos-usuarios encapsulados en espacios de comunicación digital en los que dominan estrategias narrativas basadas en sentimientos y creencias personales. Todo ello afecta a la construcción de la opinión pública, individual y colectivamente, y facilita la normalización de expresiones de odio.

IA 2

¿Cómo vais a conseguir que la recopilación de estas expresiones identificadas sean lo más objetivas posibles? Al final, no deja de haber una búsqueda previa de información de manera subjetiva y personal.

Existe todo un proceso de recopilación de expresiones de odio por parte del equipo para construir el conjunto de datos que se usará en el entrenamiento posterior. Estas fórmulas han sido etiquetadas como “odio” o “no odio” por un conjunto de revisores, junto con la intensidad.

Después se revisan las etiquetas, con las que se comprueba el grado de acuerdo que existe entre lo clasificado, y si éste no supera un cierto umbral, el etiquetado de esa expresión se considera incorrecto. Con esto queremos reducir al máximo posible los sesgos en la categorización de dichas declaraciones que luego usarán nuestros modelos para aprender.

¿Cómo valora su papel y el del resto del equipo en este proyecto y cuáles son los siguientes pasos? ¿De qué forma ayuda la IA en este tipo de proyectos y qué otras ideas tenéis en mente en el Vicerrectorado de Investigación de UNIR?

El equipo de este proyecto es un equipo multidisciplinar formado por sociólogos, expertos en ciencias de la información, especialistas en análisis lingüísticos y semiótica e ingenieros, matemáticos y estadísticos especializados en análisis big data e inteligencia artificial. Este carácter interdisciplinar del equipo hace que el proyecto se pueda abordar desde cada una de las áreas de especialidad.

Como directora del máster, ¿qué puedo esperar como estudiante del posgrado oficial en IA de UNIR?

El posgrado oficial de Inteligencia Artificial de UNIR tiene una visión integral de esta disciplina. Nuestros estudiantes aprenderán técnicas de percepción computacional y visión artificial, razonamiento y planificación automática, aprendizaje automático (machine learning) y aprendizaje automático profundo (deep learning), procesamiento del lenguaje natural, así como las tecnologías necesarias para implementarlas (Python, OpenCV, STRIPS/PDDL, scikit-learn, TensorFlow, NLTK, Azure o AWS).

Todo esto lo podrán aplicar en una amplia variedad de sectores como la Industria 4.0, las ciudades inteligentes, la empresa, la educación o la medicina, entre otros. Además, este máster oficial habilita a nuestros alumnos para la investigación y el inicio de estudios de doctorado.

    Títulos que te pueden interesar

    Noticias relacionadas

    “La ciberseguridad afecta a todo el mundo. Nadie está libre de sufrir un ciberataque”

    UNIR participa en la II edición del Congreso de Seguridad Digital y Ciberinteligencia, C1b3rWall, que se celebra entre el 21 y 23 de junio en la Escuela Nacional de Policía. Juan José Nombela, CISO de UNIR, nos cuenta cómo.

    Procreate: la mejor app para hacer lettering con tu iPad

    Procreate es una aplicación de dibujo diseñada para dispositivos iOS, concretamente iPad, que se puede utilizar para lettering gracias a sus amplias funcionalidades.

    El consultor de PLN y cómo el hombre y las máquinas llegan a entenderse

    El NLP consultant es el responsable de desarrollar sistemas y máquinas capaces de analizar y entender el lenguaje humano para desarrollar chatbots o asistentes virtuales como Alexa o Siri.

    Docencia 100% online

    Nuestra metodología te permite estudiar sin desplazarte mediante un modelo de aprendizaje personalizado

    Clases en directo

    Nuestros profesores imparten 4.000 horas de clases online a la semana. Puedes asistir en directo o verlas en otro momento

    Mentor - UNIR

    En UNIR nunca estarás solo. Un mentor realizará un seguimiento individualizado y te ayudará en todo lo que necesites

    La fuerza que necesitas

    Graduación España 2024

    Graduación España 2024

    Acompañamiento personalizado