Jorge Valenzuela Jiménez
La aparición de la IA asiática ha generado un intenso debate en la industria tecnológica. Este modelo de IA chino destaca por su eficiencia y capacidad de razonamiento, pero también plantea desafíos éticos y de privacidad.
Era noviembre de 2022 cuando OpenAI presentaba al mundo chatGPT como una herramienta para interactuar con su modelo de lenguaje (en aquel momento se basaba en GPT3.5) consiguiendo captar la atención de forma global.
Esta presentación asombró al mundo debido a las capacidades avanzadas de generación de texto y conversación que presentaba ChatGPT. La herramienta demostró el potencial de los modelos de lenguaje avanzados para comprender y generar texto de manera coherente y natural, abriendo la puerta a una nueva era de aplicaciones inteligentes y un nuevo paradigma de interacción humano-máquina gracias a la inteligencia artificial (IA).
La llegada de ChatGPT marcó además el inicio de una evolución rápida y sin precedentes en las capacidades de los modelos de lenguaje. Dos factores principales han impulsado este desarrollo: las inversiones de capital en el entrenamiento de estos modelos, y la disponibilidad de infraestructura de computación suficiente para llevar a cabo los costosos entrenamientos. Estas inversiones y recursos han permitido que nos encontremos inmersos en una carrera vertiginosa hacia el futuro, donde la inteligencia artificial generativa podría evolucionar hacia una inteligencia artificial general.
Un nuevo y potente competidor
Y en medio de toda esta vorágine de evolución donde el desarrollo de nuevos modelos de lenguaje es una constante, ha aparecido un modelo específico que ha hecho tambalear las acciones de las principales empresas tecnológicas. Nos referimos a DeepSeek-R1, modelo de la compañía Deepseek, que ha puesto a disposición de la comunidad de código abierto y que está acaparando los titulares tecnológicos en los últimos días, generando un gran interés y un intenso debate en la industria.
No obstante, ¿qué hace que se esté prestando tanta atención a esta inteligencia artificial china? El modelo Deepseek- R1 podemos decir que destaca por su capacidad de razonamiento y eficiencia en el uso de recursos, ofreciendo resultados similares al modelo O1 de OpenAI en gran parte de las pruebas y benchmarks ampliamente utilizados en la industria para medir la calidad de estos modelos. Esta capacidad de rendimiento comparable con un uso más eficiente de los recursos es uno de los aspectos más destacados de DeepSeek-R1.
Este método de utilización de los recursos de computación es lo que ha marcado un verdadero hito en el desarrollo de la inteligencia artificial generativa, principalmente debido a que el modelo ha sido entrenado con un coste significativamente menor en comparación con los modelos de OpenAI y otros actores en la industria. La compañía asiática, con su modelo DeepSeek-Rq, ha adoptado además un enfoque de desarrollo de comunidad dando disponibilidad el código de forma abierta.
Este enfoque no solo fomenta la colaboración y la innovación, sino que también democratiza el acceso a tecnologías avanzadas de IA, permitiendo que más investigadores y desarrolladores contribuyan y se beneficien de estos avances lo que presumiblemente permitirá acelerar el desarrollo y evolución de esta tecnología a escala.
La privacidad del usuario
Sin embargo, la aparición de DeepSeek también enfrenta desafíos y controversias. La privacidad de los datos es una preocupación constante, ya que la aplicación publicada por la compañía china (no así el modelo de lenguaje) requiere acceso a información personal del usuario y no aclara el uso que se realiza con dicha información. Esto plantea preguntas sobre cómo se manejan y protegen estos datos, y qué medidas se están tomando para garantizar la privacidad del usuario. Tal es la inquietud que han surgido discusiones sobre posibles prohibiciones de esta IA en ciertas regiones, donde las regulaciones de protección de datos son más estrictas.
Además de la privacidad, la responsabilidad ética en el uso de la inteligencia artificial es un tema de debate que en el caso de DeepSeek es especialmente sensible. La IA tiene el potencial de amplificar sesgos existentes en los datos con los que se entrena, lo que puede llevar a resultados injustos o discriminatorios. En este caso, es crucial abordar estos desafíos éticos y garantizar que el modelo se desarrolle y utilice de manera responsable. Esto incluye implementar medidas para mitigar los sesgos y garantizar la transparencia en el funcionamiento del modelo.
El caso de DeepSeek no es algo que deba sorprender y que no se haya vivido anteriormente en la industria. De hecho, es un recordatorio de cómo la innovación tecnológica puede desafiar el estatus quo y ofrecer nuevas oportunidades como tantas veces ha ocurrido en el pasado. Internet, Smartphones, streaming de video, impresión 3D podrían ser algunos de los ejemplos más recientes. A medida que la industria tecnológica continúa evolucionando, es fundamental que los desarrolladores, investigadores y reguladores trabajen juntos para abordar los retos y maximizar los beneficios de estas tecnologías emergentes. Si hay un denominador común en este momento son la colaboración y la transparencia. Ambas serán clave para garantizar que la inteligencia artificial se desarrolle de manera que beneficie a todos y minimice los riesgos.
Innovación con responsabilidad
En conclusión, DeepSeek podría ser tanto una innovación como una amenaza para la industria tecnológica, dependiendo de cómo se manejen estos desafíos. Si se abordan adecuadamente, la IA con capital chino tiene el potencial de impulsar la próxima ola de avances en inteligencia artificial y transformar la forma en que interactuamos con la tecnología. Sin embargo, si no se gestionan bien, los riesgos asociados con la privacidad y la ética podrían socavar la confianza en estas tecnologías y limitar su adopción.
La clave estará en equilibrar la innovación con la responsabilidad, asegurando que el progreso tecnológico se alinee con los valores y necesidades de la humanidad.
(*) Jorge Valenzuela Jiménez. Dir. del equipo de AI, Datos y App Innovation en Microsoft. Director del Máster en IA en UNIR y docente en Cloud. Conferencista en eventos de la industria, con formación en Telecomunicación en IA.
- Escuela Superior de Ingeniería y Tecnología