30 de noviembre de 2023

s

Óscar Corcho: “El principal desafío ético es el posible sesgo de los modelos que se generan”

por Marisol Sales Giménez
Ilustrador David Sánchez

Preguntamos a un grupo de especialistas en inteligencia artificial sobre las principales incógnitas que despierta su uso y desarrollo. Nos han señalado cuáles son los mayores desafíos éticos, de seguridad, privacidad y regulación, haciendo hincapié en la necesidad de supervisión humana y señalando el avance exponencial que seguiremos viendo en el progreso de la IA.

 

El desarrollo de la inteligencia artificial en las últimas décadas ha sido muy rápido debido al crecimiento de la capacidad computacional, la disponibilidad de grandes conjuntos de datos y avances en algoritmos. Esto ha llevado a la creación de múltiples aplicaciones y sistemas de IA en diversas áreas. Se trata de un campo en constante crecimiento con un gran potencial para transformar diferentes aspectos de nuestras vidas.

Por este motivo, hemos contactado con una gran variedad de expertos en IA de diferentes ámbitos de trabajo. Hemos preguntado a Ramón López de Mántaras, uno de los pioneros de la IA en España; Nerea Luis, cofundadora de T3chFest; Jordi Torres, profesor del grado de IA en la UPC; Idoia Salazar, cofundadora de OdiseIA; Óscar Corcho, director académico de AI4Gov y Elena Gil, directora en Telefónica Tech. Clicando en el nombre de cada uno de los entrevistados podréis ver sus respuestas.

Es importante abordar este tema desde diferentes puntos de vista, explicando de manera comprensible las implicaciones, beneficios y desafíos de la IA. Con ello buscamos ayudar a contrarrestar la desinformación y los mitos sobre la inteligencia artificial, brindando información precisa basada en la experiencia de los entrevistados. “Lo fundamental es la necesidad de involucrar a la sociedad en su conjunto en la toma de decisiones sobre la IA para garantizar que esta tecnología sea utilizada de manera responsable”, remarca Jordi Torres en este reportaje.

 

 

Óscar Corcho

Catedrático de la UPM en el Departamento de Inteligencia Artificial y director académico del máster europeo AI4Gov (Artificial Intelligence for Public Services)

¿Cómo describiría el estado actual de la inteligencia artificial y qué avances considera que veremos en el futuro inmediato?

En estos últimos años se han producido avances muy considerables en la inteligencia artificial, sobre todo en las áreas de aprendizaje automático y en todo lo relacionado con el lenguaje, debido a que cada vez hemos tenido más datos y documentos disponibles para poder entrenar modelos, y que ha sido posible hacerlo con las infraestructuras tecnológicas de las que disponemos.

Quizás el avance más significativo de estos últimos años haya sido la aparición de la IA generativa, con los grandes modelos de lenguaje como uno de los pilares básicos.

¿Qué veremos en el futuro inmediato? Bueno, lo vemos ya… Una gran cantidad de aplicaciones que hacen uso de estos modelos y de estas capacidades para poder hacer nuestro trabajo aún más eficiente. Pero no debemos olvidarnos también del “Good old AI”. Se siguen utilizando técnicas tradicionales para resolver una gran cantidad de problemas que ya eran conocidos.

¿Qué desafíos éticos ve asociados al avance de la IA y cómo cree que debemos abordarlos?

El principal desafío ético es el del posible sesgo de los modelos que se generan, basado fundamentalmente en el sesgo que siempre puede existir en los datos que se utilizan para el entrenamiento. Necesitamos investigación en técnicas cada vez más robustas para explicar los resultados obtenidos por modelos que actúan como cajas negras, y una buena regulación que no necesariamente frene los avances, pero que nos genere seguridad en que no se producen estos sesgos.

¿Cómo afecta la IA a la privacidad y la seguridad de los datos de las personas?

No creo que este sea un problema que se vea agravado por la IA puesto que ya éramos conscientes de los posibles riesgos en este sentido cuando se puso el foco en la regulación de protección de datos, por ejemplo. Por supuesto, si cualquiera de los modelos que usamos se ha entrenado con datos personales, o los usuarios no son conscientes de que están entregando datos personales al interactuar con sistemas como ChatGPT, podemos poner en riesgo esa privacidad.

Artículo publicado en la revista Telos 123


Ir al número ...

Autor

Escritora, periodista y conferenciante. Actualmente ha publicado seis libros y colaborado en otros títulos. Su última novela es Incendio en la nieve. También es la creadora de Mitologeando, una serie de vídeos publicados en redes sociales en los que divulga sobre mitología griega, romana y nórdica. Desde el año 2022 hace parte del equipo de redacción de la Revista TELOS.

Ver todos los artículos

Contenido relacionado

Comentarios

Artículos relacionados