La Cuesta de Beloso estrena el nuevo itinerario ciclista y peatonal conectando Pamplona y Burlada

La obra, que ha durado 14 meses, se ha realizado gracias a un convenio firmado a tres bandas con el Gobierno de Navarra con un 82% de financiación de la UE

Pamplona Actual

Innerarity y Bustince alertan sobre los riesgos de una inteligencia artificial sin regulación ética

​​​​​​​«La IA no entiende, solo simula; y los datos no son neutrales», advierten los expertos en un debate público organizado por Irujo Etxea Elkartea y Sabino

PUBLICIDAD

PUBLICIDAD

Irujo y Bustince, en el debate

Foto del evento

Asistentes a la charla

La inteligencia artificial no es neutral, simula pero no comprende, y necesita una regulación ética urgente que garantice su uso democrático. Así lo han defendido este lunes en Iruñea el filósofo político Daniel Innerarity y el catedrático en Computación e Inteligencia Artificial Humberto Bustince en un diálogo abierto al público promovido por Irujo Etxea Elkartea y Sabino Arana Fundazioa.

Ambos expertos han reflexionado desde sus respectivas disciplinas —la filosofía política y la ciencia computacional— sobre los principales retos éticos, sociales y políticos que plantea el desarrollo de la IA. El encuentro ha sido moderado por la comunicadora Aitana Duque.

«Si en lugar de llamarla inteligencia la hubiéramos llamado de otra forma, probablemente no estaríamos tan obsesionados con compararla con la humana», ha señalado Innerarity, autor de Una teoría crítica de la inteligencia artificial. Ha insistido en que las máquinas procesan datos y establecen correlaciones estadísticas, pero sin conciencia ni comprensión del contexto. «La IA es útil en problemas estructurados, pero en los humanos, donde se requiere interpretación y juicio, los datos no bastan», ha subrayado.

Por su parte, Bustince ha explicado que «la IA intenta simular la inteligencia humana, pero no la replica». «Hoy día necesita millones de imágenes para reconocer un perro, mientras que un niño lo aprende con unas pocas», ha comparado. Además, ha alertado de que «la IA actual no considera la excepcionalidad ni predice la creatividad», dos factores clave en el pensamiento humano.

La ética del dato y los desafíos locales

La ética del uso de los datos, la cogobernanza y el papel de las instituciones han centrado buena parte del debate. Innerarity ha defendido una regulación que combine la intervención pública con la responsabilidad empresarial, y ha advertido que la privacidad digital debe verse como un bien colectivo, no solo individual. «Delegar decisiones en sistemas opacos puede debilitar la democracia. Necesitamos transparencia, rendición de cuentas y participación ciudadana», ha afirmado.

Bustince ha complementado esta visión alertando del alto coste energético de los sistemas de IA. «Crear un sistema equiparable al cerebro humano sería energéticamente inviable», ha dicho. Además, ha reclamado más recursos para investigación básica y contextualizada en Navarra: «Hay mucho talento, pero falta una base sólida que adapte la IA a las necesidades locales».

Ambos han coincidido en que la regulación ética y el pensamiento crítico deben ir de la mano. «No es una opción, es una necesidad», ha afirmado Innerarity. Bustince ha sido contundente en su advertencia: «La IA puede ser lo mejor o lo peor para la humanidad. Pensemos en lo que harían figuras autoritarias del pasado con estas herramientas».

El acto ha evidenciado la urgencia de abrir espacios públicos de reflexión crítica y multidisciplinar para afrontar el presente y futuro de una tecnología que ya está reconfigurando la sociedad.

Redacción: Pamplona Actual.com

 
 
 

ÚNETE A NUESTRO BOLETÍN