Daniel Innerarity, sobre los miedos contemporáneos frente a la inteligencia artificial

Para Innerarity, la "batalla" no es entre humanos y máquinas, sino entre una sociedad reflexiva que comprende sus decisiones tecnológicas y una que actúa como "sonámbula digital", repitiendo gestos simbólicos sin cuestionar sus consecuencias reales.

En un momento en que la inteligencia artificial (IA) se ha convertido en tema dominante de debates tecnológicos, políticos y sociales, el filósofo vasco Daniel Innerarity propone una lectura distinta y urgente: el verdadero desafío no está en enfrentar a las máquinas, sino en comprender qué somos como sociedad frente a ellas. 

Durante su presentación en la Feria Internacional del Libro de Guadalajara (FIL) en México, Innerarity, autor del reciente ensayo Una teoría crítica de la inteligencia artificial (Galaxia Gutenberg, 2025), subrayó que la inteligencia humana y la artificial no son comparables ni intercambiables. "Para nuestra fortuna, la inteligencia humana y la IA se parecen muy poco", afirmó ante un auditorio lleno de académicos, escritores y pensadores. 

Para este filósofo, formado en la tradición de la Escuela de Fráncfort y con una larga trayectoria en filosofía política y social, el miedo a la IA es más social y político que tecnológico. "La tecnología no va a resolver los problemas que no son tecnológicos de los humanos", señaló provocadoramente, criticando a quienes depositan en algoritmos soluciones a problemas estructurales de la democracia y la vida colectiva. 

Daniel Innerarity y una pregunta crucial: "¿Quién decide cuando una máquina parece estar decidiendo por nosotros?"

Innerarity rechaza la narrativa apocalíptica que imagina a la IA superando o reemplazando a la inteligencia humana. En su lugar, propone pensar la IA como un fenómeno que complementa ciertos aspectos técnicos del pensamiento humano, pero no sustituye ni replica la profundidad contextual ni la sensibilidad moral de nuestras decisiones

La propuesta central del filósofo es una teoría crítica de la IA, entendida como la necesidad de reflexionar -con rigor filosófico y no con histerias mediáticas- sobre el papel de estas tecnologías en la vida social y política. Según Innerarity, no puede existir una ética de la IA sin una ética de su uso por parte de los humanos; las máquinas no son por sí mismas agentes morales, sino herramientas cuyo impacto depende de nuestras decisiones colectivas y normativas. 

Este enfoque confronta directamente la tendencia dominante de tratar a la IA como un ente autónomo capaz de tomar decisiones éticas o de desplazar el juicio humano; en cambio, subraya que la verdadera cuestión política radica en la configuración de un ecosistema humano-máquina equilibrado, donde las capacidades humanas creativas, críticas y contextuales no queden subordinadas a la lógica algorítmica. 

Daniel Innerarity, uno de los 25 grandes pensadores del mundo, intentará hacer cumbre en el Aconcagua

En sus reflexiones también aparece la democracia como eje civilizatorio: la IA está transformando la esfera pública, pero no necesariamente en detrimento de la vida democrática si se desarrolla con deliberación, regulación y participación colectiva. Esta perspectiva desplaza el foco del temor tecnológico hacia la responsabilidad política, cultural y educativa de comprender cómo y para qué usamos estas herramientas. 

Para Innerarity, entonces, la "batalla" no es entre humanos y máquinas, sino entre una sociedad reflexiva que comprende sus decisiones tecnológicas y una que actúa como "sonámbula digital", repitiendo gestos simbólicos sin cuestionar sus consecuencias reales. 

En tiempos en que las discusiones sobre IA suelen polarizarse entre optimismo tecnológico y alarma mediática, la propuesta filosófica de Innerarity invita a una pausa crítica: no negar los avances ni idealizarlos, sino situarlos en su contexto político y humano, con una mirada filosófica que recupere la deliberación como núcleo de cualquier sociedad democrática.

Esta nota habla de: