El dilema de la inteligencia artificial: ¿Quién decide cuando aparentemente nadie decide?

Hay tres abordajes posibles a esta pregunta, escribe el filósofo Daniel Innerarity en un libro del que ‘Ideas adelanta un extracto. Detener la tecnología por un tiempo, someterla a códigos éticos o examinarla mediante la crítica política

Mar 19, 2025 - 01:00
El dilema de la inteligencia artificial: ¿Quién decide cuando aparentemente nadie decide?

La organización política de las sociedades ha tenido siempre una pretensión de automaticidad. En cuanto se supera la simpleza de la familia o la tribu, las organizaciones humanas necesitan datos y procedimientos que permitan gestionar la incipiente complejidad. Desde esta perspectiva, la racionalidad algorítmica, más que representar una ruptura absoluta con el pasado, puede ser analizada de acuerdo con continuidades históricas, es decir, siempre que ha habido que establecer un orden en un entorno de complejidad y heterogeneidad. Como la burocracia para el estado moderno, la inteligencia artificial parece llamada a ser la lógica de legitimación de las organizaciones y los gobiernos en las sociedades digitales. Los tres elementos que modificarán la política de este siglo son los sistemas cada vez mas inteligentes, una tecnología mas integrada y una sociedad mas cuantificada. Si la política a lo largo del siglo XX giró en torno al debate acerca de cómo equilibrar estado y mercado (cuánto poder debía conferírsele al Estado y cuánta libertad debería dejarse en manos del mercado), la gran cuestión hoy es decidir si nuestras vidas deben estar regidas por procedimientos algorítmicos y en qué medida, cómo articular los beneficios de la robotización, automatización y digitalización con aquellos principios de autogobierno que constituyen el núcleo normativo de la organización democrática de las sociedades. El modo como configuremos la gobernanza de estas tecnologías va a ser decisivo para el futuro de la democracia; puede implicar su destrucción o su fortalecimiento.

Seguir leyendo