Filosofía e Inteligencia Artificial

¿Por qué hoy más que nunca recomendaría estudiar filosofía?

Con este artículo, y aprovechando que estamos en verano —una época en la que solemos disponer de un poco más de tiempo para divagar y pensar en algo más que en nuestras tareas diarias— quiero invitarte a detenerte un momento y hablar de filosofía.

Agosto, con su ritmo más pausado, es perfecto para volver a los orígenes, a esas preguntas que nunca pierden vigencia, y a la sabiduría de aquellos antiguos pensadores que, siglos atrás, ya se enfrentaban a dilemas tan profundos como los que nos plantea hoy la Inteligencia Artificial.

Intentaré explicar en este artículo, cómo, en la era de la Inteligencia Artificial, estamos y estaremos rodeados de preguntas filosóficas. Preguntas que no solo afectan a la tecnología, sino también a nuestra idea de lo que significa ser humano, a cómo tomamos decisiones y qué tipo de futuro queremos construir.

Diversos estudios, como el realizado en Harvard sobre el impacto de la IA en los estudiantes ( Harvard Undergraduate Survey on Generative AI ), muestran que muchos jóvenes sienten que sus carreras están perdiendo relevancia, e incluso algunos las abandonan por temor a que sus futuros profesionales queden obsoletos. A esto se suma otro riesgo: que la dependencia excesiva de herramientas generativas acabe debilitando nuestra capacidad de pensar por nosotros mismos.

Frente a ese panorama, la filosofía es una brújula imprescindible. Nos ayuda a detenernos, a cuestionar lo que damos por hecho, a encontrar sentido y a fortalecer el pensamiento crítico. Es la disciplina que nos recuerda que las preguntas correctas son, muchas veces, más valiosas que las respuestas rápidas. Por eso, hoy más que nunca, recomendaría a las nuevas generaciones que la estudien.

Yo misma he decidido dar ese paso: he empezado a estudiar Filosofía para redescubrir, de la mano de los grandes pensadores, esas preguntas esenciales que ahora, en medio de esta aceleración tecnológica, siento que me faltan. Estamos y estaremos rodeados de esas preguntas filosóficas, ¿te animas a encontrarles respuestas?

Historia: la filosofía como brújula en cada revolución tecnológica

En cada gran revolución tecnológica, la filosofía ha estado ahí para ayudarnos a interpretar lo que estaba ocurriendo:

  • La imprenta: más que un invento, fue una revolución cultural. Francis Bacon ya decía que “el conocimiento es poder”, y la gran pregunta fue: ¿quién tiene derecho a acceder a ese poder?

  • La electricidad: cambió nuestra noción del tiempo y el espacio. Henri Bergson reflexionó sobre cómo la mecanización alteraba la experiencia humana.

  • Internet: conectó al planeta, pero también nos obligó a repensar la privacidad, la identidad y la verdad. Hannah Arendt advirtió que, sin cuidado, la verdad fáctica, fundamentada en hechos, podría ser reemplazada por relatos fabricados.

  • La Inteligencia Artificial: da un salto aún mayor. Aristóteles nos recordó que la virtud nace de la deliberación humana, proceso racional que precede a la toma de decisiones, especialmente en asuntos prácticos y éticos… y ahora debemos decidir si queremos delegar esa toma de decisiones a las máquinas.

Corrientes filosóficas clave para entender y guiar la IA

La Inteligencia Artificial no se puede comprender únicamente desde un plano técnico o de ingeniería. Para entenderla y guiarla, necesitamos apoyarnos en marcos filosóficos que llevan siglos ayudándonos a responder preguntas sobre el conocimiento, la moralidad, el poder o el lenguaje. Aquí repaso los más relevantes:

Ética

La ética estudia qué está bien y qué está mal, y cómo debemos actuar. Dentro de ella encontramos distintas corrientes:

  • Utilitarismo – Defendido por Jeremy Bentham y John Stuart Mill, sostiene que lo correcto es aquello que produce la mayor felicidad para el mayor número de personas. Aplicado a la IA: por ejemplo, decidir que un coche autónomo sacrifique a su pasajero si así salva a más vidas.

  • Deontología – Propuesta por Immanuel Kant, afirma que hay principios y deberes que no deben romperse bajo ninguna circunstancia, aunque el resultado final sea positivo. En IA: proteger la privacidad de un usuario incluso si violarla ayudaría a resolver un crimen.

  • Ética de la virtud – De origen aristotélico, pone el foco en el carácter y en cultivar virtudes como la justicia, la templanza o la prudencia. La pregunta sería: ¿la tecnología que desarrollamos nos hace mejores personas?

Filosofía de la mente

Se centra en la naturaleza de la mente, la consciencia y la capacidad de pensar o sentir.

  • René Descartes defendía el dualismo: la mente (res cogitans) y el cuerpo (res extensa) son realidades distintas. Esto abre el debate de si una máquina, sin “alma” o “mente”, podría ser consciente.

  • David Chalmers distingue entre el “problema fácil” (explicar cómo procesamos información) y el “problema difícil” (explicar por qué tenemos experiencias subjetivas). La IA actual afronta el primero, pero el segundo sigue siendo un misterio.

Epistemología

Es la rama de la filosofía que estudia el conocimiento: qué es, cómo lo adquirimos y cómo sabemos que es verdadero.

  • Platón diferenciaba entre doxa (opinión) y episteme (conocimiento verdadero).

  • En la era de los deepfakes, las alucinaciones de los modelos de lenguaje y la desinformación, la epistemología se convierte en un marco esencial para distinguir entre información fiable y falsedad convincente.

Filosofía política

Analiza cómo se organiza el poder, la autoridad y la justicia en la sociedad.

  • John Locke defendía que el poder político legítimo debe basarse en el consentimiento de los gobernados.

  • Jean-Jacques Rousseau hablaba del “contrato social” y de cómo los individuos ceden parte de su libertad para vivir en comunidad.

  • En IA: la pregunta clave es quién debe tener el control sobre esta tecnología: ¿gobiernos democráticos, corporaciones privadas o instituciones internacionales?

Filosofía del lenguaje

Explora cómo las palabras adquieren significado y cómo se comunican las ideas.

  • Ludwig Wittgenstein argumentaba que el significado depende del uso del lenguaje en un contexto.

  • En IA: plantea el dilema de si los modelos generativos realmente “entienden” lo que dicen o si solo repiten patrones aprendidos sin comprensión real.

Casos reales que muestran por qué necesitamos filosofía en la IA

Los dilemas que plantea la Inteligencia Artificial no son hipotéticos ni lejanos: ya están ocurriendo y afectan a decisiones judiciales, procesos democráticos, derechos fundamentales y hasta a nuestra percepción de la realidad. Analizarlos con lentes filosóficas nos permite entender por qué no basta con una solución técnica.

1. Sesgo algorítmico: la injusticia automatizada

En 2016, una investigación reveló que el sistema COMPAS, usado en tribunales de Estados Unidos (del que ya hablé en un artículo anterior), para estimar la probabilidad de reincidencia de un acusado, tendía a puntuar más alto a personas negras que a personas blancas con antecedentes similares.

Esto no es solo un fallo técnico: plantea la pregunta aristotélica sobre la justicia y la equidad. Si una IA aprende de datos sesgados, perpetuará y ampliará esas desigualdades. Desde la óptica kantiana, tratar a las personas de forma distinta por su raza es siempre inmoral, independientemente de la eficacia del sistema.

2. Vigilancia masiva: el panóptico digital

En varias ciudades del mundo, se han instalado sistemas de reconocimiento facial que identifican a personas en espacios públicos sin su consentimiento.

Michel Foucault describió en Vigilar y castigar el concepto de panóptico: un sistema en el que los individuos no saben cuándo están siendo observados, lo que genera autocensura. Hoy, la IA ha convertido ese panóptico en algo ubicuo, capaz de seguirnos no solo físicamente, sino también a través de nuestras huellas digitales.

3. Desinformación y deepfakes: la fragilidad de la verdad

La IA generativa puede crear vídeos, audios y textos falsos que parecen auténticos. En un contexto electoral, esto puede manipular la opinión pública y socavar la democracia.

Hannah Arendt advertía que cuando la verdad factual o basada en hechos, se diluye en medio de narrativas fabricadas, la política se degrada y la libertad se erosiona. El problema no es solo detectar un deepfake, sino mantener una esfera pública donde la verdad sea posible.

4. Vehículos autónomos: el dilema del tranvía reprogramado

El famoso “dilema del tranvía” (Philippa Foot, Judith Jarvis Thomson) pregunta si es moral desviar un tren para salvar a cinco personas a costa de una. Con los vehículos autónomos, esta pregunta dejó de ser teórica: ¿debe un coche sacrificar a su pasajero para salvar a varios peatones? Aquí chocan el utilitarismo (maximizar vidas salvadas) y la deontología (proteger al pasajero que confió en el vehículo). Además, la ética de la virtud plantea si queremos que las máquinas asuman estas decisiones morales sin participación humana.

5. IA en la medicina: salvar vidas… o priorizar la eficiencia

Sistemas de IA ya diagnostican enfermedades con gran precisión, pero también pueden recomendar tratamientos más rentables para la aseguradora que para el paciente.

Hipócrates estableció el principio “primero, no hacer daño”, que en términos modernos se traduce en priorizar el bienestar del paciente por encima de beneficios corporativos. Esto exige marcos regulatorios que alineen los incentivos de la IA médica con los valores éticos de la práctica clínica.

Los anteriores casos muestran que la filosofía no es un lujo académico, sino una herramienta práctica para evaluar y corregir el rumbo de la Inteligencia Artificial. Sin un marco ético claro, las soluciones tecnológicas corren el riesgo de perpetuar injusticias, vulnerar derechos y degradar los valores que queremos preservar.

Recomendaciones para un desarrollo responsable de la IA

La Inteligencia Artificial tiene un potencial inmenso, pero también riesgos que no se pueden ignorar. La historia muestra que cada revolución tecnológica ha necesitado no solo avances técnicos, sino marcos éticos y políticos sólidos para guiar su impacto. A continuación, propongo medidas clave para garantizar que la IA sirva al bien común, con referencias filosóficas y ejemplos prácticos.

1. Integrar la formación filosófica en carreras tecnológicas

Por qué: La formación en ingeniería o informática rara vez incluye entrenamiento profundo en ética, filosofía política o teoría del conocimiento. Sin esta base, los futuros desarrolladores carecen de herramientas para anticipar las implicaciones sociales de su trabajo.
Ejemplo: El MIT Media Lab ha incorporado cursos de ética tecnológica obligatorios para estudiantes de IA y robótica.
Referencia filosófica: Aristóteles defendía la paideia, una educación integral que desarrollara no solo habilidades técnicas, sino virtudes morales.

2. Crear comités de ética multidisciplinares con poder real de decisión

Por qué: Muchas empresas tienen “comités de ética” que son meramente consultivos y carecen de capacidad para detener proyectos. La ética no debe ser un accesorio, sino un freno de emergencia cuando sea necesario.
Ejemplo: La Agencia de Protección de Datos de España tiene potestad para paralizar iniciativas que violen derechos fundamentales.
Referencia filosófica: En La República, Platón describe el consejo de los sabios como guardianes del bien común, capaces de frenar decisiones perjudiciales para la polis.

3. Asegurar la diversidad cultural y de género en el desarrollo de la IA

Por qué: Los equipos homogéneos tienden a pasar por alto sesgos que afectan a grupos minoritarios. Una IA entrenada solo con datos de una región o un grupo demográfico reflejará y amplificará esos sesgos.
Ejemplo: La UNESCO promueve la participación de mujeres y minorías en la creación de IA para evitar sesgos de género y culturales.
Referencia filosófica: John Rawls, en su Teoría de la justicia, propone diseñar reglas desde una “posición original” de imparcialidad, asegurando que beneficien a todos, especialmente a los más vulnerables.

4. Diseñar regulaciones globales con principios éticos compartidos

Por qué: La IA no conoce fronteras, pero las leyes sí. Esto genera “paraísos regulatorios” donde las empresas pueden operar con menos restricciones.
Ejemplo: El AI Act europeo podría convertirse en estándar internacional si logra consenso con países clave.
Referencia filosófica: Kant defendía la idea de un “imperativo categórico” aplicable a todos los seres racionales, lo que en términos contemporáneos equivale a normas universales que protejan la dignidad humana.

5. Garantizar la trazabilidad y explicabilidad de los sistemas

Por qué: Si una IA toma decisiones que afectan vidas humanas —como negar un crédito o recomendar un tratamiento médico— debe ser posible auditar su razonamiento y sus datos de entrenamiento.
Ejemplo: Normativas como la GDPR europea incluyen el derecho a una explicación de las decisiones automatizadas.
Referencia filosófica: El racionalismo cartesiano exige claridad y distinción en las ideas; aplicado hoy, significa que los sistemas deben ser transparentes y comprensibles.

6. Evaluar el impacto social antes del despliegue masivo

Por qué: El principio de precaución, común en bioética, debería aplicarse también a la IA. Lanzar sistemas sin pruebas suficientes puede causar daños irreparables.
Ejemplo: La moratoria en San Francisco sobre el uso policial de reconocimiento facial hasta evaluar sus riesgos.
Referencia filosófica: El “primum non nocere” hipocrático —“primero, no hacer daño”— debe ser un pilar en la tecnología que afecta a personas.

7. Conclusión a la filosofía e Inteligencia Artificial

La filosofía no es un freno, es un timón y por lo tanto debe ser estudiado por las nuevas generaciones. Nos ayuda a guiar la IA hacia un futuro más humano, justo y sostenible. En un mundo de algoritmos, los que sepan hacer las preguntas correctas serán quienes realmente tengan el control. Por eso, yo he decidido volver a ellas: las preguntas. Y esa, quizás, sea la decisión más tecnológica que he tomado en mi vida.

¿Te interesa la Inteligencia Artificial y la Estrategia?

Suscribiéndote recibirás en tu correo las últimas publicaciones, puedes ver las anteriores aquí.   Casos de uso reales, artículos prácticos, reflexiones y cualquier novedad sobre cómo la Inteligencia Artificial está transformando nuestras vidas y profesiones. Solo contenido útil, claro y directo para ayudarte a estar al día y tomar mejores decisiones. También recibirás el acceso a la presentación «Activa el poder de la Inteligencia Artificial»

Saber de Inteligencia Artificial ya no es una opción es una decisión.