viernes, 24 de octubre de 2025

¿EN QUÉ SE DEBERÍA ENFOCAR LA FILOSOFÍA EN TIEMPOS DE LA INTELIGENCIA ARTIFICIAL?

WHAT SHOULD PHILOSOPHY FOCUS ON IN THE AGE OF ARTIFICIAL INTELLIGENCE?

Carmen Zavala

Doctora en Filosofía por la Universidad Nacional Mayor de San Marcos

Correo-e: carmen@zavala.de

 

Resumen: Para responder a esta pregunta empezaremos por preguntarnos en qué se parece y en qué se diferencia el funcionamiento de la inteligencia humana y de la inteligencia artificial. Sobre esto, el filósofo británico Andy Clark, especialista en ciencia cognitiva, en su libro “La máquina de la experiencia: cómo nuestras mentes predicen y dan forma a la realidad” explica como los seres humanos compartimos con la inteligencia artificial la capacidad cognitiva y el procesamiento predictivo, que en la Inteligencia Artificial se reflejan en el reconocimiento de patrones y predicciones en base al cálculo de probabilidades. Luego señalaré algunos problemas a los que nos enfrentamos los seres humanos por basar nuestro pensamiento en el reconocimiento de patrones y comentaré sobre algunos temores que se tienen hoy en día sobre la difusión de la inteligencia artificial y/o sobre equipararla a la inteligencia humana.

Finalmente plantearé algunas preguntas y propuestas sobre el papel futuro de la filosofía, tanto de la verdadera filosofía como de la filosofía académica.

Palabras clave: inteligencia artificial, práctica filosófica, mente, predicciones.

Abstract: To answer this question, we will begin by asking ourselves how human intelligence and artificial intelligence are similar and how they differ. On this subject, British philosopher Andy Clark, a specialist in cognitive science, explains in his book “The Experience Machine: How Our Minds Predict and Shape Reality” how humans share cognitive ability and predictive processing with artificial intelligence, which in AI is reflected in pattern recognition and predictions based on probability calculations. I will then point out some problems that we humans face by basing our thinking on pattern recognition and comment on some fears that exist today about the spread of artificial intelligence and/or equating it with human intelligence.

Finally, I will raise some questions and proposals about the future role of philosophy, both true philosophy and academic philosophy.

Keywords: Artificial intelligence, philosophical practice, mind, predictions

 

¿La inteligencia humana funciona como la inteligencia artificial?

¿Qué pasará con la carrera de filosofía y la profesión de la filosofía ahora que la IA puede articular con más detalle y citar de manera inmediata las fuentes de quién dijo qué, dónde y cuándo y cómo se pueden relacionar los diferentes temas tratados por los diferentes filósofos y como se relacionan los diferentes debates entre ellos? Si la IA supera en muchos de estos aspectos a la mente humana la cuestión sería reconocer aquellos ámbitos en los que la IA no puede superar o suplantar a la mente humana. Y enfocar el quehacer filosófico futuro en esos ámbitos.

Antes de responder a esto último cabe analizar primero brevemente en qué se parece el funcionamiento de la inteligencia artificial al funcionamiento de la mente humana.

1. Pensamiento humano e inteligencia artificial:  reconocimiento de patrones y predicciones

Al respecto el filósofo británico Andy Clark, especialista en ciencia cognitiva, en su libro La máquina de la experiencia: cómo nuestras mentes predicen y dan forma a la realidad[1] (2023) nos dice que los seres humanos compartimos con la inteligencia artificial la capacidad cognitiva y el procesamiento predictivo, y en este sentido los seres humanos y la Inteligencia Artificial seríamos bastante parecidos. Según Clark los seres humanos a través de la experiencia conocemos por la percepción y la acción.  La percepción implica encontrar las mejores predicciones para ajustar los datos sensoriales percibidos a la clasificación según patrones de las percepciones anteriores y, por otra parte, la acción implica intervenir en el mundo para que mi acción coincida con mis predicciones (p.ej.: me muevo para ver mejor algo y confirmar mis expectativas, y en algunos casos, para descartarlas (darme cuenta del error en la percepción). La percepción y la acción trabajan juntas de manera dialéctica para minimizar el error de predicción entre la mente y su entorno. En ese sentido, postula Clark, que la cognición humana no ocurre solo dentro del cerebro, sino que la mente se puede extender al mundo exterior a través de herramientas, tecnologías y estructuras sociales.

     Internamente la inteligencia artificial funciona reconociendo patrones y haciendo predicciones en base al cálculo de probabilidades. Por ejemplo, en el campo del lenguaje para la IA lo que llamamos “conceptos” corresponde a una serie de patrones lingüísticos a los cuales asignamos determinada palabra, por ejemplo, un “concepto”. Pero si en determinado contexto de conversación van variando (restringiéndose o ampliándose) los patrones lingüísticos asignados a ese “concepto”, la IA “predice” que a continuación en este contexto se seguirán asignando estos nuevos patrones lingüísticos restringidos o ampliados a este concepto. Así, en la interacción con la Gran data y con los “usuarios” (los seres humanos) la IA va reconociendo los patrones lingüísticos y de comportamiento de los seres humanos y toma decisiones en base a lo que sea más probable que sea lo correcto con respecto a una tarea dada. En ese sentido la IA toma decisiones básicamente por inducción.

Es interesante que el desarrollo de la IA ha llevado también a aclarar el funcionamiento de la mente humana y su forma de verificación. La lógica proposicional con p y q se restringe al ámbito de los mecanismos de conexión, es decir, se restringe al modo de operar sintácticamente entre las proposiciones p y q. Pero lo más importante para establecer verdaderas tablas de verdad son los contenidos de las proposiciones p y q, no tanto la relación lógica entre ellas, que nos resulta por lo general evidente. La verisimilitud del contenido semántico de las proposiciones p y q es la base más profunda sobre la que se monta el pensamiento y el razonamiento lógico humano. Esta visión de Clark hace recordar el problema planteado por Mortiz Schlick en el Círculo de Viena planteara en su Teoría General del conocimiento (1925) sobre que la pregunta de fondo de la filosofía del conocimiento es cómo es siquiera posible el reconocimiento de un conocimiento válido, ¿cómo evaluar y legitimar la descripción exacta de los fenómenos?

La respuesta la tenemos hoy: El reconocimiento de patrones en el uso de lenguaje, pero también en el reconocimiento y manejo de imágenes y sonido y las predicciones en base a probabilidades son la base del funcionamiento de la inteligencia artificial y esto nos presenta también la prueba empírica de cómo conoce el ser humano (al menos en parte).

 

 

2. Problema que presenta el reconocimiento de patrones 

Si el ser humano, sobre todo en su niñez, ama a sus padres y quiere ser amado por ellos, como sucede entre muchos otros mamíferos y aves también, entonces, tratará de reconocer y emular los patrones de su comportamiento y de lo que les place y de las creencias de sus seres queridos. Sobre esos patrones arma sus criterios de verdad, es decir las proposiciones “verdaderas” a partir de las cuales estructurará una visión más o menos lógica del mundo. Es decir que estos criterios basados en los patrones que reconoce entre sus seres queridos y que se fundamentan en el afecto, el temor u otras emociones son las “verdades primeras” que asumirá y defenderá con artilugios lógicos, eventualmente correctos. Esto explica por qué la argumentación lógica casi nunca hace cambiar de opinión a las personas.

Una de las diferencias de la Inteligencia Artificial con respecto a los seres humanos es que el reconocimiento de patrones no se basa en tratar de reconocer patrones en base a las emociones que vincula a ellos, sino que se basa en tratar de reconocer patrones en base a contenidos.

Ya se tenía idea de este problema de la forma de adquirir conocimiento en la edad antigua y en la edad media, aunque solo por observación empírica. Al respecto el filósofo español Averroes (1126 –1198) en el Libro I de su Comentario sobre La República de Platón dice:

Los jóvenes aceptan las opiniones que les inculcan sus educadores [padres/maestros] no porque las comprendan a través de la demostración, sino porque confían en quien las expresa y se someten a su autoridad. Esto es especialmente cierto cuando las opiniones se repiten a menudo y se refuerzan con el consenso comunitario, ya que entonces se vuelven casi «naturales» para el niño, y abandonarlas en la edad adulta se vuelve tan difícil como abandonar las disposiciones innatas.

Esta es también la razón por la que a los hombres que se crían desde la infancia bajo una determinada ley religiosa o costumbre religiosa les resulta casi imposible aceptar cualquier ley religiosa o costumbre contraria, ya que estas les parecen incoherentes y absurdas, al igual que sus propias tradiciones pueden parecerles a otros. Las historias y opiniones impresas en sus almas en la juventud se convierten en una segunda naturaleza, y cuando se encuentran con narrativas diferentes en la edad adulta, sus mentes se rebelan contra ellas como uno se rebela contra lo antinatural.

Por ello, Averroes propone, que es necesario enseñar los textos religiosos en la niñez, ya que contienen una serie de relatos inverosímiles y solo es posible que los niños las acepten si lo hacen por congraciarse con sus padres, y en su adultez no los cuestionarán, porque sería como cuestionar la inteligencia de sus padres y ancestros y la suya propia por habérselo creído.

Tenemos entonces que el ser humano monta su red de percepciones y acciones sobre la base de unos patrones que él principalmente ha configurado en su primera infancia. Una vez estructurada su red de creencias, hace uso de la lógica para fundamentarlas de una u otra manera y si pierde en el debate defendiendo su posición, no pensará por lo general que su perspectiva estaba errada, sino que se lamentará de haber fracasado en defenderla bien.

3. Temores ante la inteligencia artificial

Para Clark la IA llegará a ser simplemente una herramienta para ampliar la capacidad de la mente humana, así como lo ha sido la escritura a inicios de la humanidad. La mente humana se ha extendido, primero por el lenguaje, luego por la escritura y la lectura, las computadoras, el aprendizaje social, el conocimiento histórico, etc. Estas extensiones de la mente humana, en sus orígenes causaron saltos cualitativos en la vida de los seres humanos y también grandes temores Así, el origen de la escritura y la lectura en la civilización significaron un empoderamiento enorme del ser humano con respecto a los humanos que no conocieron la escritura.

Al igual que hoy mucha gente le teme a la herramienta de la Inteligencia Artificial, en ese entonces se temía a la escritura.  Tenemos el ejemplo que Platón cuenta en el mito de Theuth (Zeus) en el diálogo Fedro [275a].

Sócrates relata que, en Egipto, el dios Theuth inventó los números, el cálculo, la geometría, la astronomía, los juegos de mesa y la escritura. Al presentar sus creaciones al rey Thamus de Tebas, este las evaluó una por una, elogiando o criticando su utilidad.

Pero cuando llegó a los caracteres de la escritura [ojo acá con la analogía con la IA]: "Este conocimiento, ¡oh rey! - dijo Theuth -, hará más sabios a los egipcios y vigorizará su memoria: es el elixir de la memoria y de la sabiduría lo que con él se ha descubierto". Pero el rey respondió: "¡Oh! ingeniosísimo Theuth! Una cosa es ser capaz de engendrar un arte, y otra es ser capaz de comprender qué daño o provecho encierra para los que de ella han de servirse, y así tú, que eres padre de los caracteres de la escritura, por benevolencia hacia ellos, les has atribuido facultades contrarias a las que poseen. Esto, en efecto, producirá en el alma de los que lo aprendan el olvido por el descuido de la memoria, ya que, fiándose a la escritura, recordarán de un modo externo, valiéndose de caracteres ajenos; no desde su propio interior y de por sí. No es, pues, el elixir de la memoria, sino el de la rememoración, lo que has encontrado. Es la apariencia de la sabiduría, no su verdad, lo que procuras a tus alumnos; porque, una vez que hayas hecho de ellos eruditos sin verdadera instrucción, parecerán jueces entendidos en muchas cosas no entendiendo nada en la mayoría de los casos, y su compañía será difícil de soportar, porque se habrán convertido en sabios en su propia opinión, en lugar de sabios".

¿No son estas desventajas descritas de la escritura acaso análogas a las que se le atribuyen a la difusión de la inteligencia artificial?

Clark postula que las herramientas de IA (como ChatGPT, DeepSeek, motores de búsqueda o asistentes de voz) funcionan como "prótesis cognitivas externas", ampliando el pensamiento humano, al igual que las libretas o las calculadoras.

Su teoría de la mente extendida sugiere que la Inteligencia Artificial no es solo una herramienta para la mente humana, sino una nuevo nivel de repotenciación de la cognición humana. Y a medida que la IA se vuelva más adaptativa y personalizada, la línea entre "usuario" y "sistema" se difuminará, y nos obligará a repensar la inteligencia, la acción e incluso lo que significa la mente humana y el ser humano.

Ahora, siendo la inteligencia artificial una creación humana que emula la forma de pensar del ser humano ¿no es acaso equivalente a ella?

Muchos se oponen a aceptar que la inteligencia artificial sea análoga a la inteligencia humana.

Al respecto el filósofo sloveno Slavoj Zizek plantea que no ve ningún problema en aceptar que la Inteligencia Artificial nos supere, ya que la IA razona igual que el ser humano, que lo ha creado, pero sin todas las fallas que son propias y esenciales a nosotros los seres humanos.  En ese sentido Zizek señala que la IA refleja la falibilidad de la cognición humana: “No veo el problema en que la inteligencia artificial sea más brillante que nosotros, sino en que no sea tan estúpida como podemos serlo los humanos. Lo que creo que es único en nosotros, los humanos, es ser estúpidos de una manera adecuada”[2]. Es decir, haber aprendido a manejar nuestros errores con gran habilidad. Porque “La esencia misma del ser humano está marcada por una estructura de limitación inmanente, de no ser «plenamente» lo que uno es, de que la identidad de uno se vea frustrada de manera constitutiva. La paradoja es que, si eliminamos este límite u obstáculo e imaginamos a un ser humano «pleno» privado de su giro perverso, perdemos la humanidad misma. En otras palabras, esta limitación inmanente, el fracaso de ser lo que uno es, es constitutiva del ser humano. Por eso los seres humanos siempre fantasean con un estado en el que finalmente serían «plenamente humanos»: ser plenamente humano equivale a ser sobrehumano”. (¿Como la IA?) “La trampa es que este mismo fracaso de ser plenamente humano desencadena lo que llamamos “creatividad cultural”, es decir, nos empuja hacia la trascendencia continua de nosotros mismos. En otras palabras, desde una perspectiva poshumana, la emancipación humana pasa a ser lo mismo que emanciparse de la humanidad, de las limitaciones de ser meramente humano”[3]. La pregunta más bien sería “¿Por qué siempre nos preguntamos si la Inteligencia Artificial va a superar a la inteligencia humana? Claro que la IA nos va a superar en inteligencia, en rapidez y en resolver operaciones intelectuales. Y no hay que ser un ingenuo conservador: Lo que diferencia a la IA del ser humano no es que el ser humano tenga espiritualidad y la IA no. Probablemente la IA desarrolle una suerte de espiritualidad totalmente distinta a la nuestra, que será incomprehensible para nosotros[4]. El no querer aceptar que la inteligencia humana sea análoga a la inteligencia artificial es un fenómeno parecido a cuando en la época de Darwin la gente no  quiso aceptar que el ser humano fuese un animal más. ¿Acaso nuestra vida cotidiana cambiaría si asumiéramos que somos máquinas biológicas (y los demás animales también)?

4. ¿En qué se debería enfocar la filosofía en tiempos de la inteligencia artificial?

Finalmente plantearé algunas preguntas y propuestas sobre el papel futuro de la filosofía, tanto de la verdadera filosofía como de la filosofía académica: ¿Qué pasará con el quehacer filosófico y con la carrera universitaria de filosofía ahora que la IA puede articular con más detalle y citar de manera inmediata las fuentes de quién dijo qué, dónde y cuándo y que además puede relacionar rápidamente los diferentes temas tratados por los diferentes filósofos existentes en todos los tiempos en todas partes del mundo y puede relacionar los diferentes debates entre ellos? ¿Qué sentido tienen los artículos académicos que mandan publicar a los filósofos en revistas indexadas, y que son leídos por un puñado de gentes, en este contexto nuevo donde cualquier persona puede verificar y evaluar la autenticidad y veracidad de las fuentes de cualquier artículo? ¿Qué sentido tiene que los profesores tengan que leer y evaluar trabajos que los estudiantes han mandado a hacer a la IA? Son algunas de las muchas preguntas que se plantean para la academia filosófica, y en realidad, para todo el sistema educativo futuro.

Si la IA supera en muchos de estos aspectos a la mente humana la cuestión sería reconocer aquellos ámbitos en los que la IA no puede superar o suplantar a la mente humana. Y enfocar el quehacer filosófico futuro principalmente en esos ámbitos. Propongo tres para empezar:

· Volver al ser humano y a temas relacionados a nosotros: Los seres humanos somos seres bio-psico-sociales.  La IA no tiene una referente bio-psico-social como nosotros. Su “cuerpo” es un hardware. Eso no la hace menos valiosa. Pero como seres humanos tenemos experiencias, vivencias tanto internas, psicológicas, emotivas, sensoriales como externas, culturales, artísticas, sociales o políticas, dentro de un marco histórico-social que marca nuestra vivencia del mundo. Y estas vivencias las queremos compartir con otros seres humanos de los cuales sabemos que también han tenido una “verdadera” vivencia como seres bio-psico-sociales en el mundo y que consideramos que nos “entienden”, aunque lo hagan mal. Sentimos la necesidad de intercambiar experiencias y pasar tiempo con otros seres humanos. Acá se abren y reabren muchas nuevas y viejas preguntas de la filosofía. ¿Qué es el pensar? ¿Qué pasa en nosotros cuando pensamos? ¿Qué tipo de existencia tiene el contenido de nuestro pensamiento, de nuestros sueños, tanto despiertos como dormidos? ¿Se diferencia estos contenidos en el tipo de contenido del pensar de la IA? ¿En qué punto el ser humano sería muy diferente de la IA o de los demás animales? ¿Qué son las emociones? ¿Por qué nos gusta estar junto con nuestros seres queridos y amigos? ¿Qué significa eso de “seres sociales”? ¿Por qué si los seres humanos son inteligentes se enfrascan en guerras de exterminio? ¿Por qué seguimos asumiendo como natural vivir en sociedades organizadas injustamente? ¿Qué nos mueve a la acción?¿Por qué nos gusta la música?

· Volver al diálogo entre seres humanos, es decir a la acción del pensar en el aquí y ahora, debates y reflexiones en el aula, eventualmente con utilización de diferentes IAs como fuente de datos. Por ejemplo, la lectura en voz alta de parágrafos relevantes del Tractatus de Wittgenstein o de Bartolomé o de la Dominación de Salazar Bondy, luego el maestro propone algunas reflexiones breves y algunas preguntas para estimular la reflexión al respecto y luego los estudiantes con IA en mano pasarán a exponer ideas interesantes al respecto para debatir y reflexionar (los buenos estudiantes incluso ya habrán traído de antemano las fuentes más relevantes para fundamentar lo que quieren sostener o proponer a reflexión). En el calor y pasión del diálogo los demás estudiantes pueden rastrear las fuentes de sus compañeros y al hacerlo estarán aprendiendo de manera activa sobre esas otras fuentes. Y disfrutarán de su participación en el diálogo filosófico mundial.

· Mantener la conciencia crítica también con respecto al accionar de la IA. Cuestionar y revisar constantemente las fuentes a las que remite la IA, que sean correctas y exactas y no hayan sido manipuladas por terceros o por sí misma. Esto significa volver siempre a las fuentes mismas. Leer los textos originales. Evitar leer solo resúmenes, por ejemplo. Hacer esto teniendo en cuenta que también los seres humanos pueden dar datos incorrectos o inexactos por haber sido manipulados, por fanatismo o por alguna otra razón privada.



[1] Andy Clark, The Experience Machine: How Our Minds Predict and Shape Reality (New York: Pantheon Books, 2023).

[2] Slavoj Žižek on Artificial intelligence (AI) https://www.youtube.com/watch?v=wpL3xPxNweY , min 1:25.

[3] Slavoj Žižek, Disparities (London: Bloomsbury Academic, 2016), pp. 28-29.

[4] Slavoj Žižek: Can AI eliminate humanity? Entrevista en: https://www.youtube.com/watch?v=vQuE67ZRctg, min. 2:56.

 Ir a RPFA # 26


No hay comentarios:

Publicar un comentario

Montgomery Urday, William (2025). "Variedades de la problemática filosófica en la psicología". Lima: Grupo Heraldos Editores.

Psic. Sonia Jáuregui Rivera El libro ofrece un contenido amplio, diverso con una panorámica vasta y compleja que vincula a la filosofía, e...