WHAT SHOULD PHILOSOPHY FOCUS ON IN THE AGE OF ARTIFICIAL INTELLIGENCE?
Carmen Zavala
Doctora en Filosofía por la Universidad Nacional Mayor de San Marcos
Correo-e: carmen@zavala.de
Resumen: Para responder a esta pregunta empezaremos
por preguntarnos en qué se parece y en qué se diferencia el funcionamiento de
la inteligencia humana y de la inteligencia artificial. Sobre esto, el filósofo
británico Andy Clark, especialista en ciencia cognitiva, en su libro “La
máquina de la experiencia: cómo nuestras mentes predicen y dan forma a la
realidad” explica como los seres humanos compartimos con la inteligencia
artificial la capacidad cognitiva y el procesamiento predictivo, que en la
Inteligencia Artificial se reflejan en el reconocimiento de patrones y
predicciones en base al cálculo de probabilidades. Luego señalaré algunos
problemas a los que nos enfrentamos los seres humanos por basar nuestro
pensamiento en el reconocimiento de patrones y comentaré sobre algunos temores
que se tienen hoy en día sobre la difusión de la inteligencia artificial y/o
sobre equipararla a la inteligencia humana.
Finalmente plantearé algunas preguntas y propuestas sobre el papel
futuro de la filosofía, tanto de la verdadera filosofía como de la filosofía
académica.
Palabras clave: inteligencia artificial,
práctica filosófica, mente, predicciones.
Abstract:
To answer this question, we will begin by asking ourselves how human
intelligence and artificial intelligence are similar and how they differ. On
this subject, British philosopher Andy Clark, a specialist in cognitive
science, explains in his book “The Experience Machine: How Our Minds Predict
and Shape Reality” how humans share cognitive ability and predictive processing
with artificial intelligence, which in AI is reflected in pattern recognition
and predictions based on probability calculations. I will then point out some
problems that we humans face by basing our thinking on pattern recognition and
comment on some fears that exist today about the spread of artificial
intelligence and/or equating it with human intelligence.
Finally, I will raise some questions and proposals
about the future role of philosophy, both true philosophy and academic
philosophy.
Keywords: Artificial
intelligence, philosophical practice, mind, predictions
¿La inteligencia humana funciona como la inteligencia artificial?
¿Qué pasará con la carrera de filosofía y la
profesión de la filosofía ahora que la IA puede articular con más detalle y
citar de manera inmediata las fuentes de quién dijo qué, dónde y cuándo y cómo
se pueden relacionar los diferentes temas tratados por los diferentes filósofos
y como se relacionan los diferentes debates entre ellos? Si la IA supera en
muchos de estos aspectos a la mente humana la cuestión sería reconocer aquellos
ámbitos en los que la IA no puede superar o suplantar a la mente humana. Y
enfocar el quehacer filosófico futuro en esos ámbitos.
Antes de responder a esto último cabe
analizar primero brevemente en qué se parece el funcionamiento de la
inteligencia artificial al funcionamiento de la mente humana.
1. Pensamiento humano e
inteligencia artificial: reconocimiento
de patrones y predicciones
Al respecto el filósofo británico Andy Clark,
especialista en ciencia cognitiva, en su libro La máquina de la experiencia:
cómo nuestras mentes predicen y dan forma a la realidad[1]
(2023) nos dice que los seres humanos compartimos con la inteligencia artificial
la capacidad cognitiva y el procesamiento predictivo, y en este sentido los
seres humanos y la Inteligencia Artificial seríamos bastante parecidos. Según
Clark los seres humanos a través de la experiencia conocemos por la percepción
y la acción. La percepción implica
encontrar las mejores predicciones para ajustar los datos sensoriales
percibidos a la clasificación según patrones de las percepciones anteriores y,
por otra parte, la acción implica intervenir en el mundo para que mi acción
coincida con mis predicciones (p.ej.: me muevo para ver mejor algo y confirmar
mis expectativas, y en algunos casos, para descartarlas (darme cuenta del error
en la percepción). La percepción y la acción trabajan juntas de manera
dialéctica para minimizar el error de predicción entre la mente y su entorno.
En ese sentido, postula Clark, que la cognición humana no ocurre solo dentro
del cerebro, sino que la mente se puede extender al mundo exterior a través
de herramientas, tecnologías y estructuras sociales.
Internamente la inteligencia artificial funciona reconociendo
patrones y haciendo predicciones en base al cálculo de probabilidades. Por
ejemplo, en el campo del lenguaje para la IA lo que llamamos “conceptos”
corresponde a una serie de patrones lingüísticos a los cuales asignamos
determinada palabra, por ejemplo, un “concepto”. Pero si en determinado
contexto de conversación van variando (restringiéndose o ampliándose) los
patrones lingüísticos asignados a ese “concepto”, la IA “predice” que a
continuación en este contexto se seguirán asignando estos nuevos patrones
lingüísticos restringidos o ampliados a este concepto. Así, en la interacción
con la Gran data y con los “usuarios” (los seres humanos) la IA va reconociendo
los patrones lingüísticos y de comportamiento de los seres humanos y toma
decisiones en base a lo que sea más probable que sea lo correcto con respecto a
una tarea dada. En ese sentido la IA toma decisiones básicamente por inducción.
Es interesante que el desarrollo de la IA ha
llevado también a aclarar el funcionamiento de la mente humana y su forma de
verificación. La lógica proposicional con p y q se restringe al
ámbito de los mecanismos de conexión, es decir, se restringe al modo de operar
sintácticamente entre las proposiciones p y q. Pero lo más
importante para establecer verdaderas tablas de verdad son los contenidos de
las proposiciones p y q, no tanto la relación lógica entre ellas,
que nos resulta por lo general evidente. La verisimilitud del contenido
semántico de las proposiciones p y q es la base más profunda sobre la que se
monta el pensamiento y el razonamiento lógico humano. Esta visión de Clark hace
recordar el problema planteado por Mortiz Schlick en el Círculo de Viena
planteara en su Teoría General del conocimiento (1925) sobre que la pregunta de
fondo de la filosofía del conocimiento es cómo es siquiera posible el
reconocimiento de un conocimiento válido, ¿cómo evaluar y legitimar la
descripción exacta de los fenómenos?
La respuesta la tenemos hoy: El
reconocimiento de patrones en el uso de lenguaje, pero también en el
reconocimiento y manejo de imágenes y sonido y las predicciones en base a
probabilidades son la base del funcionamiento de la inteligencia artificial y
esto nos presenta también la prueba empírica de cómo conoce el ser humano (al
menos en parte).
2. Problema que presenta el
reconocimiento de patrones
Si el ser humano, sobre todo en su niñez, ama
a sus padres y quiere ser amado por ellos, como sucede entre muchos otros
mamíferos y aves también, entonces, tratará de reconocer y emular los patrones
de su comportamiento y de lo que les place y de las creencias de sus seres
queridos. Sobre esos patrones arma sus criterios de verdad, es decir las
proposiciones “verdaderas” a partir de las cuales estructurará una visión más o
menos lógica del mundo. Es decir que estos criterios basados en los patrones
que reconoce entre sus seres queridos y que se fundamentan en el afecto, el
temor u otras emociones son las “verdades primeras” que asumirá y defenderá con
artilugios lógicos, eventualmente correctos. Esto explica por qué la
argumentación lógica casi nunca hace cambiar de opinión a las personas.
Una de las diferencias de la Inteligencia
Artificial con respecto a los seres humanos es que el reconocimiento de
patrones no se basa en tratar de reconocer patrones en base a las emociones que
vincula a ellos, sino que se basa en tratar de reconocer patrones en base a
contenidos.
Ya se tenía idea de este problema de la forma
de adquirir conocimiento en la edad antigua y en la edad media, aunque solo por
observación empírica. Al respecto el filósofo español Averroes
(1126 –1198) en el Libro I de su Comentario sobre La
República de Platón dice:
Los jóvenes aceptan las opiniones que les inculcan sus educadores
[padres/maestros] no porque las comprendan a través de la demostración, sino
porque confían en quien las expresa y se someten a su autoridad. Esto es
especialmente cierto cuando las opiniones se repiten a menudo y se refuerzan
con el consenso comunitario, ya que entonces se vuelven casi «naturales» para
el niño, y abandonarlas en la edad adulta se vuelve tan difícil como abandonar
las disposiciones innatas.
Esta es también la razón por la que a los hombres que se crían desde la
infancia bajo una determinada ley religiosa o costumbre religiosa les resulta
casi imposible aceptar cualquier ley religiosa o costumbre contraria, ya que
estas les parecen incoherentes y absurdas, al igual que sus propias tradiciones
pueden parecerles a otros. Las historias y opiniones impresas en sus almas en
la juventud se convierten en una segunda naturaleza, y cuando se encuentran con
narrativas diferentes en la edad adulta, sus mentes se rebelan contra ellas
como uno se rebela contra lo antinatural.
Por ello, Averroes propone, que es necesario
enseñar los textos religiosos en la niñez, ya que contienen una serie de
relatos inverosímiles y solo es posible que los niños las acepten si lo hacen
por congraciarse con sus padres, y en su adultez no los cuestionarán, porque sería
como cuestionar la inteligencia de sus padres y ancestros y la suya propia por
habérselo creído.
Tenemos entonces que el ser humano monta su
red de percepciones y acciones sobre la base de unos patrones que él
principalmente ha configurado en su primera infancia. Una vez estructurada su
red de creencias, hace uso de la lógica para fundamentarlas de una u otra
manera y si pierde en el debate defendiendo su posición, no pensará por lo
general que su perspectiva estaba errada, sino que se lamentará de haber
fracasado en defenderla bien.
3.
Temores ante la inteligencia artificial
Para Clark la IA llegará a ser simplemente
una herramienta para ampliar la capacidad de la mente humana, así como lo ha
sido la escritura a inicios de la humanidad. La mente humana se ha extendido,
primero por el lenguaje, luego por la escritura y la lectura, las computadoras,
el aprendizaje social, el conocimiento histórico, etc. Estas extensiones de la
mente humana, en sus orígenes causaron saltos cualitativos en la vida de los seres
humanos y también grandes temores Así, el origen de la escritura y la lectura
en la civilización significaron un empoderamiento enorme del ser humano con
respecto a los humanos que no conocieron la escritura.
Al igual que hoy mucha gente le teme a la herramienta
de la Inteligencia Artificial, en ese entonces se temía a la escritura. Tenemos el ejemplo que Platón cuenta en el
mito de Theuth (Zeus) en el diálogo Fedro [275a].
Sócrates relata que, en Egipto, el dios
Theuth inventó los números, el cálculo, la geometría, la astronomía, los juegos
de mesa y la escritura. Al presentar sus creaciones al rey Thamus de Tebas,
este las evaluó una por una, elogiando o criticando su utilidad.
Pero cuando llegó a los
caracteres de la escritura [ojo acá con la analogía con la IA]: "Este
conocimiento, ¡oh rey! - dijo Theuth -, hará más sabios a los egipcios y
vigorizará su memoria: es el elixir de la memoria y de la sabiduría lo que con
él se ha descubierto". Pero el rey respondió: "¡Oh! ingeniosísimo
Theuth! Una cosa es ser capaz de engendrar un arte, y otra es ser capaz de
comprender qué daño o provecho encierra para los que de ella han de servirse, y
así tú, que eres padre de los caracteres de la escritura, por benevolencia
hacia ellos, les has atribuido facultades contrarias a las que poseen. Esto, en
efecto, producirá en el alma de los que lo aprendan el olvido por el descuido
de la memoria, ya que, fiándose a la escritura, recordarán de un modo externo,
valiéndose de caracteres ajenos; no desde su propio interior y de por sí. No
es, pues, el elixir de la memoria, sino el de la rememoración, lo que has
encontrado. Es la apariencia de la sabiduría, no su verdad, lo que procuras a
tus alumnos; porque, una vez que hayas hecho de ellos eruditos sin verdadera instrucción,
parecerán jueces entendidos en muchas cosas no entendiendo nada en la mayoría
de los casos, y su compañía será difícil de soportar, porque se habrán
convertido en sabios en su propia opinión, en lugar de sabios".
¿No son estas
desventajas descritas de la escritura acaso análogas a las que se le atribuyen
a la difusión de la inteligencia artificial?
Clark postula que
las herramientas de IA (como ChatGPT,
DeepSeek, motores de búsqueda o asistentes de voz) funcionan como
"prótesis cognitivas externas", ampliando el pensamiento humano, al
igual que las libretas o las calculadoras.
Su teoría de la mente
extendida sugiere que la Inteligencia Artificial no es solo una herramienta
para la mente humana, sino una nuevo nivel de repotenciación de la cognición
humana. Y a medida que la IA se vuelva más adaptativa y personalizada, la línea
entre "usuario" y "sistema" se difuminará, y nos obligará a
repensar la inteligencia, la acción e incluso lo que significa la mente humana
y el ser humano.
Ahora, siendo la inteligencia artificial una
creación humana que emula la forma de pensar del ser humano ¿no es acaso
equivalente a ella?
Muchos se oponen a aceptar que la
inteligencia artificial sea análoga a la inteligencia humana.
Al respecto el filósofo sloveno Slavoj Zizek
plantea que no ve ningún problema en aceptar que la Inteligencia Artificial nos
supere, ya que la IA razona igual que el ser humano, que lo ha creado,
pero sin todas las fallas que son propias y esenciales a nosotros los seres
humanos. En ese sentido Zizek señala que
la IA refleja la falibilidad de la
cognición humana: “No veo el problema en que la inteligencia artificial
sea más brillante que nosotros, sino en que no sea tan estúpida como podemos
serlo los humanos. Lo que creo que es único en nosotros, los humanos, es ser
estúpidos de una manera adecuada”[2].
Es decir, haber aprendido a manejar nuestros errores con gran habilidad. Porque
“La esencia misma del ser humano está marcada por una estructura de limitación
inmanente, de no ser «plenamente» lo que uno es, de que la identidad de uno se
vea frustrada de manera constitutiva. La paradoja es que, si eliminamos este
límite u obstáculo e imaginamos a un ser humano «pleno» privado de su giro
perverso, perdemos la humanidad misma. En otras palabras, esta limitación
inmanente, el fracaso de ser lo que uno es, es constitutiva del ser humano. Por
eso los seres humanos siempre fantasean con un estado en el que finalmente
serían «plenamente humanos»: ser plenamente humano equivale a ser sobrehumano”.
(¿Como la IA?) “La trampa es que este mismo fracaso de ser plenamente humano
desencadena lo que llamamos “creatividad cultural”, es decir, nos empuja hacia
la trascendencia continua de nosotros mismos. En otras palabras, desde una
perspectiva poshumana, la emancipación humana pasa a ser lo mismo que
emanciparse de la humanidad, de las limitaciones de ser meramente humano”[3].
La pregunta más bien sería “¿Por qué siempre nos preguntamos si la Inteligencia
Artificial va a superar a la inteligencia humana? Claro que la IA nos va a
superar en inteligencia, en rapidez y en resolver operaciones intelectuales. Y
no hay que ser un ingenuo conservador: Lo que diferencia a la IA del ser humano
no es que el ser humano tenga espiritualidad y la IA no.
Probablemente la IA desarrolle una suerte de espiritualidad totalmente distinta
a la nuestra, que será incomprehensible para nosotros[4].
El no querer aceptar que la inteligencia humana sea análoga a la inteligencia
artificial es un fenómeno parecido a cuando en la época
de Darwin la gente no quiso aceptar que
el ser humano fuese un animal más. ¿Acaso nuestra vida cotidiana cambiaría si
asumiéramos que somos máquinas biológicas (y los demás animales también)?
4. ¿En qué se debería
enfocar la filosofía en tiempos de la inteligencia artificial?
Finalmente plantearé
algunas preguntas y propuestas sobre el papel futuro de la filosofía, tanto de
la verdadera filosofía como de la filosofía académica: ¿Qué pasará con
el quehacer filosófico y con la carrera universitaria de filosofía ahora que la
IA puede articular con más detalle y citar de manera inmediata las fuentes de
quién dijo qué, dónde y cuándo y que además puede relacionar rápidamente los
diferentes temas tratados por los diferentes filósofos existentes en todos los
tiempos en todas partes del mundo y puede relacionar los diferentes debates
entre ellos? ¿Qué sentido tienen los artículos académicos que mandan publicar a
los filósofos en revistas indexadas, y que son leídos por un puñado de gentes,
en este contexto nuevo donde cualquier persona puede verificar y evaluar la
autenticidad y veracidad de las fuentes de cualquier artículo? ¿Qué sentido
tiene que los profesores tengan que leer y evaluar trabajos que los estudiantes
han mandado a hacer a la IA? Son algunas de las muchas preguntas que se
plantean para la academia filosófica, y en realidad, para todo el sistema
educativo futuro.
Si la IA supera en muchos
de estos aspectos a la mente humana la cuestión sería reconocer aquellos
ámbitos en los que la IA no puede superar o suplantar a la mente humana. Y
enfocar el quehacer filosófico futuro principalmente en esos ámbitos. Propongo
tres para empezar:
· Volver al ser humano y a temas relacionados a nosotros: Los seres
humanos somos seres bio-psico-sociales.
La IA no tiene una referente bio-psico-social como nosotros. Su “cuerpo”
es un hardware. Eso no la hace menos valiosa. Pero como seres humanos tenemos
experiencias, vivencias tanto internas, psicológicas, emotivas, sensoriales
como externas, culturales, artísticas, sociales o políticas, dentro de un marco
histórico-social que marca nuestra vivencia del mundo. Y estas vivencias las
queremos compartir con otros seres humanos de los cuales sabemos que también
han tenido una “verdadera” vivencia como seres bio-psico-sociales en el mundo y
que consideramos que nos “entienden”, aunque lo hagan mal. Sentimos la
necesidad de intercambiar experiencias y pasar tiempo con otros seres humanos.
Acá se abren y reabren muchas nuevas y viejas preguntas de la filosofía. ¿Qué
es el pensar? ¿Qué pasa en nosotros cuando pensamos? ¿Qué tipo de existencia
tiene el contenido de nuestro pensamiento, de nuestros sueños, tanto despiertos
como dormidos? ¿Se diferencia estos contenidos en el tipo de contenido del
pensar de la IA? ¿En qué punto el ser humano sería muy diferente de la IA o de
los demás animales? ¿Qué son las emociones? ¿Por qué nos gusta estar junto con
nuestros seres queridos y amigos? ¿Qué significa eso de “seres sociales”? ¿Por
qué si los seres humanos son inteligentes se enfrascan en guerras de exterminio?
¿Por qué seguimos asumiendo como natural vivir en sociedades organizadas
injustamente? ¿Qué nos mueve a la acción?¿Por qué nos gusta la música?
· Volver al diálogo entre seres humanos, es decir a la acción del pensar
en el aquí y ahora, debates y reflexiones en el aula, eventualmente con
utilización de diferentes IAs como fuente de datos. Por ejemplo, la lectura en
voz alta de parágrafos relevantes del Tractatus de Wittgenstein o de Bartolomé
o de la Dominación de Salazar Bondy, luego el maestro propone algunas
reflexiones breves y algunas preguntas para estimular la reflexión al respecto
y luego los estudiantes con IA en mano pasarán a exponer ideas interesantes al
respecto para debatir y reflexionar (los buenos estudiantes incluso ya habrán
traído de antemano las fuentes más relevantes para fundamentar lo que quieren
sostener o proponer a reflexión). En el calor y pasión del diálogo los demás
estudiantes pueden rastrear las fuentes de sus compañeros y al hacerlo estarán
aprendiendo de manera activa sobre esas otras fuentes. Y disfrutarán de su
participación en el diálogo filosófico mundial.
·
Mantener la conciencia crítica también con
respecto al accionar de la IA. Cuestionar y revisar constantemente las fuentes
a las que remite la IA, que sean correctas y exactas y no hayan sido
manipuladas por terceros o por sí misma. Esto significa volver siempre a las
fuentes mismas. Leer los textos originales. Evitar leer solo resúmenes, por
ejemplo. Hacer esto teniendo en cuenta que también los seres humanos pueden dar
datos incorrectos o inexactos por haber sido manipulados, por fanatismo o por
alguna otra razón privada.
[1] Andy
Clark, The Experience Machine: How Our Minds Predict and Shape Reality
(New York: Pantheon Books, 2023).
[2] Slavoj Žižek on
Artificial intelligence (AI) https://www.youtube.com/watch?v=wpL3xPxNweY , min 1:25.
[3] Slavoj Žižek, Disparities (London: Bloomsbury Academic, 2016),
pp. 28-29.
[4] Slavoj Žižek: Can
AI eliminate humanity? Entrevista en: https://www.youtube.com/watch?v=vQuE67ZRctg, min.
2:56.
No hay comentarios:
Publicar un comentario