ver más

La IA desde un pensamiento creativo, simbólico y humanista

«Dime qué redes sociales usas y qué tipo de temas frecuentas en la red, y te diré quién eres». Así versaría hoy aquel dicho que solía definirnos por nuestras relaciones, pues actualmente se considera que somos el resultado de un cúmulo de datos que dan origen a un abanico de «tribus digitales», comunidades en línea de personas que comparten intereses comunes y se comunican a través de varias redes sociales.

Así, según los temas de «conversación» (consultas, intercambios, likes, etc.) que tenemos en las redes, aparecemos catalogados en distintas tribus; por mencionar sólo algunas, están los yuccies (entusiasmados por las selfies editadas, trabajos conceptuales, fotografías en blanco y negro, y fotografías personales fragmentadas), o los coffeelosophers (encargados de la cultura en general, experiencias de vida, aprendizaje de forma horizontal, reflexiones y comunicación de sus valores).

En ese sentido, las tribus son marcos de identificación emergentes que han pasado a desplazar a la categorías demográficas dominantes de la cultura, como la edad, etnia, clase, género y sexualidad, relacionadas con la teoría del marketing.

Hoy en día los algoritmos se utilizan para encontrar el amor, para invertir en las mejores acciones, para predecir el crimen, para organizar los resultados de búsqueda en la web, para impulsar nuestra economía, nuestra sociedad y tal vez incluso la forma en que pensamos. Pero, ¿qué es un algoritmo? ¿Cómo o desde dónde leerlo?

En las matemáticas —campo a partir del cual se originó el término—, un algoritmo puede considerarse un conjunto ordenado y finito de operaciones que deben seguirse para resolver un problema, como una receta de cocina en la que cada etapa o, mejor dicho, cada operación de cada etapa del proceso, representaría un algoritmo.

Aunque no siempre logremos percibirlos, con más frecuencia los algoritmos están siendo parte de nuestras vidas: recomendándonos o, más bien, «incitándonos» a definir qué comprar, qué música escuchar o cuál serie de televisión ver. Pero los algoritmos también están apoyando decisiones de mayor impacto, como concluir diagnósticos médicos, seleccionar a los alumnos que serán admitidos en una escuela o administrar beneficios sociales, dice Cristián Rettig en el artículo «Una mirada filosófica a los algoritmos, un desafío profundamente humano», publicado en Gob_Lab UAI en septiembre 2021.

Foto: © Photocreo, Depositphotos

Así, la Inteligencia Artificial (IA) es testigo de un incremento exponencial en su utilización, al tener cada vez más algoritmos para multitud de tareas en una gran variedad de dominios, como lo explican en la Enciclopedia de Filosofía de Stanford los autores Selmer Bringsjord y Naveen Sundar Govindarajulu.

Es entonces cuando los algoritmos dejan de ser un asunto matemático o tecnológico y se vuelven relevantes desde otras perspectivas, agrega Rettig, porque tienen consecuencias que afectan nuestras vidas, nuestras maneras de autoconcebirnos y nuestra forma de reconocernos seres en relación con otros y otras, e incluso en relación con el «totalmente otro», como diría Levinas.

Desde una mirada crítica es tanto o más importante cuestionarse cuáles intereses promueve un determinado algoritmo, qué tan transparente u opaco es y de qué manera se hace cargo de la privacidad de sus usuarios, subraya Rettig. Además, conviene preguntarnos, ¿quién es responsable por una decisión que toma un algoritmo? ¿Qué tipo de comunidades de conocimiento y producción son las que legitiman la manera  como se combinan los datos de los algoritmos? ¿Para qué? ¿Cómo se traza esa responsabilidad? ¿Todos y todas tenemos el mismo tipo de acceso a los mismos tipos de combinaciones algorítmicas, o también hay «clases» de personas para «clases» de algoritmos y, por tanto, segregación, marginación y estratificación de sujetos?

¿Es legítimo o, más aún, moralmente deseable que intervengan algoritmos en temas relativos al bienestar social, a la elección de gustos personales, así como a la tipificación y clasificación de personas y otros modelos de identidad cultural? ¿Qué pasa con los sectores marginados y minoritarios que no encuentran una representación suficiente en estos datos como para ser «incluidos» en una «tribu»? ¿Se han de dejar fuera de nuestro espectro de acción y comunicación? ¿Es legítima la visibilización de nuevos sujetos, a través de estas tribus, por la invisibilización de otros?

Perspectiva crítica ante la IA

Sin duda, la automatización de procesos susceptibles de ser reproducidos como algoritmos es, a fin de cuentas, una ayuda para un sinnúmero de actividades, como lo decíamos antes. El gran problema se presenta cuando asumimos que éstos no son sólo una «ayuda», sino un sustituto de nuestra capacidad de pensar, de desarrollar una consciencia o de llegar a ser libres; es decir, de ser personas, pues clásicamente lo que nos hace reconocernos como tales es la puesta en acción, el ejercicio, la poiesis de nuestra singularidad que, como humanos, se resuelve en nuestra capacidad electiva, creativa, simbólica y comprensiva.

El riesgo de un enfoque «totalizante» o de «fetichización» de la IA es caer en una especie de naturalismo reduccionista, de un materialismo elaborado sobre una base algorítmica, que tiene la presunción de proporcionar un conocimiento cierto sobre todo el funcionamiento del mundo de la acción humana con la convicción de que incluso los estados de ánimo, las sensaciones mentales y las manifestaciones espirituales pueden ser «incitadas» por la combinación de datos digitales, reduciendo la complejidad del mundo y presentando un modelo único que pone en el mismo plano realidades muy diversas. Esto, además, liquida su estatuto ontológico y vacía las cosas y experiencias de su valor y de su sentido, como lo expone Christian Barone en su artículo «Teología y neurociencias: el ser humano en tiempos de naturalismo científico», publicado en el número 38 de la Revista Iberoamericana de Teología

Reducir al hombre a la información de datos equivale a liquidar toda responsabilidad respecto de los propios actos, ya que su esencia se disuelve. El equívoco reside en el hecho de creer que la IA, analizando al hombre como un conjunto de informaciones, puede reducir su esencia a un cúmulo de mensajes.

Edgar Morin ha criticado precisamente este modo de proceder típico del modelo mecanicista que, aunque puesto en crisis en el siglo XX, sigue siendo utilizado para contraponer el verdadero conocimiento, que proviene de las ciencias, a las otras formas de saber. En otras palabras, considera que el conocimiento de los aspectos elementales del mundo físico y de la información, como único principio capaz de explicar la realidad de un fenómeno, termina por limitar y simplificar la realidad compleja y niega la posibilidad de reconocer un principio trascendente de acción en el mundo. Así, lo que está en juego es la cuestión de lo real y de su hermenéutica, a la luz de la revelación y el misterio.

IA, imaginación y capacidad simbólica

Si bien tradicionalmente el entendimiento se considera como la capacidad de correlacionar correctamente parejas de datos, de unir términos y, por tanto, de hacer juicios, esto no significa que el tipo de correlación de datos que realiza la IA a través de la combinación algorítmica esté aún en las condiciones de ser llamado genuinamente «conocimiento».

Me explico: las máquinas obtienen «conocimiento» a través de los seres humanos que codifican e insertan manualmente información, pero no son capaces de leer y escuchar sin supervisión alguna. De igual manera, como lo afirman Russell y Norvig en Artificial Intelligence. A Modern Approach (2009), las técnicas de aprendizaje en IA han avanzado escasamente en la capacidad de constituir una semántica, esto es, asignar un sistema de significaciones al mundo para orientarnos mejor en él. Éstas no construyen nuevas representaciones en niveles de abstracción superiores al vocabulario de entrada. Lo anterior tiene como problema de fondo la capacidad de interpretar, conocer formas y desarrollar de modo natural y autónomo un lenguaje simbólico, como refiere el físico y teórico español Javier Sánchez Cañizares en el artículo «La inteligencia artificial vista desde la filosofía y la teología», publicado en 2018 en Fronteras CTR. Con ello se subraya la existencia de niveles de abstracción de diferentes operaciones cognitivas y, en último término, la inmaterialidad o intencionalidad del conocimiento. Esto, desde la perspectiva de una teología clásica, se vincularía directamente con la creaturalidad humana en su condición de ser a imagen de su Creador.

Parece difícil todavía afirmar que la IA sea un sustituto de la inteligencia humana, pero puede ser una ayuda para su progresiva expansión. La evolución del software, mientras que puede ser realmente potente en un sentido, va siempre detrás del entendimiento humano en cuestiones como la espontaneidad, la imaginación o el sentido común. En todo ello, la capacidad creativa humana es clave. Como añade Sánchez Cañizares, su origen está lejos de ser una cuestión algorítmica y programable. Quizás no tanto por la cuestión de la novedad, sino por la de cómo seleccionar los tipos de creaciones, que no puede definirse de manera universal y a priori.

Me refiero a eso que Descartes afirmaba al decir que la diferencia específica que caracteriza a la inteligencia humana se encuentra en que los procesos mecánicos no pueden en ningún caso alcanzar la universalidad propia de la inteligencia humana. «El conocimiento inmaterial basado en la creatividad y la imaginación, que brinda el intelecto, permite al ser humano abordar nuevos problemas más allá del peligroso ciclo de ensayo y error, sin estar totalmente condicionado por un entorno físico siempre amenazante para su vida, y sin tener que abordarlos de manera algorítmica», apunta Sánchez Cañizares.

El físico Albert Einstein, en una entrevista concedida en 1929, expresó que «la imaginación es más importante que el conocimiento. El conocimiento es limitado. La imaginación comprende el mundo» y traza modelos eficaces para su descripción como horizonte de sentido. Esto se debe a que —como señala Barone— tanto en la base de los procesos creativos como analíticos la imaginación constituye un potente vector de conectividad, capaz de combinar elementos preexistentes, resolver problemas e inventar soluciones, desentrañar aspectos de la realidad que hasta entonces estaban ocultos.

Ya sea visual, lingüística o abstracta; ya sea aplicada al ámbito de la expresividad artística o de la investigación científica, la imaginación se presenta como un instrumento imprescindible de la racionalidad humana en su intento de descubrir lo nuevo (heurístico), interpretar lo real (hermenéutica) y orientar la acción (ética), como lo plantea Christian Barone:

Imaginar permite una «ampliación de la mente», como dirá el beato J. H. Newman, facilitando no sólo la investigación de lo visible, sino también ayudando a captar la realidad de lo que se sitúa más allá de las apariencias. También en la vida espiritual, como enseña Ignacio de Loyola, la imaginación —si se utiliza debidamente— puede amplificar la percepción de la presencia de Dios en todas las cosas, abriendo a los sentidos el camino del descubrimiento y de la exploración mística.

Quizá por ello en Fratelli tutti el papa Francisco da un lugar privilegiado a la imaginación y a la creatividad, como cuidado de la sensibilidad que estará a la base de la comunicación creativa, simbólica y metafórica; del diálogo, los gestos y los lenguajes más allá de las palabras y los conceptos, como clara vía de acceso y apertura a la experiencia de lo humano y lo común. Francisco abrirá esta perspectiva al afirmar lo siguiente: «Hacen falta gestos físicos, expresiones del rostro, silencios, lenguaje corporal, y hasta el perfume, el temblor de las manos, el rubor, la transpiración, porque todo eso habla y forma parte de la comunicación humana» (FT, 43).

La creatividad y la imaginación, los gestos y símbolos, con sus alusiones e imágenes, sus elecciones, sonidos y materiales, con su policromía y ambivalencia, con sus polisemias y evocaciones, hacen posible el «sentarse a escuchar a otro, característico de un encuentro humano, [lo que sería algo así como] un paradigma de actitud receptiva de quien supera el narcisismo y recibe al otro, le presta atención, lo acoge en el propio círculo» (FT, 48).

Como conclusión, una disciplina como la teología no puede ignorar el desafío que la IA presenta, especialmente si reconocemos que su tarea es el «servicio responsable» a la Iglesia, que se confronta con estas nuevas fronteras del saber tecnológico. Hoy se plantea la urgencia de madurar una perspectiva filosófico–teológica que proponga una antropología capaz de afrontar abierta y creativamente cualquier uso de la tecnología que tienda a reducir y marginar cuestiones relativas al ser persona en todas sus dimensiones. 

Para saber más: 
Barone, C. (2024). Teología y neurociencias: el ser humano en tiempos de naturalismo científico. Revista Iberoamericana de Teología, 20(38), 11–33. https://bit.ly/3wqiuCW

Bringsjord, S., & Govindarajulu, N. S. (2018). Artificial Intelligence. The Stanford Encyclopedia of Philosophy (verano de 2024 ed.). https://stanford.io/3Unhkjz

Morin, E. (1974). El paradigma perdido. Ensayo de Bioantropología. Kairós. 

Russell, S., & Norvig, P. (2009). Artificial Intelligence. A Modern Approach (3a ed.). Pearson.

Sánchez, J. (2018, 19 de diciembre). La Inteligencia Artificial vista desde la filosofía y la teología. Fronteras CTR. https://bit.ly/3Wo1Crm

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos en nuestras redes sociales
Suscríbete al boletín semanal

    Enlázate con
    Previous slide
    Next slide
    Artículos relacionados