Freddie DeBoer resume en Substack lo que parece ser el quid de la cuestión de la AI (Inteligencia Artificial, por sus siglas en inglés. N. del E.) para los no filósofos:


Hace décadas, un científico informático llamado Terry Winograd señaló que no existe un sistema que realmente pueda dominar el lenguaje sin una teoría del mundo. Es decir, como ciencia del significado, la semántica no puede ser separada del mundo que produce significado; para comprender y hablar eficazmente las palabras deben entenderse y para que las palabras puedan entenderse deben compararse con un universo que se aprehende con algo así como una mente consciente. Puede ver esto observando la relación entre la coindexación, el proceso de asignar pronombres a los sustantivos a los que se refieren y el análisis del lenguaje natural”. 

Un comentarista de este boletín propuso un buen ejemplo:

La pelota rompió la mesa porque era de hormigón.

La pelota rompió la mesa porque era de cartón.

Estas dos oraciones son gramaticalmente idénticas y sólo se diferencian por el material especificado. Y, sin embargo, 99 de cada 100 seres humanos dirán que, en la primera frase, “eso” se refiere a la pelota, mientras que en la segunda “eso” se refiere a la mesa. ¿Por qué? Porque las mesas de concreto no se rompen si les dejas caer bolas, y las bolas no rompen las mesas si (las bolas) están hechas de cartón. 

En otras palabras, podemos coindexar estos pronombres porque tenemos una idea de cómo funciona el universo que informa nuestro análisis lingüístico. Y ésta, fundamentalmente, es una diferencia clave entre la inteligencia humana y un modelo de lenguaje grande. 

ChatGPT podría lograr la coindexación correcta para cualquier conjunto de oraciones, dependiendo de qué respuesta su modelo considere más cuantitativamente probable. Pero no lo hará de manera consistente, e incluso si lo hiciera, no lo hará porque tenga un modelo mecanicista de causa y efecto del mundo como lo tenemos usted y yo.


En cambio, está utilizando sus vastos conjuntos de datos y modelos complejos para generar una asociación estadística entre términos y producir una respuesta probabilística a una pregunta. Fundamentalmente, está impulsado por la noción de que la comprensión puede derivarse de las relaciones próximas entre las palabras en uso. Lo hace aprovechando conjuntos de datos insondablemente vastos, parámetros y barreras de seguridad de inmensa complejidad. 

Pero en el fondo, como todos los grandes modelos de lenguaje, ChatGPT está haciendo inferencias fundamentadas sobre cuál podría ser una respuesta correcta en función de sus datos de entrenamiento. No se trata de observar cómo funciona el mundo, llegar a una conclusión. De hecho, no hay ningún lugar dentro de ChatGPT donde esa “mirada” pueda ocurrir o donde pueda surgir una conclusión. No puede saberlo.

Cuando alguien dice que ChatGPT “sabe” qué es la mantequilla de maní, está bien siempre y cuando se entienda que este conocimiento es una cuestión de observar la relación próxima de la “mantequilla de maní” con la gelatina, el pan, el apio…. Es no saber en el sentido de poseer una comprensión del universo como un sistema mecanicista donde las cosas tienen relaciones portadoras de significado entre sí que no surgen de ninguna manera de su expresión en la distribución de señales en el lenguaje natural. 

ChatGPT puede inferir a partir de datos probabilísticos que la mantequilla de maní es algo que se come en la producción de texto, pero no puede., saber qué es la mantequilla de maní o lo que se come. 

Para obtener más información sobre este problema, puede escuchar la conservación de Sam Harris con Stuart Russel y Gary Marcus.

El problema del lenguaje privado

Desde un punto de vista filosófico, el uso de las palabras “conciencia” y “saber” en el texto de DeBoer es muy problemático. Todo el debate sobre la conciencia todavía tiene que despegar, ya que no tenemos una definición satisfactoria de qué es o dónde se encuentra. Si la conciencia se interpreta como “ser consciente de”, como en “Soy consciente de que esto es una mala idea”, entonces Chat GPT tiene alguna forma de conciencia. Puede seguir ciertas reglas y normas e incluso darte extrañas lecciones morales si le preguntas sobre racismo o discriminación.

Sin embargo, cuando hablamos de “conciencia” como la capacidad de tener un enfoque ontológico del mundo , es decir, una teoría sobre lo que hay ahí fuera , las cosas se complican un poco más.

La realidad es que no sabemos qué sabe Chat GPT . Si adoptamos un enfoque más solipsista, tendríamos que afirmar que ni siquiera sabemos lo que saben los demás. Esto es lo que dijo Ludwig Wittgenstein en su argumento El escarabajo en una caja

Ahora voy a copiar esto de Wikipedia porque no quiero perder mucho tiempo explicándolo:

Wittgenstein invita a los lectores a imaginar una comunidad en la que cada individuo tiene una caja que contiene un ‘escarabajo’. Nadie puede mirar dentro de la caja de otro, y todo el mundo dice que sabe lo que es un ‘escarabajo’ sólo con mirar su ‘escarabajo’.

Si el ‘escarabajo” tuviera un uso en el lenguaje de estas personas, no podría ser como el nombre de algo, porque es muy posible que cada persona tuviera algo completamente diferente en su caja, o incluso que la cosa en la caja constantemente cambiado, o que cada casilla estaba realmente vacía. El contenido de la caja es irrelevante para cualquier juego de lenguaje en el que se utilice”.

¿Qué quiere decir esto? Significa que no puedo inferir nada sobre tu espacio interior privado usando el lenguaje. Pensemos en cómo enseñamos a los niños: los vemos frotarse la barriga y les explicamos que les “duele la barriga”, aunque no tenemos forma de saber si es así. Podríamos medir el dolor con máquinas y cosas así, pero esto aún no nos diría nada sobre el dolor que está experimentando el niño. Suponemos que sienten lo mismo que nosotros, pero no hay forma de saberlo.

Hablar de “conciencia” y “saber” es un error porque utilizamos respuestas y acciones externas para inferirlas. Realmente no hay forma de “saber” si la AI lo sabe. Al igual que no hay forma de saber si alguien más está consciente.

Como seres humanos, utilizamos reglas y normas externas para concluir que el niño ha entendido algo. Lo único que podemos hacer es centrarnos en la capacidad del niño para seguir una regla: si queremos poner a prueba sus conocimientos en matemáticas, le pediremos que resuelva un problema. ¿Cómo sabemos que ha “entendido” en lugar de simplemente recitar una solución que aprendió de memoria? 

No podemos. Simplemente suponemos que entendió, del mismo modo que suponemos que un niño sabe qué es “rojo” si elige el color después de que le preguntamos. ¿Significa esto que su experiencia con el color rojo es tan vívida como la tuya? Eso es imposible de saber. Simplemente asumimos que su rojo (es decir, su “escarabajo”) es como el nuestro, porque reacciona a los estímulos de la misma manera.

El fantasma en la máquina

Este es el truco del test de Alan Turing: convencer al sujeto de que la computadora tiene vida interna y, por lo tanto, es sensible porque puede responder preguntas como lo haría un humano. Si sigue reglas y normas como un humano, entonces es indistinguible de un humano. Si es sensible o si tiene vida interna o un escarabajo o lo que sea es completamente irrelevante. 

Lo mismo ocurre con los niños: no me importa cuál sea tu experiencia con el rojo , lo único que me importa es que elijas el color correcto. Bien podrías ser daltónico: mientras sigas seleccionando el color correcto, nadie podrá darse cuenta de que no tienes una imagen roja en tu cabeza cuando escuches la orden “ve a buscar el color rojo”.

Volviendo al principio, el problema con Chat GPT es técnico y matemático. Sabemos que necesita un enfoque ontológico, es decir, una teoría del mundo, para cometer menos errores. No sabemos (y nunca lo sabremos) si es consciente o no. Demonios, ni siquiera sé si estás consciente: puede que ni siquiera existas, siendo esto sólo un sueño.

En este sentido, no creo que sea tan difícil darle a las AI un sistema de representación del mundo. Tan pronto como incorpores Chat GPT en un sistema de representación espacial, acelerará su visión del mundo. ¿Qué quiero decir con esto? Estoy pensando en un androide.

Si le damos a la AI extremidades, la capacidad de caminar y recopilar información en el mundo real, seguramente superará muchos de los obstáculos que DeBoer y Harris presentan en sus sitios.

Por lo tanto, hablar de “conciencia” y “saber” es un error porque utilizamos respuestas y acciones externas para inferirlas. Realmente no hay forma de “saber” si la AI lo sabe. Al igual que no hay forma de saber si alguien más está consciente.

Terminaré diciendo que no me preocupan mucho los rumores apocalípticos sobre la AI. Los seres humanos siempre hemos pensado que estábamos viviendo el fin de los tiempos y siempre hemos tenido miedo de la tecnología. Luego nos adaptamos…

  • Ilustración: Getty Images