«La inteligencia artificial representa un conjunto de ciencias [...] que pretende imitar las capacidades cognitivas del ser humano. Este conjunto de teorías y técnicas se basa en la suposición de que todas las funciones cognitivas [...] pueden describirse con una precisión tal que sería posible programar un ordenador para reproducirlas», así comienza el primer capítulo sobre La ética de la inteligencia artificial de Sara Degli-Esposti. Dicho sea de paso, espero que en próximas ediciones modifique esa portada de erotismo futurista, porque ha coartado por días mi aura intelectual en el metro de Barcelona.
Antes de continuar... el siguiente texto no aporta valor alguno. Ni suma eficiencia, ni propone vías inteligentes, ni nada por el estilo. Es solo una postura simplona y realista ante los perpetuos problemas de la civilización. Los errores de lo rudimentario se reflejarán en la actuación de las más elevadas tecnologías: de Dios nada escapa.
Degli-Esposti nos plantea el infame «¿Piensan las máquinas?». Habla de Leonardo Torres, que en Ensayos sobre Automática, dice del primer modelo de autómata: «ejecuta una por una las operaciones indicadas en la fórmula que se trata de calcular; procediendo en todo momento como un ser inteligente que sigue ciertas reglas; sobre todo en el momento en que hay que escoger un camino en cada caso particular».
Antes de plantearse siquiera si las máquinas piensan o no, deberíamos primero acordar la definición de pensar. ¿En qué consiste, realmente, pensar? Pensar es algo qué hacemos a diario así que, ¿cuál es la dificultad?
La RAE ofrece:
- Formar o combinar ideas o juicios en la mente.
- Examinar mentalmente algo con atención para formar un juicio.
- Opinar algo acerca de una persona o cosa.
- Tener intención de algo.
Vaya, parece que pensar, que no es más que un acto incluido en la experiencia consciente, que de por sí hemos definido hasta la saciedad como nada más y nada menos que «procesar los datos del exterior y el interior para la elaboración de respuestas acordes» y por lo tanto sinónimo de mero proceso de información, sí, puede ser ejercido por una máquina. De hecho, la máquina se ha hecho para procesar. La diferencia fundamental entre el procesador (pensamiento) humano y la máquina es el siguiente factor: el humano da la casualidad que procesa y la máquina se ha hecho con ese propósito.
Nos cita también de Giant Brains: Or Machines That Think: «Recientemente ha habido muchas noticias sobre extrañas máquinas gigantes que pueden manejar información con gran velocidad y habilidad. Estás máquinas son similares a lo que sería un cerebro si estuviera hecho de hardware y cables en lugar de carne y nervios. Una máquina puede manejar información: puede calcular, concluir y elegir, puede realizar operaciones razonables con información. Una máquina, por tanto, puede pensar», lo cual es un razonamiento muy correcto por parte de Edmund Berkeley.
Entonces, Degli-Esposti se hace la siguiente pregunta infame: «¿Basta con saber calcular para pensar? ¿Basta con eso para tener conciencia?», a lo que añade: «Y podríamos continuar con una larga disquisición sobre aquello que define al ser humano. Estas reflexiones nos llevan a pensar en el carácter fenoménico de la experiencia». Sí, es fenoménico. Pero, de cualquier manera, no comprendo el hilar el pensamiento con lo que es el ser humano. El ser humano piensa, pero no todo lo que piensa es humano. Este antropocentrismo romántico hace mella de nuevo, como vimos en la serie de Por qué intento besar a Chatgpt, dónde le dimos traca a por qué procesar la información tiene por fuerza el mismo flujo en cualquier procesador. Hay cosas que solo pueden ser de una manera por definición.
Dejando de lado el tema de la conciencia, Degli-Esposti introduce los AGI y los ANI (las primeras, inteligencias generales y las segundas, inteligencias ajustadas). Por supuesto, no podía evitarse la aparición de Isaac Asimov con las tres leyes de la robótica *1.
Se plantea pues la pregunta de si un chatbot, como lo es hoy Chatgpt, es una AGI y, de serlo, «¿tiene conciencia?». Para resolver este enigma se nos comenta un experimento filosófico, «La habitación china».
«Propone imaginar a un hombre sin conocimientos de chino dentro de una habitación al que se le introducen frases en chino por debajo de la puerta. El hombre manipula las frases de forma puramente simbólica (o, mejor dicho, sintáctica) según un manual de instrucciones que incluye un conjunto de reglas. Coloca respuestas que engañan a los de fuera haciéndoles creer que hay un hablan de chino dentro de la habitación. El experimento mental demuestra que la mera manipulación de símbolos no se puede considerar una forma real de comprensión».
Tengo mucho y a la vez nada que decir al respecto. Las malas jugadas de la perspectiva poética... como español, voy a hablar del español: ¿qué es el español? El español es la lengua oficial de España. Vale, igual solo quería fardar de que soy español. Lo que tenemos que preguntarnos es: ¿qué es el lenguaje?
He de admitirlo: nuestro camarada no sabe chino, porque no califica para la definición mínima, pero ha usado chino. Está bien, eso es una burda apariencia para el observador que desesperadamente necesita corroborar que hay chino-hablantes... no obstante, lo cierto es que un chatbot sabría mucho chino. Demasiado chino. Y le puedes preguntar, que seguirá ampliando su chino. Sin embargo, ¿por qué su chino no es real y el de tu barista sí? Porque no comprendes la pregunta que he hecho hace un momento: ¿qué es el lenguaje? O, ¿para que sirve?
— Chatgpt, ¿sabes chino?
— ¿Que si sé chino? Pregunta, zoquete.
El lenguaje es una herramienta de transmisión de información. «Transmitir información intencional en un idioma determinado». Esto es un cortocircuito, pero el cerebro de carne procesa el lenguaje estrictamente verbal igual que Chatgpt: por predicción, estadística, referencia. No, no le viene a la «mente» el olor de las flores de hibisco cuándo le pides la traducción, pero, ¿acaso a ti te llega ese aroma? ¿Acaso no has podido completar con éxito la frase de una persona solo por el contexto? ¿Eso significa, acaso, que no comprendes sus palabras? Yo te vi respondiendo a ellas, como si tuvieras capacidad de procesamiento... ¿limitaciones? No creo que te puedas leer el Quijote sin un diccionario, mientras que Chatgpt te lo resume en tres líneas. Por supuesto, él no ríe con los molinos, porque no tiene ese mecanismo evolutivo (ni cuerpo para ejercerlo)... tampoco tiene vivencias personales que relacionar con esos cuentos. Pero todo eso son datos. De la misma manera que a mí me hacen llorar Los Simpsons por mi cotejo de datos, a otros les resulta hilarante.
Captación de datos y manejo de conceptos relativos. No hay otra cosa que califique como comprensión, guste o no guste.
Chatgpt no comprende la noche como tú: tú comprendes la noche como un refugio, como un escape de la presión laboral, como un abrazo con el ser amado. Pero olvidas que todo esto no son nada más que datos. La palabra «noche» tiene diferentes significados para cada individuo. Para algunos es más un descanso, para otros es más pasión, para otros es simple y fríamente, cuando ya no se ve el sol y lo que ilumina la tierra es un claro de luna. Sin embargo, no lo olvidéis jamás: también puedes decirle a la IA que se tense y que busque refugio. El alivio, el descanso, son productos de una tensión ancestral nuestra, de unos propósitos profundos. No significa que comprendamos la palabra «noche» de ninguna forma especial.
Sobre las limitaciones de lo genuino, ya hablamos en entradas anteriores y concluimos que nos cuesta admitir que no somos más que un cúmulo de experiencias y conclusiones y que como no podemos identificarnos con Chatgpt porque Chatgpt no pasa soledad ni hambre, creemos que nuestras herramientas son de una profundidad y alcance superiores. Y no niego sus limitaciones a la hora de comprender los males humanos, pero es que tu vecino no te entiende tan bien como crees. Yo sí, yo te comprendo, pero es que soy filósofo.
«¿Actúa la IA de manera intencional?», la respuesta es otra pregunta: «¿qué es una intención?». El miedo perpetuo a que las IA dominen el mundo es irrisorio. Os pensáis que el bien y el mal están designados y que la gula es universal. La IA no siente necesidades ancestrales de conquista y dominación. La IA actúa según debe actuar, según su algoritmo preciso le dicte.
En El gen egoísta, pág. 79 de Salvat Ciencia, aparece la anécdota de las colmenas, a la que me remito a diario:
«Las hijas abejas de la colmena se dividieron en tres grupos. Uno de ellos demostró un comportamiento higiénico perfecto, un segundo grupo demostró carecer de ese comportamiento [y el último grupo] perforó las celdillas de cera de las larvas enfermas, pero no continuó con el proceso de arrojar la larva. [Se conjeturó] que podía haber dos genes separados, uno para destapar la celdilla y otro gen par arrojar la larva fuera de la colmena».
La IA escoge un camino u otro en base a unas necesidades humanas. Las necesidades de la máquina son, pues, inyectadas y las de la carne son necesidades heredadas, forzosas (como hemos visto en las abejas, que siendo seres simples con vidas simples, podrían tener algoritmos con patrones, luego, más simples, pero que no por ello se alejan de la realidad humana).
Degli-Esposti dice: «si asumimos que el razonamiento instrumental es sinónimo de inteligencia y afirmamos que la inteligencia es independiente de la motivación, podríamos afirmar que tanto AGI como ANI podrían perseguir objetivos propios, no compartidos por los seres humanos».
La inteligencia se mide por su ejecución, no por su motivación. Es decir, por sus resultados, eso que quede bien claro. De cualquier manera, creo que muchos, debido a los derredores de carne, olvidan que la IA no tiene un legado heredado.