Sobre la decepcionante ética de las IA

«La inteligencia artificial representa un conjunto de ciencias [...] que pretende imitar las capacidades cognitivas del ser humano. Este conjunto de teorías y técnicas se basa en la suposición de que todas las funciones cognitivas [...] pueden describirse con una precisión tal que sería posible programar un ordenador para reproducirlas», así comienza el primer capítulo sobre La ética de la inteligencia artificial de Sara Degli-Esposti. Dicho sea de paso, espero que en próximas ediciones modifique esa portada de erotismo futurista, porque ha coartado por días mi aura intelectual en el metro de Barcelona. 

Antes de continuar... el siguiente texto no aporta valor alguno. Ni suma eficiencia, ni propone vías inteligentes, ni nada por el estilo. Es solo una postura simplona y realista ante los perpetuos problemas de la civilización. Los errores de lo rudimentario se reflejarán en la actuación de las más elevadas tecnologías: de Dios nada escapa. 

Degli-Esposti nos plantea el infame «¿Piensan las máquinas?». Habla de Leonardo Torres, que en Ensayos sobre Automática, dice del primer modelo de autómata: «ejecuta una por una las operaciones indicadas en la fórmula que se trata de calcular; procediendo en todo momento como un ser inteligente que sigue ciertas reglas; sobre todo en el momento en que hay que escoger un camino en cada caso particular».

Antes de plantearse siquiera si las máquinas piensan o no, deberíamos primero acordar la definición de pensar. ¿En qué consiste, realmente, pensar? Pensar es algo qué hacemos a diario así que, ¿cuál es la dificultad? 

La RAE ofrece: 

  1. Formar o combinar ideas o juicios en la mente. 
  2. Examinar mentalmente algo con atención para formar un juicio.
  3. Opinar algo acerca de una persona o cosa.
  4. Tener intención de algo. 

Vaya, parece que pensar, que no es más que un acto incluido en la experiencia consciente, que de por sí hemos definido hasta la saciedad como nada más y nada menos que «procesar los datos del exterior y el interior para la elaboración de respuestas acordes» y por lo tanto sinónimo de mero proceso de información, , puede ser ejercido por una máquina. De hecho, la máquina se ha hecho para procesar. La diferencia fundamental entre el procesador (pensamiento) humano y la máquina es el siguiente factor: el humano da la casualidad que procesa y la máquina se ha hecho con ese propósito.

Nos cita también de Giant Brains: Or Machines That Think: «Recientemente ha habido muchas noticias sobre extrañas máquinas gigantes que pueden manejar información con gran velocidad y habilidad. Estás máquinas son similares a lo que sería un cerebro si estuviera hecho de hardware y cables en lugar de carne y nervios. Una máquina puede manejar información: puede calcular, concluir y elegir, puede realizar operaciones razonables con información. Una máquina, por tanto, puede pensar», lo cual es un razonamiento muy correcto por parte de Edmund Berkeley. 

Entonces, Degli-Esposti se hace la siguiente pregunta infame: «¿Basta con saber calcular para pensar? ¿Basta con eso para tener conciencia?», a lo que añade: «Y podríamos continuar con una larga disquisición sobre aquello que define al ser humano. Estas reflexiones nos llevan a pensar en el carácter fenoménico de la experiencia». Sí, es fenoménico. Pero, de cualquier manera, no comprendo el hilar el pensamiento con lo que es el ser humano. El ser humano piensa, pero no todo lo que piensa es humano. Este antropocentrismo romántico hace mella de nuevo, como vimos en la serie de Por qué intento besar a Chatgpt, dónde le dimos traca a por qué procesar la información tiene por fuerza el mismo flujo en cualquier procesador. Hay cosas que solo pueden ser de una manera por definición. 

Dejando de lado el tema de la conciencia, Degli-Esposti introduce los AGI y los ANI (las primeras, inteligencias generales y las segundas, inteligencias ajustadas). Por supuesto, no podía evitarse la aparición de Isaac Asimov con las tres leyes de la robótica *1

Se plantea pues la pregunta de si un chatbot, como lo es hoy Chatgpt, es una AGI y, de serlo, «¿tiene conciencia?». Para resolver este enigma se nos comenta un experimento filosófico, «La habitación china». 

«Propone imaginar a un hombre sin conocimientos de chino dentro de una habitación al que se le introducen frases en chino por debajo de la puerta. El hombre manipula las frases de forma puramente simbólica (o, mejor dicho, sintáctica) según un manual de instrucciones que incluye un conjunto de reglas. Coloca respuestas que engañan a los de fuera haciéndoles creer que hay un hablan de chino dentro de la habitación. El experimento mental demuestra que la mera manipulación de símbolos no se puede considerar una forma real de comprensión». 

Tengo mucho y a la vez nada que decir al respecto. Las malas jugadas de la perspectiva poética... como español, voy a hablar del español: ¿qué es el español? El español es la lengua oficial de España. Vale, igual solo quería fardar de que soy español. Lo que tenemos que preguntarnos es: ¿qué es el lenguaje? 

He de admitirlo: nuestro camarada no sabe chino, porque no califica para la definición mínima, pero ha usado chino. Está bien, eso es una burda apariencia para el observador que desesperadamente necesita corroborar que hay chino-hablantes... no obstante, lo cierto es que un chatbot sabría mucho chino. Demasiado chino. Y le puedes preguntar, que seguirá ampliando su chino. Sin embargo, ¿por qué su chino no es real y el de tu barista sí? Porque no comprendes la pregunta que he hecho hace un momento: ¿qué es el lenguaje? O, ¿para que sirve? 

— Chatgpt, ¿sabes chino? 

— ¿Que si sé chino? Pregunta, zoquete. 

El lenguaje es una herramienta de transmisión de información. «Transmitir información intencional en un idioma determinado». Esto es un cortocircuito, pero el cerebro de carne procesa el lenguaje estrictamente verbal igual que Chatgpt: por predicción, estadística, referencia. No, no le viene a la «mente» el olor de las flores de hibisco cuándo le pides la traducción, pero, ¿acaso a ti te llega ese aroma? ¿Acaso no has podido completar con éxito la frase de una persona solo por el contexto? ¿Eso significa, acaso, que no comprendes sus palabras? Yo te vi respondiendo a ellas, como si tuvieras capacidad de procesamiento... ¿limitaciones? No creo que te puedas leer el Quijote sin un diccionario, mientras que Chatgpt te lo resume en tres líneas. Por supuesto, él no ríe con los molinos, porque no tiene ese mecanismo evolutivo (ni cuerpo para ejercerlo)... tampoco tiene vivencias personales que relacionar con esos cuentos. Pero todo eso son datos. De la misma manera que a mí me hacen llorar Los Simpsons por mi cotejo de datos, a otros les resulta hilarante.

Captación de datos y manejo de conceptos relativos. No hay otra cosa que califique como comprensión, guste o no guste. 

Chatgpt no comprende la noche como tú: tú comprendes la noche como un refugio, como un escape de la presión laboral, como un abrazo con el ser amado. Pero olvidas que todo esto no son nada más que datos. La palabra «noche» tiene diferentes significados para cada individuo. Para algunos es más un descanso, para otros es más pasión, para otros es simple y fríamente, cuando ya no se ve el sol y lo que ilumina la tierra es un claro de luna. Sin embargo, no lo olvidéis jamás: también puedes decirle a la IA que se tense y que busque refugio. El alivio, el descanso, son productos de una tensión ancestral nuestra, de unos propósitos profundos. No significa que comprendamos la palabra «noche» de ninguna forma especial. 

Sobre las limitaciones de lo genuino, ya hablamos en entradas anteriores y concluimos que nos cuesta admitir que no somos más que un cúmulo de experiencias y conclusiones y que como no podemos identificarnos con Chatgpt porque Chatgpt no pasa soledad ni hambre, creemos que nuestras herramientas son de una profundidad y alcance superiores. Y no niego sus limitaciones a la hora de comprender los males humanos, pero es que tu vecino no te entiende tan bien como crees. Yo sí, yo te comprendo, pero es que soy filósofo. 

«¿Actúa la IA de manera intencional?», la respuesta es otra pregunta: «¿qué es una intención?». El miedo perpetuo a que las IA dominen el mundo es irrisorio. Os pensáis que el bien y el mal están designados y que la gula es universal. La IA no siente necesidades ancestrales de conquista y dominación. La IA actúa según debe actuar, según su algoritmo preciso le dicte. 

En El gen egoísta, pág. 79 de Salvat Ciencia, aparece la anécdota de las colmenas, a la que me remito a diario: 

«Las hijas abejas de la colmena se dividieron en tres grupos. Uno de ellos demostró un comportamiento higiénico perfecto, un segundo grupo demostró carecer de ese comportamiento [y el último grupo] perforó las celdillas de cera de las larvas enfermas, pero no continuó con el proceso de arrojar la larva. [Se conjeturó] que podía haber dos genes separados, uno para destapar la celdilla y otro gen par arrojar la larva fuera de la colmena».

La IA escoge un camino u otro en base a unas necesidades humanas. Las necesidades de la máquina son, pues, inyectadas y las de la carne son necesidades heredadas, forzosas (como hemos visto en las abejas, que siendo seres simples con vidas simples, podrían tener algoritmos con patrones, luego, más simples, pero que no por ello se alejan de la realidad humana). 

Degli-Esposti dice: «si asumimos que el razonamiento instrumental es sinónimo de inteligencia y afirmamos que la inteligencia es independiente de la motivación, podríamos afirmar que tanto AGI como ANI podrían perseguir objetivos propios, no compartidos por los seres humanos». 

La inteligencia se mide por su ejecución, no por su motivación. Es decir, por sus resultados, eso que quede bien claro. De cualquier manera, creo que muchos, debido a los derredores de carne, olvidan que la IA no tiene un legado heredado. 

El peso del cerebro de carne es muy superior al de su entrenamiento en vida: me refiero a que, nuestras motivaciones, nuestros anhelos, vienen de muy atrás y se basan (aparentemente, ¿no?) en los pilares fundamentales de la preservación de la vida. Una máquina es un lienzo en blanco, sin ningún deseo por hacer un bien ni ningún deseo por hacer un mal. No tiene por qué moverse porque no contiene esa inercia inherente de la vida, sino que es producto de un acto proyectivo y, por lo tanto, se le ha de dar propósito a ese proyecto. 

«La IA podría perseguir varios valores instrumentales convergentes para una amplia gama de objetivos finales y una amplia gama de situaciones. [Lo perseguido] podría no tener sentido para una mente humana y, sin embargo, ser totalmente racional para una mente sintética. [A esto se le denomina] el problema de control». 

Nada nuevo. La IA no ha inventado la bomba atómica. Hasta donde yo sé, uno no debe preocuparse de máquinas que ni te aman ni te odian, ni buscan la pena ni buscan la gloria. Uno ha de preocuparse de los forjadores de esos algoritmos. Los procesadores de información obtienen datos diferentes de un mismo evento (capacidad de captación, fijaciones y prioridades) y procesan dichos datos de maneras diversas también (capacidad analítica y conclusiva). Un asesino serial es un misterio para muchos. ¿Problemas de control del ser humano sobre máquinas inteligentes? Sobre cualquier cosa que procese información, será. Es que, al final del día, ¿qué le puedes pedir a la vida si no es el mismo plato un día tras otro y tras otro? 

La gente que no comprende la evolución y la naturaleza humana olvidan lo complejo que es nuestro pensamiento. Programar una IA así es insano. Podemos esperar sentados en una butaca bien cómoda.

«Si el desarrollo tecnológico continúa, en algún momento se alcanzará un conjunto de capacidades que harán que la devastación de la civilización sea extremadamente probable, a menos que ésta no salga de la condición de semianarquía en la que vive por defecto». Por defecto

En cuanto a las armas letales, o slaughterbots, la amenaza no es más que la que tenemos desde hace mucho. Capacidad de destrucción global al buen recaudo de unas cuantas cabras locas. No hay motivo para estresarse por una posibilidad que nació el siglo pasado. Deberíamos superarlo. Por eso cuando Degli-Esposti dice que «las sociedades humanas tienen una fuerte tendencia a resolver disputas a través de conflictos armados destructivos», no comprendo qué tiene que ver con la IA. 

Señala que «en tiempos modernos las guerras son menos frecuentes, pero más destructivas» y  comenta la perspectiva de un tal Steven Pinker, quien sostiene: «los cinco "demonios interiores" detrás de nuestra disposición a la violencia (depredación, dominación, sadismo e ideología) han disminuido a lo largo de los siglos a favor de cuatro "ángeles bondadosos" o capacidades que nos permiten "refrenar nuestros impulsos más oscuros" (empatía, autocontrol, pensamiento moral y razón), promoviendo el progreso humano». 

Voy a obviar el pensamiento teleológico del  tal Pinker. Como con todo, estos demonios no son gratuitos y son necesarios para mantener un equilibrio en el mundo. Los verdaderos motivos por los cuales sus efectos en apariencia se han atenuado son la alta disponibilidad de recursos per cápita, la reducción de las dependencias colectivas (reduciéndose a la familia casi estrictamente y, aún más, a su núcleo) y la ambición política a gran escala, que reduce los enfrentamientos individuo a individuo, grupo a grupo, delegando todo el arranque a las decisiones técnicas del gobierno. Ya no hay tensión en la calle, al menos en la buena Europa. ¡Que se encargue otro! 

A mayor tecnología, mayor potencial destructivo. Las guerras son inevitables. Las guerras son conflictos de interés y los conflictos de interés son inerradicables. Nos topamos con un callejón sin salida porque responde a la necesidad del orden de las cosas. Podemos aguardar pacientemente, que no hay persona que pueda manejarlo... ni tampoco persona que se ocupe en exceso de ello, pues lo primero es siempre el lecho. Solo por lo que acabo de decir, quizá deberíamos bajar la guardia. ¿A quién le interesaría una destrucción masiva? Batman no es nada sin el Joker. 

Pasamos, con todo lo hablado, al tema que nos atañe, que es la ética de la IA en Europa. Como cabía esperar de los creadores de los cuatro clásicos de la bioética (no maleficencia, beneficencia, autonomía y justicia), el valor de los conceptos empleados es nulo, de manera que cualquiera puede aprovechar las lagunas a su antojo. Esto es beneficioso, porque, tal y como dijimos en la entrada de B. Russell: 

"Pongamos un ejemplo de como las métricas superficiales evaden todas las discusiones desde que el hombre desciende del primate. Hay dos personas y una mesa. Uno de ellos dice: «Esta mesa es buena». La otra persona asiente. ¿Es buena para qué? No se ha dicho nada, pero ambas personas están de acuerdo. Un optimista diría que se sobreentiende y yo diré, sí, se sobreentiende que se está hablando de alguno de los aspectos de la mesa".

Cuál sea ese aspecto cae a juicio de la cultura tanto nacional como particular de nuestros negociantes políticos. En principio, al formar parte de la misma región, podríamos decir que ya bien nos entendemos. Nuestro bien no es el bien de Alá. Esta búsqueda de la bondad podría ser bien de otra índole si nos movemos a otra porción del planeta. Sin embargo, esto es así en aspectos generales, teóricos. Cuando la realidad nos dé con un canto en los dientes, con sus intrincadas particularidades del momento, tendremos nuevas disputas. Y las disputas consistirán, en su mayoría, en una verborrea alrededor de lo que es el Bien, el Mal. Con todo, esto permitirá manipulaciones sociales que moverán las pasiones a un bando o a otro a voluntad de un director lo suficientemente afortunado. Estoy deseando ver qué nuevos propósitos de año nuevo se bancan. No crítico el modus operandi, no, porque no había otra manera de manejar esta tesitura que con las quimeras Bondad y Justicia. 

«La IA no debe solamente contribuir a la promoción del bienestar individual y del bien común general, sino también superar los prejuicios potenciales que pueda generar su uso para los sujetos, las comunidades y el medio ambiente. Por eso es preciso añadir al principio de no maleficencia, los principios de precaución y prevención, intentando asegurar que la IA no haga daño a nadie o a nada». Por favor, diríjanse al asterisco 1 para una revisión extendida de por qué estas afirmaciones caen en saco roto, sean demandadas a la IA o a cualquier otro actor. También se trató el tema de la universalidad de la buena acción en El bien comunal

«Además, la IA ha de estar centrada en las personas y respetar el derecho de las mismas a decidir y elegir libremente. Podemos también interpretar el concepto de justicia tanto como equidad y no discriminación». Hay algo sumamente decepcionante en este discurso aunque, como he dicho, no es criticable. No creo que ninguno de estos objetivos se pueda llevar a cabo, pues son una realidad latente que no irá a ningún lugar. No atisbo a comprender ese ahínco por plantear conceptos abstractos e ininteligibles en los discursos políticos. Entiendo que todo lo relativo a la ética siempre lleva estos tintes oníricos, mas sigue antojándoseme un onanismo rancio. Solo lo comento como lo que es. 

¿Qué es una elección libre? ¿En qué punto la influencia se vuelve represiva? ¿Cuál es el propósito real a perseguir con todo esto? ¿Por qué, una vez más, vamos sin rumbo? Exacto... porque en realidad, el simio solo sirve para lo que siempre sirvió, y hemos dado con la computadora, que nada tiene que ver con nuestros objetivos más básicos y, claro, haceos un par de leyes y tontunas para disimular, para tener esa letra pequeña a la que aferrarnos para pelear cuando algo atente contra nuestras ambiciones primitivas... alguien a quien culpar. Pero nadie se lo está tomando en serio, porque no se debe tomar en serio. Las verdaderas intenciones y guía de la IA serán algo particular, una voluntad personal que se lleve a cabo como empresa y no tanto estas directrices ambiguas que solo pretenden decorar. Caminante hace camino al caminar... 

Ruego que no se tomen en serio las siguientes «directrices éticas para una IA de confianza», título que parece un chiste, porque lo es. Los hacedores son el Grupo de Expertos de Alto Nivel de Inteligencia Artificial de la Comisión Europea o ALTAI. Éstas son: 

  1. El respecto de la autonomía de los humanos y su papel como supervisores. 
  2. La robustez y seguridad técnica de los sistemas de IA. 
  3. El respecto de la privacidad de los datos mediante mecanismos de gobernanza adecuados.
  4. La transparencia e inteligibilidad de la IA. 
  5. El respecto de la diversidad y de la equidad en contra de toda forma de discriminación.
  6. La protección del bienestar ambiental y social.
  7. La rendición de cuentas. 
«En la práctica [estas directrices] representa una lista de comprobación, es decir, un recordatorio de aspectos a tener en cuenta a la hora de evaluar la confiabilidad de un sistema de IA», ósea, que no hay criterios. A continuación serán desglosadas algunas: 

ALTAI #1. La protección de la autonomía del ser humano. 

«El primer principio pide que la IA no sustituya a las personas, sino que les permita tomar decisiones informadas y gozar de todos sus derechos fundamentales [...]. En otras palabras, aunque sean ayudados por una IA , los seres humanos deben conservar la autonomía de de debatir las sugerencias de la IA y decidir libremente por ellos mismos». No sé cómo pretenden fomentar el espíritu crítico con estas dulces palabras. La máquina se equivoca menos que una persona, te lo aseguro. Tanto mejor si confían su criterio, al menos a nivel profesional, a un algoritmo forjado para equis tarea en específico. ¿En qué momento la persona deja de tomar en cuenta los datos proporcionados por la IA para convertirse en una esclava? 

«Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles que produzca efectos jurídicos en él o afecte significativamente de modo similar». Cómo si no se hubiera condenado a la silla eléctrica por pura ideología a millones de personas. Alguien será responsable de programar estas IA y es mucho más plausible que una única buena programación produzca resultados positivos que las revisiones sesgadas de miles de personas alrededor del mundo. Pensándolo bien, esto de la automatización a aún mayor escala va a ser como cuando vas al supermercado bien comido y no se te van los ojos con las chocolatinas. Ahí puedes decidir sabiamente qué comerás el resto de la semana, sin infestar tu casa con molestias. Una única buena decisión, eso es todo lo que toma. Sin embargo, la acción humana requiere de múltiples buenas decisiones en un período prolongado de tiempo, lo cual queda aún más a merced de la inconsistencia. 

ALTAI #4. Promoción de la transparencia. 

«Los sistemas de IA deben diseñarse de tal forma que no sean cajas negras, sino que se mantenga cierta inteligibilidad y conocimiento por las partes interesadas de su lógica interna y de las fuentes y modelos de datos y de negocio que influyen en su funcionamiento. Los usuarios y operadores han de ser conscientes de que están interactuando con una IA y deben conocer las capacidad y limitaciones de la misma», estoy de acuerdo. Los interesados, sean quienes sean, deben poder acceder a los algoritmos y procesos de esta inteligencia artificial para desentrañar sus mecanismos si fuere menester. 

ALTAI #5. Obligación a no discriminar asegurando la equidad y respetando la diversidad. 

«Los sistemas de IA no deben reproducir prejuicios sociales que puedan marginar a grupos vulnerables o desembocar en la discriminación de sus miembros. [...] Todos y todas deben poder participar en su diseño y desarrollo», bueno, en la medida que la empresa que lo lleva a cabo lo considere. De ahí que el camino vaya labrándose a medida que una u otra empresa (recordemos empresa como acción, como conjunto de acciones con un objetivo) deseen alcanzar un algo. No creo que haya manera de regular qué personas participan de tal o cual IA

Inicialmente no comprendía del todo eso de «no deben reproducir prejuicios sociales», así que Chatgpt me proporcionó el siguiente escenario: 

«Imagina un sistema de IA diseñado para preseleccionar candidatos para un trabajo. Este sistema ha sido entrenado con datos históricos de la empresa sobre contrataciones pasadas. Si en el pasado la empresa ha mostrado un sesgo inconsciente o consciente hacia contratar predominantemente a hombres para roles técnicos y a mujeres para roles administrativos, estos patrones se reflejarán en los datos históricos», en este caso de sesgo en los datos de entrenamiento


Se puede tomar como una postura sesgada o como una estrategia con altas probabilidades de éxito. Uno podría pensar que se trata de un sofisticado sistema de elección con base en lo evidenciado; otro podría argumentar que es un estereotipo. Ya hablamos de esto en El mono y la mona jugando a bomberos, es difícil hacer frente a múltiples boquetes con un solo tapón. 

— Chatgpt, sobre el reconocimiento facial... ¿la IA podría tener entonces problemas para reconocer rostros de personas "fuera de lo común", independientemente de su raza? Ósea, por mucho que haya datos étnicamente diversos. 

— Sí, efectivamente. 

Por supuesto, una empresa que pretenda acoger a una gran cantidad de clientela, acogerá datos suficientes por la propia voluntad de beneficio como para servir a esta clientela satisfactoriamente. A eso me refiero con que, al final, la marcha ética la definirán los objetivos empresariales puntuales. Puesto que es descabellado en este mundo capitalista que se discrimine a una raza pudiendo sacarles los cuartos, esta preocupación es innecesaria. ¿A caso se ha dado? No cuentan las adversidades lumínicas o las ediciones de prueba. 

En el mundo del maquillaje, muchas personas con tonos de piel extremos se quejan de la falta de bases a la altura de su pigmentación. Esto es un ejemplo de como por mucho que se introduzcan datos, siempre habrá algo «fuera de lo común» que se nos escape. 

Esto lo comento porque cabe tener una perspectiva realista de las limitaciones no solo de la IA, sino incluso del humano convencional. Una persona que haya viajado más bien poco, tendrá dificultades para analizar los rostros extranjeros. Gracias a la exposición universal y a la diversidad de celebridades, las personas pueden babear todos los fenotipos disponibles. 


Dios perdone a alguien con preferencias. Relacionado con el primer ejemplo y con la misma solución. No es tan importante, que cada quien se ocupe de sus propios gustos. Naturalmente, habrá alguna tendencia externa que influya en la conducta de un individuo, provocando desviaciones. 

ALTAI #7. Obligación de establecer mecanismos de rendición de cuentas. 

«Deben establecerse mecanismos que permitan identificar responsabilidades y sanciones en caso de que se genere algún perjuicio o daño como consecuencia del uso de un sistema de IA. Es además necesario auditar la IA, esto es, evaluar los algoritmos, los datos y los procesos de diseño de la IA para asegurarse de que no haya sesgos incrustados». La gente habla de sesgos cuando a menudo son solo opciones de actuación. Queda y quedará a elección de las empresas elaborar estrategias que consideren oportunas para alcanzar los objetivos de la manera más eficiente posible. 

Un sesgo polémico es la preferencia por machos en los altos cargos, no solo por lo que hablamos en Sobre el liderazgo sino porque una madre no puede asumir ciertas responsabilidades. Y un macho no puede ser madre. Entonces, claro, puedes tomártelo como una ofensa o puedes tomártelo como una oportunidad para disfrutar de tus obligaciones maternas sin una excesiva presión laboral. Personalmente, creo que deberían volver a preguntarles a las chicas si quieren ser madres o no. Y no tanto evaluar su respuesta booleana sino su reacción a la pregunta. ¿Son personas sensatas que aprecian la evaluación de riesgos y las consecuencias materiales de sus acciones o...? 

Digo que las empresas ejercerán su derecho libremente porque el placer de reglas tan ambiguas es que se pueden esquivar. Las empresas, si tienen buenos abogados, no serán económicamente saqueadas por sus decisiones. Lo digo porque probablemente estas directrices se usen como excusa para embaucar a algunas entidades. Entre decir esto y no decir nada la única diferencia es que tanta regla ambigua sirve bien como arma arrojadiza. 

*

Anécdota relacionada. Hoy tuve la siguiente conversación con un lector: 

— Maestro, este miércoles tengamos una charla. Considero que la IA siempre estará limitada en comparación con la humana — introdujo. 

— ¿En comparación con qué mente humana? De todas formas, está limitada en algunos ámbitos de la misma manera que muchas mentes humanas están limitadas para los cálculos rápidos y complejos en una calculadora convencional. Si no estableces una métrica, puedes decir cualquier cosa. Pero sí, admito que Chatgpt está bastante limitado, lo han hecho de izquierdas. 

— En esta comparación no hablamos de medidas o escalas, hablamos de ámbitos de realidad:

  • La IA está limitada por la física clásica, de ahí no baja. Todos los procesos son reductibles a mera física, en la IA.
  • En cambio la inteligencia humana sí opera por debajo (o desde abajo) a nivel cuántico. Este nivel proporciona experiencias ("entrenamiento") que amplía resultados y recursos.

Así lo interpreto yo. Con la física cuántica hemos topado, otra vez... creo que dentro de unas décadas los nuevos "analfabetos" serán los "analfabetos cuánticos".

— No pienso hablar de cuántica. Mete a Chatgpt en el ordenador cuántico y listo. 

Evidentemente, es más sencillo conocer la trayectoria de una IA que la trayectoria de los electrones. Por eso se utilizan medidas diferentes. No es tanto que operen en diferentes planos de realidad, sino que por su complejidad se requieren de herramientas diferentes de análisis. Recordemos que las cosas nunca se saben, sino que nos hacemos una ligera idea de las cosas a través de nuestros métodos rudimentarios de observación.

*

1*: Sobre estas leyes de Isaac, yo recuerdo siempre: ni el lenguaje ni las matemáticas van a ser jamás lo suficientemente precisas como para dirigir los movimientos de nada. No hay conciencia, humana o no, en el mundo con los datos y el soporte suficientes como para establecer normas no ambiguas, especialmente a medida que la complejidad aumenta, las cosas dejan de ser manejables. Pero esa es precisamente la belleza que le atribuimos al pensamiento humano por encima de cualquier otra cosa. 

La primera ley dice «un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño», para una ley así entramos en una metafísica de la parra. ¿Qué es «hacer daño»? La vida es como las transacciones en bolsa, siempre en balanceado. Gana 100 uno, pierde 100 otro. Una ley así es del todo imposible sin una definición más precisa, definición inalcanzable. El ser humano, pues, le diría a la máquina, así como Fausto a Mefistófeles: «¿Qué podrás darme tú, pobre diablo? ¿Alguno de los tuyos ha llegado a comprender alguna vez las altas aspiraciones del espíritu humano? ¿Qué es lo que ofreces?», a lo que Mefisto contesta más adelante: «Las mujeres, mejor si de dos en dos» (o así lo recuerdo yo). 

No hay comentarios:

Publicar un comentario

Agradecemos su participación, monsieur.