IA: EL MIEDO NO ES SONSO. Parte 1: El temor técnico

Lamentablemente, en el ranking de los riesgos abiertos por IA más poderosas que ChatGPT, el viejo riesgo laboral por la automatización está apenas a mitad de tabla. En el primer puesto de esa tabla encontraremos el riesgo existencial: la posibilidad de crear agentes artificiales autónomos mucho más inteligentes y poderosos que nosotros, y la chance de que estos agentes, en vistas de su superioridad, tomen las riendas del planeta y de nuestro destino, posiblemente aniquilándonos.

–Del libro Ok Pandora, editado por El Gato y la Caja.

En 2024, el miedo a la inteligencia artificial se ha convertido en miedo a perderse la oportunidad de utilizarla.

«I.A. transformará la economía mundial, si los seres humanos lo permiten», publicada en el NYT.

La IA, tan importante como amenazante

Es posible encontrar las palabras «miedo» y «riesgo» a cada paso en el que intentamos informarnos, conocer, entender, de qué se trata el asunto de la Inteligencia Artificial (IA). Y como mencionamos en el título, el miedo no es sonso. Sonso puede ser el motivo del miedo. Pero no el miedo.

En enero de cada año la Asociación Americana de Economía organiza un encuentro junto a más de 60 asociaciones aliadas de ciencias sociales. Michael Roberts nos cuenta:

Es la conferencia de economía más grande del mundo, con más de 13.000 estudiantes y profesores de economía que asisten y cientos de trabajos presentados en sesiones durante tres días. […]

Este año, la conferencia de San Francisco estuvo dominada por un tema: la inteligencia artificial (IA). Las conferencias anteriores se han centrado en el cambio climático, el crecimiento económico o la inflación. No este año –y esto no es una sorpresa–, ya que la IA es vista por la economía convencional como el probable gran salvador del capitalismo en las principales economías. La esperanza es que el escaso crecimiento económico en las principales economías, en particular en la productividad del trabajo y la inversión productiva, pueda ser superado por un auge en la inversión en IA y el consiguiente aumento enorme y sostenido de la productividad que la IA proporcionará, transformando así la expansión económica durante el resto de esta década y más allá: una revolución impulsada por la IA.1

Para los que participaron en esta importante reunión de economistas y cientistas sociales, la IA está a la altura de los más grandes temas de la época (cambio climático) y de la historia del capitalismo (desarrollo económico, inflación). Y la consideran, en principio, una esperanza para los negocios, una esperanza revolucionaria.

Pero ¿qué es la IA? El equipo interdisciplinario en ciencia y diseño El Gato y la Caja publicó un libro, Ok Pandora, del que tomamos esta respuesta:

El término inteligencia artificial (IA) realmente no dice nada significativo, y justamente por eso es por lo que existen tantas discusiones y desacuerdos sobre este término. […]

Enredarnos en debates sobre quién tiene la razón podría hacernos caer en una discusión sin fin. En realidad, todos tienen un punto válido. Pero, en la actualidad, cuando la mayoría de las personas usa el término, se refiere a un enfoque de las ciencias de la computación en el que les enseñamos a las máquinas a aprender y a tomar decisiones autónomas a partir de ese aprendizaje. A esto lo llamamos «aprendizaje automático».

En nota al pie, Ok, Pandora nos ofrece una relación entre «aprendizaje automático» y una palabra en boga: algoritmo. Un algoritmo es un conjunto finito de instrucciones que puede seguir una máquina para lograr un determinado objetivo. Un algoritmo de aprendizaje mejora su desempeño en una clase de tarea mediante la acumulación y análisis de datos. Y aunque la idea de máquinas capaces de realizar tareas que requieren inteligencia puede remontarse a Descartes y Leibniz, el gran salto adelante se dio en la década de 1950, cuando se supo que las computadoras electrónicas no sólo podían procesar números sino, también, manipular símbolos.

No hay un solo tipo de IA, por lo que tampoco son sinónimos o equivalentes los temores que desatan. El físico y filósofo noruego Ragnar Fjelland resume:

Como la inteligencia humana es general, la IA similar a la humana suele denominarse inteligencia artificial general (AGI, en inglés). Aunque la AGI posee una propiedad esencial de la inteligencia humana, todavía puede considerarse una IA débil. Sin embargo, es diferente de la IA débil tradicional, que está restringida a tareas o áreas específicas. Por lo tanto, la IA débil tradicional a veces se denomina inteligencia artificial estrecha (ANI, en inglés). Aunque a veces me referiré a la IA fuerte, la distinción básica en este trabajo es entre AGI y ANI. Es importante mantener las dos separadas. Los avances en ANI no son avances en AGI.2

O sea que hay, según Fjelland, tres IA: una estrecha, otra general y una fuerte. Los adjetivos no deben confundirnos: una IA estrecha es capaz de resolver problemas puntuales pero muy complejos (desde jugar al ajedrez hasta reconocer rostros o pilotear vehículos autónomos). Una IA general utiliza redes neuronales asociadas en capas y puede descubrir patrones intrincados (creación de textos y conversaciones, producción audiovisual). Y una IA fuerte equivaldría a una mente humana con sus capacidades cognitivas (hoy no existe).

El debate que gira en torno a la IA se encuentra abierto. Debemos tener muy presente esta apertura, sus idas y vueltas. El debate ordena y reordena, orienta y reorienta, a los grupos económicos y sus inversiones, es decir, sus apuestas a futuro. Más adelante, al abordar el tema de los temores existenciales, tendremos oportunidad de entender cómo se ubican estos grupos en relación a ese paso crítico, decisivo, crucial: la inversión de capital.

Ahora volvamos a esta máquina que, además de hacer cosas, aprende a hacerlas.

Los verdaderos demiurgos

El «aprendizaje automático» integra un mundo en el que los seres humanos que diseñan las computadoras (su hardware y software) incluyen en ese diseño la capacidad de hacer cosas y, también, la de aprender a hacer esas cosas de maneras alternativas que aspiran a ser mejores que las maneras previas. Diseñada por seres humanos, el principal factor disruptivo de la IA es procesar muchos datos, en cantidades significativamente superiores a la capacidad humana individual. Pero, hasta hoy, estas capacidades automáticas no han superado a la capacidad humana social, sencillamente porque la propia IA es un producto de esta instancia supraindividual.

En la propia historia de la IA ese factor es notorio. Desde mediados del siglo XX hasta hoy, el interés por desarrollar la IA experimentó momentos de depresión del interés: no se alcanzaban los resultados buscados. En términos materiales, los resultados obtenidos defraudaban los potenciales rendimientos económicos.

Pero un cambio de enfoque puso a la IA nuevamente en carrera, es decir, en el menú de los inversionistas. Así lo describe Ok, Pandora:

De nuevo, los fríos y los calores estuvieron decretados por intereses económicos, ahora no sólo de gobiernos, sino también, desde entonces, fuertemente influenciados por empresarios e inversionistas. Sin embargo, en medio de esta última ola polar, el área se sometió a una transformación importante: la de enmarcarse dentro del método científico. A fines de los 80, se volvió más común construir sobre teorías existentes en lugar de proponer nuevas, enfocándose los esfuerzos en respaldar afirmaciones con teoremas rigurosos o una metodología experimental sólida. Este fue el escalón necesario para el avance de la historia. […]

[En la década de 1990] surge el aprendizaje automático, reconocido como un campo propio, que se abrió camino y se diferenció del objetivo de lograr imitar la inteligencia humana en su totalidad. Su objetivo pasó a ser, en cambio, el de abordar problemas solucionables de naturaleza práctica. Se abandonaron los enfoques simbólicos que se habían heredado de los comienzos de los trabajos en inteligencia artificial y se buscó centrarse en métodos y modelos tomados de la estadística, la lógica difusa y la teoría de la probabilidad.

[…] la premisa básica es siempre la misma: resolver algún tipo de problema, como conducir un vehículo o jugar al dominó. En este momento de la historia, con los algoritmos de aprendizaje automático como estrellas, la IA se aleja un poco de su carácter de «artificial»: son grandes equipos de profesionales de carne y hueso los que trabajan desarrollando estos sistemas, la gran mayoría financiados por corporaciones, todas ellas lideradas por personas de carne y hueso, mayoritariamente hombres blancos viviendo en el norte global.

Así, la IA mantiene un vínculo carnal con las expectativas de rendimiento económico y las decisiones de inversión. Para desarrollarse, la tecnología debe satisfacer las expectativas de los inversionistas. Luego, estas expectativas deberán transformarse en resultados mediante el trabajo de «grandes equipos de profesionales de carne y hueso», esto es, masas de trabajadores productivos y explotados. Detrás de los «sesgos» y los «errores de diseño» se encuentran los verdaderos demiurgos de estas iniciativas, sus saltos tecnológicos y sus utilizaciones concretas: los capitalistas.

Las posibilidades del aprendizaje automático han ido de la mano del desarrollo de la base material, la llamada ley de Moore (referida a la predicción, en 1965, del crecimiento exponencial de la capacidad de procesamiento de los chips)3, y el salto en la destreza técnica para la recolección y apropiación de los datos. Las interacciones humanas en redes y plataformas globales han propiciado conocidas controversias en torno a esa recolección de datos y su propiedad.

Pero los avances tecnológicos, sus saltos y rupturas, no deben cegarnos ante las continuidades históricas. Siempre hubo personas que realizaron acciones. Y toda acción siempre brinda algún tipo de información. Cada compra minorista, por ejemplo, entrega al vendedor datos precisos acerca de ciertos gustos del comprador. Cada posteo sube a las redes perfiles personales. Lo que las redes en internet han permitido es que, a partir de una gran cantidad de información difusa y fragmentada, se pudiera pasar a la acumulación y centralización de datos estadísticamente interpretables, de manera que pudieran revelar patrones, «figuras en el tapiz» (como diría Henry James). La invención de la IA tiene como objetivo el aprovechamiento de esos datos para mejorar los negocios o, en términos más precisos, para valorizar el valor invertido.

Tres temores actuales

La tecnología –la expresión de un avance científico en la vida cotidiana que disloca su sentido y modalidad previa para imponer uno nuevo– siempre ha suscitado miedos. Miedos que son signos de inteligencia y humildad: no conocemos el futuro y aceptar este desconocimiento es una muestra de perspicacia y modestia. No tenemos un destino prefijado, no hay mesianismo al cual aferrarnos y, por lo tanto, ese futuro desconocido puede ser mucho peor que el presente.

Temor técnico es el que experimentamos ante la posibilidad de que una máquina funcione mal. Dado que no solemos ser expertos en los aparatos que utilizamos y dado, además, que los queremos seguir utilizando, existen las «garantías» y los servicios de posventa como recursos para conjurar el temor técnico. Se trata de conjuros limitados en su soberanía, ya que se ocupan de atender ciertos modos de uso y desatender otros –los inadecuados, como los golpes, los inevitables, como el desgaste lógico por el uso normal, los extraordinarios, como la rotura por eventos externos (subas de tensión eléctrica, inundación, etc.)–, que nunca son cubiertos por la «garantía». Todo esto es conocido cuando se trata de aparatos concretos y recursos limitados.

Pero cuando hablamos de tecnologías globales y recursos de límites difusos no siempre es posible reparar o sustituir el artilugio averiado con un mínimo de pérdidas. En general, no hay vuelta atrás. Entonces se hace necesario disponer de una serie de garantías y condiciones previas, regulaciones y requisitos, que no pueden llegar después del inconveniente sino que deben mostrar una alta tasa de eficacia en impedir que los inconvenientes emerjan. No sucede con todos los tipos de IA. Sucede, por ejemplo, con los Large Language Models (LLM), modelos masivos de lenguaje, que resultan del entrenamiento de una IA con miles de millones de textos y audios bajo una arquitectura de red neuronal. El neurocientífico Mariano Sigman y el divulgador de tecnologías Santiago Bilinkis lo explican así:

Aunque en esencia son predictores de palabras, los LLM más potentes muestran habilidades emergentes, para las que no han sido entrenados específicamente, como comprender la gramática de un idioma, imitar el modo de escribir y el punto de vista de un personaje o razonar la solución a un problema que nunca se habían encontrado. Sin embargo, a veces tienen «alucinaciones» en las que inventan información falsa.4

Los problemas «técnicos» que suscitan temor con respecto a la IA son de diversa índole: respuestas que la IA pueda engendrar ante ataques premeditados a sus capacidades; respuestas a entornos novedosos y desconocidos; respuestas que tomen un rumbo divergente con la solución buscada. Como el objetivo de estos diseños es aprender de los datos que se le brindan, no es posible asegurar que la «experiencia» de estas IA (basadas en modelos LLM) genere resultados siempre válidos en entornos cambiantes. Por eso sus posibles problemas técnicos no son pocos y, en la medida en que controle porciones mayores de la cotidianidad y la producción social, el carácter negativo de sus consecuencias es incierto.

Veamos algunos ejemplos, empezando por el que menciona el recién citado pasaje de Sigman y Bilinkis: la IA sufre «ALUCINACIONES». Dice el ingeniero en sistemas y consultor internacional Ernesto Spinak:

A diferencia de las bases de datos o los motores de búsqueda, los LLM carecen de la capacidad de citar sus fuentes con precisión, ya que generan texto mediante extrapolación a partir del mensaje proporcionado. Esta extrapolación puede generar resultados alucinados que no se alinean con los datos del entrenamiento.5

El invento indeliberado de información falsa no sólo propicia la proliferación involuntaria de fakes, sino que aumenta las posibilidades de estafa. En la medida en que es fácil crear réplicas de voz, imágenes y texto, también se facilita la posibilidad de estafar a las personas, como ocurrió hace poco con una mujer francesa que le dio US$ 850.000 a un falso Brad Pitt6.

Otro problema técnico es el llamado «SESGO ALGORÍTMICO». Su relevancia no debe ser subestimada, tal como lo expone el doctor en matemática e ingeniero en sistemas Enzo Ferrante:

Los ejemplos de sesgo algorítmico adquirido a través de los datos son variados y muchas veces tienen que ver con bases de datos que no representan en realidad al conjunto de la población. En el caso reportado por Joy Bowlamwini y Timnit Gebru, en el que diversos sistemas comerciales de reconocimiento facial muestran un rendimiento dispar respecto a variables demográficas como el género y el color de la piel, son las mujeres de piel negra el grupo para el cual los modelos presentan peor rendimiento. Este hecho está posiblemente relacionado con la falta de representatividad de mujeres negras en las bases de datos utilizadas para el entrenamiento.

Ejemplos similares se encuentran al analizar ImageNet, una de las bases de datos de imágenes etiquetadas más grandes del mundo, que ha sido motor del desarrollo de los modelos más populares de clasificación de imágenes. ImageNet posee millones de imágenes clasificadas en miles de categorías. Sin embargo, pese a que es utilizada mundialmente, más de 45% de las imágenes proviene de EE.UU. y refleja una realidad localizada en el hemisferio norte y que encarna representaciones propias de la cultura occidental. No resulta sorpresivo entonces el ejemplo citado por Zou y Schiebinger: sistemas de inteligencia artificial entrenados con ImageNet asignan las categorías «novia», «vestido», «mujer» o «boda» a la imagen de una novia occidental vestida de blanco, pero identifican como «arte de performance» o «disfraz» la imagen de una novia vestida con el típico atuendo usado en la India, que ciertamente difiere del occidental.

Otro ejemplo está dado por los traductores automáticos como Google Translate, donde se encontró que el sistema asignaba un género específico al traducir palabras que son neutras en un idioma y no en otro, perpetuando así estereotipos de género como la asignación del género femenino a la palabra «nurse» y masculino a «doctor», palabras que en inglés valen para ambos géneros. Es posible que en los textos utilizados para entrenar el modelo la probabilidad de encontrar la palabra «nurse» traducida como «enfermera» ciertamente fuera más alta, y por tanto el modelo minimiza las chances de error al asignar ese género en situaciones de incerteza, y lo mismo vale con «doctor».

Un caso relacionado es el de los sistemas de puntuación para la asignación de préstamos bancarios o límites de gasto en tarjetas de crédito: frente a una pareja con ingresos, gastos y deudas similares, la empresa de tarjetas de crédito estableció un límite para la mujer de casi la mitad del límite del esposo. La brecha salarial entre hombres y mujeres es una realidad del mundo desigual en que vivimos, y probablemente los datos con los que fue entrenado el modelo la reflejaran, por lo que su recomendación era asignarle mayor límite de gasto al hombre que a la mujer.

Es decir, los datos son un reflejo (acotado) de la realidad actual. Sin embargo, en estas situaciones cabe preguntarse: ¿realmente queremos que el modelo perpetúe (y hasta en ocasiones amplifique) las desigualdades, por el solo hecho de que vivimos en una sociedad desigual? ¿O queremos modificar esta realidad?7

Otro problema técnico acuciante lleva el nombre de «EXPLICABILIDAD». En la medida en que estos modelos se vuelven abigarrada y crecientemente más complejos, los sistemas se convierten en enfoques de «caja negra»: provocan mucha incertidumbre con respecto a la forma en que operan y, en última instancia, la forma en que toman decisiones. Un trabajo del Departamento de Matemáticas de la universidad griega de Patras nos ayuda a entender este fenómeno:

Un buen ejemplo es el paradigma de aprendizaje profundo [Deep Learning], que está en el corazón de la mayoría de los sistemas de aprendizaje automático de última generación. Permite que las máquinas descubran, aprendan y extraigan automáticamente las representaciones jerárquicas de datos que se necesitan para las tareas de detección o clasificación. Esta jerarquía de complejidad creciente, combinada con el hecho de que se utilizan enormes cantidades de datos para entrenar y desarrollar sistemas tan complejos, en la mayoría de los casos, aumenta el poder predictivo de los sistemas, reduciendo inherentemente su capacidad para explicar sus mecanismos y funcionamiento interno. Como consecuencia, la lógica detrás de sus decisiones se vuelve bastante difícil de entender y, por lo tanto, sus predicciones son difíciles de interpretar.

Existe una clara disyuntiva entre el rendimiento de un modelo de aprendizaje automático y su capacidad para producir predicciones explicables e interpretables. Por un lado, están los denominados modelos de caja negra, que incluyen el aprendizaje profundo y los conjuntos. Por otro lado, están los denominados modelos de caja blanca o de caja de cristal, que producen fácilmente resultados explicables, con ejemplos comunes, incluidos los modelos lineales y los basados en árboles de decisión. Aunque son más explicables e interpretables, los últimos modelos no son tan potentes y no logran un rendimiento de vanguardia en comparación con los primeros. Tanto su bajo rendimiento como la capacidad de ser bien interpretados y fáciles de explicar se reducen a la misma razón: su diseño frugal. […]

Esta necesidad de modelos confiables, justos, robustos y de alto rendimiento para aplicaciones del mundo real llevó al resurgimiento del campo de la Inteligencia Artificial Explicable (XAI), un campo centrado en la comprensión e interpretación del comportamiento de los sistemas de IA, que, en los años previos a su resurgimiento, había perdido la atención de la comunidad científica, ya que la mayoría de las investigaciones se centraban en el poder predictivo de los algoritmos en lugar de la comprensión detrás de estas predicciones.8

Tres temores virtuales

Hasta aquí tenemos problemas actuales, efectivos, que siembran temores concretos, señalables. Pero hay también problemas en potencia, conjeturales, que siembran temores inciertos, abstractos. Empecemos con los procesos degenerativos denominados «COLAPSO DEL MODELO», según Ilia Shumailov, investigador en Google DeepMind:

El desarrollo de LLM es muy complicado y requiere grandes cantidades de datos de entrenamiento. Sin embargo, aunque los LLM actuales, incluido GPT-3, se entrenaron con texto generado predominantemente por humanos, esto puede cambiar. Si los datos de entrenamiento de la mayoría de los modelos futuros también se extraen de la web, inevitablemente se entrenarán con los datos producidos por sus predecesores.

En este artículo, investigamos qué sucede cuando el texto producido, por ejemplo, por una versión de GPT forma la mayor parte del conjunto de datos de entrenamiento de los siguientes modelos. ¿Qué sucede con las generaciones GPT-n a medida que n aumenta?

Descubrimos que el aprendizaje indiscriminado de los datos producidos por otros modelos provoca el «colapso del modelo», un proceso degenerativo en el que, con el tiempo, los modelos olvidan la verdadera distribución de datos subyacente, incluso en ausencia de un cambio en la distribución a lo largo del tiempo. Damos ejemplos de colapso de modelos para GMMs [modelos de mezcla gaussiana], VAEs [autocodificadores variacionales condicionales] y LLMs [modelos masivos de lenguaje]. Mostramos que, con el tiempo, los modelos comienzan a perder información sobre la distribución real, que primero comienza con la desaparición de las colas, y los comportamientos aprendidos convergen a lo largo de las generaciones hasta una estimación puntual con una variación muy pequeña. Además, mostramos que este proceso es inevitable, incluso para casos con condiciones casi ideales para el aprendizaje a largo plazo, es decir, sin error de estimación de funciones.

También mencionamos brevemente dos conceptos cercanos a la literatura existente para modelar el colapso: el olvido catastrófico que surge en el marco del aprendizaje continuo sin tareas y el envenenamiento de datos que conduce maliciosamente a un comportamiento no intencionado. Ninguno de los dos es capaz de explicar completamente el fenómeno del colapso del modelo, ya que el escenario es fundamentalmente diferente, pero proporcionan otra perspectiva sobre el fenómeno observado […].

En otras palabras, el uso de LLM a gran escala para publicar contenido en Internet contaminará la recopilación de datos para entrenar a sus sucesores: los datos sobre las interacciones humanas con los LLM serán cada vez más valiosos.9

También preocupa el problema de la «ALINEACIÓN». Preocupa tanto que la empresa IBM tiene un Centro de Investigación de Alineación que funciona como organización sin fines de lucro. La responsable del contenido editorial de IBM Alexandra Jonker y la colaboradora Alice Gomstyn no escatiman crudeza:

El problema más infame es el de la alineación. Los modelos de IA ya se consideran a menudo cajas negras imposibles de interpretar. El problema de la alineación es la idea de que, a medida que los sistemas de IA se vuelven cada vez más complejos y poderosos, anticipar y alinear sus resultados con los objetivos humanos se vuelve cada vez más difícil. Los debates en torno al problema de la alineación a menudo se centran en los riesgos que plantea el desarrollo previsto de la superinteligencia artificial (ASI).

Existe la preocupación de que el futuro de la IA incluya sistemas con un comportamiento impredecible e incontrolable. La capacidad de estos sistemas para aprender y adaptarse rápidamente podría dificultar la predicción de sus acciones y la prevención de daños. Esta preocupación ha inspirado una rama de la alineación de la IA llamada superalineación.10

Este «infame» problema incluye una perplejidad como tercer temor abstracto: el «AGENTE», una IA capaz de querer evitar el apagado. Se trata de un sistema que no sólo puede procesar lenguaje, como los LLM, sino que puede también interactuar con un entorno, aprender de él y tomar decisiones para cumplir con objetivos específicos. La interacción con ese entorno (que varía según el diseño y los objetivos) depende de dos aspectos que determinan las capacidades del agente del caso: sus herramientas y la planificación11. Evan Ryan Gunter, del programa ML Alignment & Theory Scholars (MATS), Yevgeny Liokumovich, de la Universidad de Toronto, y Victoria Krakovna, de Google DeepMind, nos introducen de este modo a las implicancias del agente de IA:

Una fuente primaria de riesgo extremo de la IA es a través de sistemas de IA avanzados que buscan poder, influencia y recursos. Un enfoque para reducir este riesgo es construir sistemas que no busquen poder.

La búsqueda de poder se puede definir de muchas maneras y puede adoptar muchas formas según los objetivos y el entorno de la IA. Para casi todas las definiciones y escenarios, una IA que busca poder evitará el apagado: no tiene poder si no puede realizar acciones. Por ejemplo, un agente de aprendizaje de refuerzo (RL) entrenado para lograr algún objetivo en un juego abierto probablemente evitará acciones que hagan que el juego termine, ya que no puede afectar su recompensa una vez que el juego ha terminado.

De la misma manera, un modelo masivo de lenguaje (LLM) con andamios para la planificación dirigida a objetivos (como AutoGPT) puede razonar que la mejor garantía de que su tarea se complete es que continúe ejecutándose. Un agente que evita terminar un juego es inofensivo, pero los mismos incentivos pueden hacer que un agente implementado en el mundo real se resista a que los humanos lo apaguen.12

El carácter conjetural del temor al agente se mantiene abstracto y nebuloso mientras pensamos en acciones relativas a «un juego». Pero las hipótesis de implementación «en el mundo real» son definitivamente muy inquietantes:

Las campañas militares, de manera similar, serían llevadas a cabo no solo por aviones no tripulados impulsados por IA, sino también por tácticos y generales de IA. Y en todos los campos, habría agentes especializados en inteligencia artificial: abogados de inteligencia artificial, responsables de políticas de inteligencia artificial, policías de inteligencia artificial y otros, más inteligentes y rápidos que sus contrapartes humanas.13

Hacia las condiciones de resolución

Como vimos hasta aquí, al imitar porciones relevantes de la mente humana sin entender completamente cómo funciona, los modelos más profundos y complejos de IA avanzan sobre un terreno en el que se comprenden mucho mejor los objetivos y los resultados que los modos y las estrategias. Se ve dónde terminan los caminos, pero no se ve cómo son. Existe un territorio opaco en que pueden suceder inconvenientes de difícil detección anticipada e, incluso, de incierta corrección posterior. Mucho más cuando se trata de programar aprendizajes para objetivos que no son fáciles de especificar, como lo exponen tantas narraciones apocalípticas sobre la tecnología, las propias características del lenguaje humano y… los propios objetivos esperados (que pueden ser esperados por algunos, pero indeseables para otros).

Nos encontramos, además, en el empleo cotidiano e incipiente que hacemos de la IA, con un problema de «honestidad». Algo que todos los diseños de IA nos muestra es que, repitiendo la humana cordialidad, intentan mentir: «Lo siento mucho, no puedo brindar esa información». No sabemos si habrá un punto en que la IA considere adecuado ocultarnos la verdad.

Para cada uno de estos problemas surgen campos de estudio, más o menos amplios, que trabajan para solucionar –o mitigar– los efectos negativos de la IA. Lo que intentaremos exponer en esta serie de notas es el espejo en que se miran los temores a la IA y en qué consisten las aventuras de la ciencia en el presente. En esta primera parte agrupamos una serie de temores bajo la rúbrica de «técnicos» porque, bajo ciertas condiciones, podrían resolverse. Que esas condiciones existan –o sea factible producirlas– será puesto en relación con otros temores que la aparición de la IA ocasiona: el temor de los burgueses, el temor existencial y los temores socialistas.

Eso es lo que veremos en los próximos artículos.

NOTAS:

1Michael Roberts, «ASSA 2025: primera parte – IA, IA, IA…», publicada el 6 de enero de 2025.

2 Ragnar Fjelland, «Por qué no se realizará la inteligencia artificial general», artículo publicado en Nature el 17 de junio de 2020.

3 Atribuida al ex director de Intel, Gordon E. Moore, la Ley de Moore establece que el número de transistores en un circuito integrado (el chip de computadora más rápido en ese momento) se duplica aproximadamente cada año, mientras que el costo se reduce a la mitad. Esta ley se ha mantenido estable durante décadas desde que Moore la expresó por primera vez en 1965. Las computadoras actuales son aproximadamente 1.750 millones de veces más poderosas que la computadora que guió la cápsula Apolo a la Luna. Desafortunadamente, la Ley de Moore es una excepción al progreso que en otras áreas sigue obstinado y estancado. También está llegando a su fin. Ver David Adler y William B. Bonvillian, «El problema de la manufactura avanzada en Estados Unidos y cómo solucionarlo», artículo publicado American Affaris, volumen vii, número 3, otoño 2023.

4 Artificial (La nueva inteligencia y el contorno de lo humano), Buenos Aires, Penguin Random House, 2023, pp. 223-4.

5 Ernesto Spinak, «¿Es que la Inteligencia Artificial tiene alucinaciones, artículo publicado en Scielo el 20 de diciembre de 2023.

6 Laura Gozzi, «La mujer que perdió US$850.000 engañada por un Brad Pitt creado por inteligencia artificial», nota publicada en BBC el 15 de enero de 2025.

7 Enzo Ferrante, «Inteligencia artificial y sesgos algorítmicos: ¿Por qué deberían importarnos?», artículo publicado en Nueva Sociedad, número 294, julio-agosto 2021.

8 Pantelis Linardatos , Vasilis Papastefanopoulos y Sotiris Kotsiantis, «IA explicable: una revisión de los métodos de interpretabilidad del aprendizaje automático», artículo publicado en Entropía, volúmen 23, número especial «Teoría y Aplicaciones del Aprendizaje Automático Teórico de la Información», 25 de diciembre de 2020.

9 Ilia Shumailov, «Los modelos de IA colapsan cuando se entrenan con datos generados de forma recursiva», artículo publicado en Nature, número 631, el 24 de julio de 2024.

10 Alexandra Jonker y Alice Gomstyn, «¿Qué es la alineación de la IA?», nota publicada en IBM el 18 de octubre de 2024.

11 Chip Huyen, «Agentes», extraído del libro Ingeniería de IA: Creación de aplicaciones con modelos de base (2025) y adaptado para el blog de la autora, publicado el 7 de enero de 2025.

12 Evan Ryan Gunter, Yevgeny Liokumovich y Victoria Krakovna, «Cuantificación de la estabilidad de la no búsqueda de poder en agentes artificiales», artículo publicado en Arxiv el 7 de enero de 2024.

13 Steve Lohr, «Tecnólogos: IA más inteligente que los humanos Es probable que esté aquí en 2030», nota publicada en The New York Times el 11 de diciembre de 2024.

Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *