«La IA tiene el potencial de extinguir a la especia humana» declaró Stephen Hawking a la BBC en diciembre de 2014i. El principal riesgo, desde su perspectiva, reside en que la evolución humana no puede competir con la velocidad de mejora de estos sistemas.
Los miedos de Hawkins en torno a la IA son compartidos por científicos y filósofos de diferentes disciplinas, desde hace bastante tiempo. En este artículo vamos a analizar cada uno de los miedos asociados a la masificación de la IA para tratar de pensar su magnitud y dimensionar su impacto.
La mente ¿binaria?
¿Qué es la inteligencia? ¿Qué diferencia al humano del animal? Estas preguntas dividieron aguas en la filosofía y las ciencias sociales desde los clásicos a la actualidad. Hoy vuelve a cobrar relevancia a la luz del problema de la IA: ¿puede reproducirse aquello que nos hace específicamente humanos?
Vamos a situarnos en los inicios de la IA, en los años 50 y 60. Una de las corrientes más importantes, la simbólica, consideraba que las computadoras podían volverse «inteligentes» mediante la implementación de programas capaces de manipular símbolos de manera estructurada, siguiendo reglas lógicas y representaciones formales. No se trataba de imitar la estructura del cerebro, sino de modelar(esto es, crear modelos de) ciertos aspectos del pensamiento humano. A partir de este enfoque, se desarrollaron diversas líneas de investigación basadas en la lógica matemática y la manipulación simbólica del conocimiento.ii
Muchos científicos comenzaron a preguntarse si aquello que nos hace específicamente humanos podía ser reducido a símbolos. En los años 80, uno de los exponentes más conocidos en rechazar la idea de una IA «fuerte» –capaz de igualar o reemplazar a los humanos– fue el filósofo John Searle. Él introdujo los conceptos de IA fuerte y débil (que desarrollamos en la primera nota de esta serie, cuando hablamos del temor técnico) argumentando que las computadoras manipulan símbolos sin comprender su significado, a diferencia de la mente humana. Por lo tanto, una IA fuerte era imposible. Incluso desde el punto de vista teórico.iii
Los años pasaron. Con el crecimiento de la capacidad computacional y la disponibilidad de datos masivos, el deep learning tomó la delantera. Las redes neuronales, inspiradas en el funcionamiento del cerebro humano y en principios de la neurociencia, lograron enormes avances y renovaron el debate –junto a los miedos– con respecto a la posibilidad de crear una IA fuerte.
En este contexto, se popularizó la idea de la «singularidad tecnológica», promovida por Ray Kurzweil. Este concepto se refiere al punto en el que la IA superaría la inteligencia humana, provocando un cambio irreversible en la sociedad y el conocimiento: «La complejidad [del cerebro] procede, sobre todo, de su propia interacción con un mundo complejo. Por lo tanto, la inteligencia artificial debería ser educada igual que se educa a la inteligencia natural».iv
Esa posibilidad despertó incontables rechazos. Por ejemplo, el científico y matemático Douglas Hofstadter manifestó que no le preocupaba que la IA fuera demasiado inteligente o alcanzara mucho poder, sino que le preocupaba la posibilidad de que la IA reprodujera características específicamente humanas como la creatividad, la conciencia o las propias emociones. Es decir, que para la humanidad llegara a ser plausible reproducirse mediante algunos trucos programáticos. En el fondo, su mayor miedo era que las cualidades humanas más valiosas se volvieran mecánicas, reproducibles y, en última instancia, mercantilizables.
La perspectiva de Hofstadter es compartida por otros filósofos, como Eric Sadin. En el libro La Inteligencia artificial o el desafío del siglo (Caja Negra, 2020) plantea el problema de lo que denomina «la interpretación robotizada de cada situación de la realidad». Sadin piensa que los algoritmos avasallan la capacidad humana de decidir, de utilizar sin obstáculos la propia autonomía del juiciov. Desde su punto de vista, se trata de una nueva ontología que redefine la figura humana, su estatuto, sus poderes. El ser humano ya no es el sujeto de la historia, sino un objeto manipulado por la tecnología. En resumidas líneas, para Sadin nos dirigimos hacia una nueva forma de apatía: la renuncia al poder de actuar.
Esta idea radica en los algoritmos, que pueden tomar mejores decisiones que nosotros mismos. El miedo de Sadin tiene una base material: de forma creciente, los algoritmos rigen cada vez más la vida desde múltiples aspectos (redes sociales, plataformas de streamming, tiendas online, promociones). Y, también, de formas más difíciles de advertir, más insidiosas e intersticiales. Por ejemplo, cuando un algoritmo decide por nosotros si un email es spam o no, si nuestras cuentas bancarias o tarjetas tienen movimientos sospechosos, si somos los candidatos indicados para un puesto de trabajo, recibir un préstamo, la elección del delivery o de un taxi.
Es innegable que los algoritmos forman parte de nuestra vida diaria y esta presencia va en aumento. Sin embargo, la mayoría de nuestras acciones todavía pasan por nuestra capacidad de discernir. Elegimos en base a nuestros gustos, historia y situación material de un momento particular. En este sentido, la idea de que un conjunto de algoritmos regirá nuestra vida, emociones y forma de vincularnos se asemeja más a un capítulo de Black Mirror que a la realidad.
Este tipo de abordaje al miedo de la IA acarrea un problema que no podemos obviar. La renuncia al poder actuar implica subestimar la capacidad humana de vincularse con el entorno. Podemos observar, por ejemplo, lo que sucede con las apps de citas. Un estudio de Axios muestra que los seres humanos prefieren conocerse en persona antes que usar aplicaciones y, por eso, su uso está disminuyendo.vi Vamos a volver sobre el problema de las redes sociales más abajo.
Estas perspectivas, contienen la idea de que la conciencia y la racionalidad humanas están regidas por la lógica binaria y las matemáticas. Es decir, dejan de lado que los seres humanos somos seres sociales, con una historia y emociones propias, que expresan nuestro tiempo y no se pueden reducir a un conjunto de fórmulas.
No obstante, existen consecuencias apalancadas a estos desarrollos que no podemos ignorar. Asistimos a la expansión creciente de herramientas que nos permiten resolver tareas y problemas cotidianos, en pocos minutos, con el simple trámite de seleccionar la app o promptvii correcto. Resolvemos, en pocos minutos, algo que nos tomaría horas de trabajo intelectual. De forma directa o indirecta, podemos observar un proceso innegable de sedentarización intelectual. Este proceso, que no es más que la eficientización de tareas cotidianas, mal utilizado puede derivar en serios problemas de atrofia de habilidades básicas.
En primer lugar, por la inmediatez de las cosas. La paciencia, la evolución en la constancia, la prueba y el error que caracterizan el aprendizaje de cualquier disciplina, son reemplazados por la respuesta inmediata que no garantiza un aprendizaje real. El más claro ejemplo puede verse en el ámbito educativo. Es sabido que nueve de cada diez estudiantes que utilizan chat GPT en entornos educativos, aprenden menosviii.
Por otro lado, la pérdida de habilidades básicas es un terreno que en el ámbito científico se viene investigando de forma limitada a algunas aplicaciones, pero ya muestra consecuencias claras. Por ejemplo, se detectó que el uso del GPS disminuye nuestra capacidad de reconocimiento y memoria espacialix.
Ojo, no somos ludditas ni estamos en contra del avance tecnológico. Observamos que, en la medida que no exista una decisión consciente para mitigar los problemas que acarrea la implementación de la IA en todas las áreas de la vida social, aquello que debería ser un beneficio, terminará siendo, justamente, lo contrario. Esta decisión, tampoco puede quedar en manos de la competencia privada, ya que el fin último es la acumulación de capital y el reemplazo de fuerza laboral por tecnología, tal como explicamos en la nota anterior de esta serie: el temor de los burgueses.
Las redes y la clusterización de la vida social
Hace poco Eric Sadin señaló que asistimos al totalitarismo de la sugerencia. Una vida espectral, basada en la forma en que nos relacionamos con las tecnologías. Su mirada está puesta, fundamentalmente en las redes sociales y desarrolla varios miedos asociados a su funcionamiento.x Detengámonos un minuto en los inicios de las redes sociales.
Tras encontrar al amigo perdido de la escuela primaria y al primo lejano de la abuela, las redes permitieron crear comunidades de personas que comparten gustos y creencias. Permitieron encontrarnos con quienes tienen puntos de vista similares a los nuestros, compartir ideas y establecer un vínculo. El ejemplo más claro de esto fue, en los inicios, los grupos de Facebook y WhatsApp, pero el denominador común era la conexión entre personas.
Facebook fue el pionero de este tipo y, en simultáneo, se crearon otras que, con distintas funcionalidades, apuntaban a diversos públicos. Las más conocidas: Instagram, Twitter (hoy X), Whatsaap, Tik Tok, YouTube, Telegram, Pinterest, LinkedIn, TripAdvisor, Tinder, la lista es larga. Todas ellas fueron creadas y evolucionadas para disputar nuestra atención, mediante la creación de nuevas funcionalidades y posibilidades de conexión.
Con el paso del tiempo, los usuarios aumentaron y también el tiempo de nuestras vidas dedicado a las redes. Se convirtieron en un actor principal en la disputa de nuestro tiempo de ocio, modificaron la forma y la periodicidad en la que tomamos fotos y hacemos video. También aparecieron las vedettes: influencers, streammers, canales de tv y hasta marcas que existen solo para el mundo virtual. Cosas impensadas se volvieron marketinizables: desde una reunión de amigos hasta la forma en que cocinamos una lechuga. También comenzamos a enterarnos, en tiempo real, de aquello que podíamos conocer solo mediante la televisión, el diario o la radio.
En esta nota no buscamos analizar en profundidad las redes sociales, sino señalar un proceso general de avance del mundo virtual sobre el real (el mundo «virtual» es tan real como el otro, que llamamos «real», pero funciona bajo otra lógica). La hiperconexión es el denominador común que persiste hoy, junto con la mejora constante de los algoritmos gracias a nuestros datos y de los millones de usuarios que consumen el servicio. Son estos algoritmos los que permiten predecir qué contenido mostrarnos a cada usuario y en qué momento, con el objetivo de obtener más de nuestro tiempo e información en esas plataformas.
Es decir, en función de nuestras búsquedas, interacciones, tiempo de visualización y otras variables, construye una especie de afinidad de gustos, para lograr que permanezcamos más tiempo en línea. A esto llamamos «clusterización de la vida social» en referencia al proceso de retroalimentación constante de las ideas, intereses y sesgos que acarreamos con nosotros. No importa la ingeniería de algoritmos detrás (no nos referimos al proceso de clustering como tal), sino al objetivo de recrear un espacio favorable a nuestros intereses e ideas. Mucho más, considerando que, cada vez con más facilidad, es posible consumir noticias falsas. En última instancia, la complejidad humana, se reduce a una fórmula que homogeniza al usuario en grupos de afinidad. Todo grupo humano hace esto, y lo hemos hecho desde siempre, pero cambia la cantidad, velocidad y el entorno donde se realiza.
Una consecuencia directa de este fenómeno es la tergiversación de los estándares de belleza. Nadie –o casi nadie– muestra desgracias, tristezas o problemas en redes sociales. Quien publica suele mostrar momentos felices, seleccionados con especial cuidado. Las fotos son tomadas buscando resaltar no solo belleza física, sino vidas y entornos perfectos. Varios estudios muestran que consumir durante mucho tiempo este tipo de contenidos distorsiona la percepción de la realidad, genera angustia, problemas de autoestima y depresión. Los principales afectados son niños y adolescentesxi, pero también impacta en adultos. Todo esto deriva en grandes problemas de ansiedad y depresión. También genera dificultades para enfrentar problemas reales, por la poca tolerancia a la frustración o al fracaso. Así, la inestabilidad emocional es la moneda corriente. El ejemplo más claro puede verse en la llamada «generación de cristal».
Por otro lado, hay una creciente narrativa que promueve la vida fácil y hedonista, basada en el esfuerzo mínimo. Lo podemos observar tanto en influencers como en los nuevos vendedores de cursos y criptomonedas. Muestran un estilo de vida maravilloso comprando cursos, invirtiendo dinero en proyectos de dudosa procedencia o hasta promoviendo las apuestas virtuales. (El presidente de la nación, Javier Milei, resultó ser el más triste exponente de estas personas).
En suma, las redes ya no son espacios de conexión, sino plataformas que permiten materializar y masificar una estafa que ocurre sin ningún tipo de control o regulación, a pesar de estar a la vista de todos. Estos mecanismos, que generan la idea que estudiar y graduarse, son c, van de la mano con una sociedad que no logra ofrecer una perspectiva de vida y un proyecto futuro.
Otro problema que acompaña a las redes y la IA es el aplanamiento cultural. Veamos cómo funciona el algoritmo de Spotify: después de escuchar tu música favorita por varias semanas, el algoritmo seguirá mostrándote música afín a tus gustos para que sigas utilizando la plataforma. No puede contemplar que, mientras escuchaste horas y horas un disco de Intoxicados o Soda Estéreo, quizás también te interese escuchar artistas de otros géneros como Joan Báez o el último lanzamiento de Yo-Yo Ma.
Por otra parte, hay un problema creciente de violencia e intolerancia que se manifiesta en las redes en general pero prevalece en algunas con mayor énfasis. El anonimato, la virtualidad, la falta de regulación y control habilitaron la posibilidad de que cualquiera pueda decir cualquier cosa, sin que exista un costo por ello. La homofobia, el machismo, racismo y la intolerancia son monedas corrientes en X y otros foros. (Milei es, nuevamente, uno de los máximos exponente de estas formas).Un estudio de la OCDE muestra la magnitud del problema en estos términos:
El anonimato, la incorporeidad y la desinhibición ayudan a explicar por qué las personas se comunican e interactúan de manera diferente en línea que fuera de línea, y pueden conducir a comportamientos negativos. Desde 2017, la tasa general de jóvenes que informan dificultades en el funcionamiento cotidiano y se sienten infelices debido al uso de las redes sociales aumentó un 49% […] El acoso cibernético también se está volviendo más común entre los jóvenes, y las niñas experimentan tasas más altas que los niños en promedio.xii
Según el mismo informe, entre 2017-18, la brecha promedio entre niñas y niños identificados como usuarios problemáticos de las redes sociales era de 1,5%. Entre 2021-22 esta brecha aumentó un 5%.

El problema se potencia si consideramos que estos comportamientos generan admiración e inspiración. En una sociedad atravesada por la anomia, donde la regla es saltarse las reglamentaciones para ser mejor, más «vivos que los demás», la dinámica de las redes contribuye a comportamientos nocivos y hasta moralmente detestables.
Hasta aquí, examinamos un conjunto de problemas ya existentes vinculados a redes sociales. Sin embargo, hay un fenómeno de agotamiento que acompaña el uso de estas plataformas que necesario considerar. Hace poco, Adam Mosseri, responsable de Instagram, reconocía que «los usuarios se pasaron a los mensajes directos, las comunidades cerradas y los chats de grupo»xiii y los cambios en la aplicación se relacionaban con este tipo de comportamientos. Es decir, las redes ya no son sociales, en la medida que prevalece el consumo de contenido de otros y poca producción individual. Una especie de viraje hacia la pasividad, las comunidades de nicho, hiperespecíficas y atomizadas donde cada una compite por el tiempo de atención del usuarioxiv.
Está claro que las redes y los algoritmos cambiaron profundamente la forma en que nos relacionamos y comunicamos. Nuestro entorno retroalimenta y refuerza nuestras creencias, y las redes sociales cumplen un rol fundamental en este proceso de creación de ideología. Sin embargo, el miedo a la vida espectral o virtual que manifiesta Sadin refiere, nuevamente, a una subestimación de las capacidades humanas.
Que el ser humano sea un ser social, no significa que seamos completamente influenciables e irreflexivos. Tenemos la capacidad de elegir y la ejercemos día a día, en función de nuestros intereses materiales concretos, nuestra historia, experiencia y sentimientos. Elegimos constantemente qué ver, cómo y qué se llevará nuestra atención. La prueba de ello es la competencia constante que las redes mantienen para que las utilicemos cada vez más. El problema aparece si perdemos este enfoque de vista.
Las máquinas pueden calcular, pero no pueden soñar
¿Deberíamos dejar de usar redes sociales y todo aquello que contenga un algoritmo? ¿Se puede decidir qué capacidades queremos expandir y cuáles relegar a terceros, como la inteligencia artificial? Como balanceó Lisa Simpson después de unirse a Ecologistas en Acciónxv, no comer nada que no produzca sombra es sólo atacar el medio y perder de vista el fin. En una sociedad donde los peligros que acarrean las nuevas tecnologías sean tomados en serio, esto no debería ser un problema.
En el sistema capitalista, donde rige el anarquismo productivo, el interés particular y la tasa de ganancia, solo nos podemos enfrentar a más miseria y degradación. A mayor tecnificación y desarrollo del capital, menos conocimientos son necesarios por parte de la población. A mayor tecnificación, menos necesidad de obreros educados. Es decir, más desempleo, degradación educativa, crisis y miseria.
Para concebir un uso de la IA que pudiera liberar a la humanidad del trabajo para tener más tiempo de ocio y disfrute de la vida hace falta otro tipo de sociedad. Una que planifique racionalmente la producción en función de las necesidades humanas y no en función de acumular capital.
NOTAS:
i Puede verse la declaración aquí: https://www.youtube.com/watch?v=fFLVyWBDTfo&ab_channel=BBCNews
ii Mitchell, M.(2020). Inteligencia Artificial. Guía para seres pensantes. Editorial Capitan Swing
iii Serle, J. R. (1980) Minds, Brains and Programs, Behavioral and Brain Sciences 3, pp 417-424.
iv Citado en Mitchell, M. p.77
v Eric Sadin, La Inteligencia artificial o el desafío del siglo (Anatomía de un antihumanismo radical), Caja Negra Editora, 2020.
vi https://www.axios.com/2024/08/12/dating-app-crisis-bumble-tinder-hinge , https://www.infobae.com/tecno/2023/11/23/aplicaciones-de-citas-estan-perdiendo-su-encanto-la-generacion-z-perdio-el-interes/
vii Instrucción o pregunta que se le da a un programa de IA que interpreta lenguaje natural, para que genere un resultado. Pueden utilizarse en GPT, Gemini u otros servicios ingresando a directamente a su web o mediante API.
viii «Alerta educación: 9 de cada 10 estudiantes ya usan ChatGPT para hacer tareas», nota publicada en Ámbito Financiero el 25 de noviembre de 2023. Acerca de cómo perjudica al cerebro reemplazar el propio razonamiento por la búsqueda en internet, este trabajo de Manfred Spitzer: «¿Externalizar lo mental? Del conocimiento bajo demanda a Morbus Google».
ix https://www.lanacion.com.ar/autos/que-efectos-nocivos-causa-al-cerebro-usar-el-gps-en-el-auto-segun-multiples-estudios-nid11082024/
x Sadin, E. (2024). La vida espectral. Pensar el metaverso y las inteligencias artificiales generativas. Editorial Caja Negra.
xi https://childmind.org/es/articulo/como-afecta-el-uso-de-las-redes-sociales-los-adolescentes/
xii https://www.oecd.org/en/publications/oecd-digital-economy-outlook-2024-volume-1_a1689dc5-en/full-report/component-9.html#chap-4a
xiii https://www.lanacion.com.ar/tecnologia/ni-tan-redes-ni-tan-sociales-el-mundo-online-ya-mira-mas-alla-de-instagram-y-tiktok-nid27092023/
xiv http://businessinsider.es/tecnologia/redes-sociales-ya-estan-muertas-1297368
xv Los Simpson, Episodio 252, Temporada 12.