Sencillito #49: ChatGPT – Crisis en la cima liberal del mundo

Sin necesitar ni esperar al DNU del presidente argentino, un mes atrás, Sam Altman se conectó a una videollamada en la que recibió la sorpresa de su inesperado despido. Estaba en Las Vegas, era uno de los 315.000 visitantes que desbordaron la ciudad para presenciar la carrera de Fórmula 1. La ciudad del juego se inundó de celebridades millonarias, Altman estaba allí y fue despedido. Ignorado por su nombre pero muy conocido por su criatura, el ChatGPT de la empresa OpenAI, Altman fue también fundador de esa compañía. Junto con Elon Musk, Ilya Sutskever (quién lo llamó para despedirlo) y otras 9 personas, Altman creó OpenAI en 2015.

Su objetivo era construir sistemas de IA para beneficiar a toda la humanidad. A diferencia de la mayoría de las empresas tecnológicas emergentes, se fundó como una organización sin fines de lucro con una junta directiva responsable de garantizar el cumplimiento de su misión.i

Musk abandonó el emprendimiento en 2018. En 2019, Altman tomó el manejo de OpenAI y la transformó, habiendo sido «fundada como una organización sin fines de lucro, en una empresa con fines de lucro para que pueda buscar financiamiento de manera más agresiva.»ii Inmediatamente consiguió inversiones de Microsoft por mil millones de dólares. ¿Para qué le paga, desde 2019, Microsoft a OpenAI? Para que desarrolle inteligencia artificial para sus productos: a comienzos de este año, se integró el ChatGPT al buscador Bing de Microsoft.

OpenAI gastó millones de dólares alquilando el acceso a decenas de miles de chips de computadora dentro de los servicios de computación en la nube administrados por empresas como Google y Amazon.

En eso se pusieron a trabajar sus 100 empleados de entonces, compitiendo con otras empresas similares. La inversión sirve a los fines de comprar trabajo complejo, de los propios programadores e investigadores empleados, o de los trabajadores que producen los insumos necesarios (como los de Nvidia, que producen gran parte de las computadoras para AI).

Después de que OpenAI presentara ChatGPT el año pasado, la junta se volvió más inquieta. A medida que millones de personas utilizaban el chatbot para escribir cartas de amor e intercambiar ideas sobre ensayos finales universitarios, Altman acaparaba la atención. Comenzó a aparecer con Satya Nadella, director ejecutivo de Microsoft, en eventos tecnológicos. Se reunió con el presidente de Estados Unidos, Joe Biden, y se embarcó en una gira mundial por 21 ciudades, codeándose con líderes como Narendra Modi, el primer ministro de India.

El conflicto que motivó el despido se puede resumir en los siguientes términos de un dilema: o bien un crecimiento más seguro de una herramienta de la que se desconocen sus derivaciones perjudiciales para la convivencia humana; o bien un crecimiento explosivo, aceptando y dejando de lado los riesgos de la dinámica competitiva.

Altman, que no es ingeniero, era la cabeza de la capitalización, la competencia y el riesgo social; por su parte, Sutskever representaba la lentificación y los recaudos para la vida común. Ambos se enfrentaban junto a aliados interiores y exteriores, bajo el reglamento del capitalismo, es decir, la ley de mercado regulada por el Estado burgués. El 24 de noviembre, el New York Times explicó, bajo el sugestivo título «Los capitalistas han ganado la batalla», lo siguiente:

Lo ocurrido en OpenAI durante los últimos cinco días podría describirse de muchas maneras: un jugoso drama en la sala de juntas; un tira y afloja en torno a una de las mayores empresas emergentes de Estados Unidos; un enfrentamiento entre los que quieren que la inteligencia artificial avance más rápido y los que quieren ralentizarla. Pero fue, sobre todo, una lucha entre dos visiones enfrentadas de la inteligencia artificial.iii

Y prosigue explicando quién manda y quién gana con ese reglamento llamado competencia capitalista:

La potente IA ya no es sólo un experimento mental: existe dentro de productos reales, como ChatGPT, que millones de personas utilizan todos los días. Las empresas tecnológicas más importantes del mundo están compitiendo para construir sistemas aún más potentes.

Además, se están gastando miles de millones de dólares en construir y desplegar la IA dentro de las empresas, con la esperanza de reducir los costes laborales y aumentar la productividad. Los nuevos miembros del consejo son el tipo de líderes empresariales que cabría esperar para dirigir un proyecto así. []

Eso es bueno si eres Microsoft, o cualquiera de los miles de empresas que confían en la tecnología de OpenAI. [] Quizás lo que ocurrió en OpenAI –un triunfo de los intereses corporativos sobre las preocupaciones por el futuro– era inevitable, dada la creciente importancia de la IA. Una tecnología potencialmente capaz de marcar el comienzo de una Cuarta Revolución Industrial difícilmente iba a ser gobernada a largo plazo por quienes querían frenarla. No con tanto dinero en juego.

En pocas palabras: el romanticismo puede existir en los márgenes pero no en el centro del sistema. Su idealista supervivencia se sostiene en su real insignificancia. Cuando vemos altruismo en el corazón del mercado, rápidamente descubrimos que sólo es una forma particular, una más, de atravesar ciertos tramos, algunos momentos de la acumulación privada. Ejemplos ilustrativos son el Operativo Warp Speediv para la industria farmacéutica y el programa Chips para Estado Unidos en este momento.v

Lo común, el bien común, no es el fin sino un medio, un instrumento más, en el imperio de la propiedad y la acumulación privada. Un instrumento de gran valor ideológico, porque encubre con sus manchas de color disruptivo la profunda e inexorable uniformidad del interés privado como único régimen rector de la totalidad de la vida social. Un instrumento que colabora con la presentación de ese régimen como «más humano», apenas entibiando su frialdad contable como un soplo de vapor sobre un cuerpo desnudo a la intemperie del ártico.

Si la batalla de Sutskever al interior de una junta directiva terminó en fracaso, a los que pretenden librarla en otros ámbitos, sin cuestionar la raíz del problema (las relaciones sociales), no les va mejor. Aunque apuntan a mayor profundidad, no sólo a la velocidad, sino a los objetivos.

Sin embargo, el dilema de «velocidad versus seguridad» no es lo único que nos distrae de las cuestiones importantes y que oculta las amenazas reales que se ciernen sobre nosotros. Uno de los pasos clave en los círculos de seguridad de la inteligencia artificial es la «alineación de la IA», la cual se centra en el desarrollo de métodos para alinear las inteligencias artificiales con los objetivos de la humanidad.

Hasta el caos reciente, Ilya Sutskever y Jan Leike, jefe de investigación sobre alineación de OpenAI, co-dirigían un programa de investigación sobre «superalineación» que intenta resolver una pregunta sencilla, pero de una complejidad significativa: «¿Cómo podemos garantizar que unos sistemas de inteligencia artificial mucho más inteligentes que los humanos cumplan los objetivos humanos?»

No obstante, en la alineación de la IA, una vez más, hay un asunto evidente con el que no queremos lidiar. Alineación… ¿con qué tipo de objetivos humanos? Desde hace tiempo, los filósofos, los políticos y las poblaciones han luchado con las disyuntivas espinosas entre los distintos objetivos. ¿Gratificación instantánea a corto plazo? ¿Felicidad a largo plazo? ¿Evitar la extinción? ¿Libertades individuales? ¿Bien colectivo? ¿Límites a la desigualdad? ¿Igualdad de oportunidades? ¿Grado de gobernanza? ¿Libertad de expresión? ¿Seguridad frente a discursos perjudiciales? ¿Grado de manipulación admisible? ¿Tolerancia de la diversidad? ¿Imprudencia admisible? ¿Derechos versus responsabilidades?

No hay un consenso universal sobre estos objetivos. Mucho menos sobre asuntos todavía más detonantes, como los derechos a las armas, los derechos reproductivos o los conflictos geopolíticos. De hecho, la saga de OpenAI demuestra ampliamente cuán imposible es alinear los objetivos, incluso entre un grupo diminuto de líderes de OpenAI.

¿Cómo es posible que la inteligencia artificial se alinee con todos los objetivos de la humanidad?

Los científicos no podrán encontrar la solución a la alineació ni la súper alienación. No podrán encontrar algunos objetivos humanos si, como la IA hace, buscan en lo más común y sus variantes las soluciones a problemas que se resisten a las soluciones habituales. El conflicto de OpenAi nos habla, pero la capacidad computacional, de proceso y almacenamiento, parece no ser todo lo necesario para encontrar respuestas.

El conflicto que «desalineó» a Open AI no se dio entre los polos de la serie de interrogantes que plantea el artículo precedente. Fue otra cosa. La lentitud promovida por Sutskever fue arrasada por los intereses de la acumulación privada. Cada propietario privado es un vector que se desalinea y no hay ninguna pregunta correcta que los encuentre alienados, salvo la ganancia.

Altman ganó, porque el mercado es implacable. Y el altruismo es únicamente un puente móvil que, de vez en cuando, hace falta utilizar. Y que rápidamente se deja atrás.

Soñadores y utopistas tecnológicos cumplen una doble función necesaria: señalar senderos peligrosos y caminos inviables. Cuando juega el mercado, no los escucha. Atender a esos peligros e inviabilidades es atender a la comprensión del capitalismo, no de la tecnología (que se vuelve amenazante cuando su propósito es la acumulación).

Si no atendemos estos problemas, nos irá como a Sutskever. Quien, creyendo que estaban avanzando, tarde advirtió que se estaba quedando afuera.

NOTAS:

i https://www.nytimes.com/es/2023/12/19/espanol/inteligencia-artificial-openai-crisis.html?campaign_id=42&emc=edit_bn_20231219&instance_id=110494&nl=el-times&regi_id=92642460&segment_id=152963&te=1&user_id=131f37726037708bc756a6f19365131c

ii Con 1.000 millones de dólares de Microsoft, un laboratorio de inteligencia artificial quiere imitar el cerebro – The New York Times (nytimes.com)

iii https://www.nytimes.com/es/2023/11/24/espanol/inteligencia-artificial-openai-que-paso.html?action=click&module=RelatedLinks&pgtype=Article

iv https://www.gao.gov/products/gao-21-319

v https://www.infobae.com/america/the-new-york-times/2023/03/02/la-ley-de-chips-para-estados-unidos-la-seguridad-nacional-y-la-perspectiva-sobre-china/

Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *