Inteligencia artificial: ¿para beneficio privado o para el bien común?

"Las ganancias son lo primero y lo último, sea cual sea el impacto en la seguridad, la seguridad y los puestos de trabajo que la tecnología de IA tenga en la humanidad en las próximas décadas", dice Michael Roberts.

Michael Roberts

El despido sorpresa de Sam Altman, el fundador de OpenAI, por su propia junta directiva revela las contradicciones que surgen en el desarrollo de ChatGPT y otros modelos de "inteligencia artificial generativa" que impulsan la revolución de la IA.

¿La IA y estos modelos de aprendizaje de idiomas (LLM) traerán nuevos y maravillosos beneficios a nuestras vidas, reduciendo las horas de trabajo y elevando nuestro conocimiento a nuevas alturas del esfuerzo humano? ; o ¿la IA generativa conducirá a una mayor dominación de la humanidad por parte de las máquinas y a una desigualdad aún mayor de riqueza e ingresos a medida que los propietarios y quienes controlanla IA se conviertan en "ganadores que se lo llevan todo" mientras que el resto de la humanidad se "queda atrás"?

Parece que la junta de OpenAI despidió a su líder "gurú" Altman por "conflictos de intereses", es decir, Altman quería convertir a OpenAI en una enorme operación de hacer dinero respaldada por grandes empresas (Microsoft es quién proporciona apoyo financiero actualmente), mientras que el resto de la junta quería continuar OpenAI como una operación sin fines de lucro con el objetivo de difundir los beneficios de la IA a todos con las necesarias salvaguardias de privacidad, supervisión y control.

El objetivo original de OpenAI como empresa sin fines de lucro era beneficiar a la humanidad, no a los accionistas. Pero parece que la zanahoria de las enormes ganancias arrastraba a Altman a cambiar ese objetivo. Incluso antes, Altman había creado un negocio separado de chips de IA que lo había hecho rico. Y bajo su dirección, OpenAI había desarrollado un brazo comercial "con fines de lucro", lo que permitió a la compañía atraer inversiones externas y comercializar sus servicios.

Como escribió el FT: "esta estructura híbrida creó tensiones entre las dos "tribus" en OpenAI, como las llamó Altman. La tribu de la seguridad, dirigida por el científico jefe y miembro de la junta Ilya Sutskever, argumentó que OpenAI debe atenerse a su propósito fundacional y solo implementar la IA con cuidado. La tribu comercial parecía deslumbrada por las posibilidades desatadas por el éxito de ChatGPT y quería acelerar (es decir, ganar dinero). La tribu de la seguridad parecía haber ganado por ahora".

Altman no es un científico, pero parece que es un gran hombre de ideas, un empresario en la tradición de Bill Gates (con Microsoft). Bajo Altman, OpenAI se ha transformado en ocho años de una empresa de investigación sin fines de lucro en una empresa que, según se informa, genera mil millones de dólares de ingresos anuales. Los clientes van desde Morgan Stanley hasta Estée Lauder, Carlyle y PwC.

El éxito ha convertido a Altman en el embajador de facto de la industria de la IA, a pesar de su falta de antecedentes científicos. A principios de este año, se embarcó en una gira global, reuniéndose con líderes mundiales, empresas emergentes y reguladores en varios países. Altman habló en la cumbre regional de Apec Asia-Pacífico en San Francisco justo un día antes de ser despedido.

Al parecer, Altman tiene "una feroz ambición y capacidad para conseguir apoyo". Ha sido descrito como "muy, muy competitivo" y una "mente genial", con alguien cercano que afirma que nadie sabe acumular poder como él. Como resultado, disfruta de un "culto personal" entre sus más de 700 empleados, la mayoría de los cuales firmaron una carta exigiendo su reincorporación y la dimisión de la tribu de la seguridad en la junta.

OpenAI ha perdido 500 millones de dólares en el desarrollo de ChatGPT, por lo que estaba a punto de lanzar una emisión de acciones por valor de 86.000 millones de dólares antes de la división en la junta. Eso habría continuado el enfoque sin fines de lucro. Ahora, con Altman y otros uniéndose a Microsoft como empleados, parece que OpenAI puede ser absorvida por Microsoft por una miseria y así poner fin al objetivo "sin fines de lucro" de la compañía.

Lo que todo esto demuestra es que aquellos que piensan que la revolución de la IA y la tecnología de la información serán desarrolladas por empresas capitalistas en beneficio de todos se engañan. Las ganancias son lo primero y lo último, sea cual sea el impacto en la seguridad, la seguridad y los puestos de trabajo que la tecnología de IA tenga en la humanidad en las próximas décadas.

Algunos temen que la IA se vuelva "como Dios", es decir, una superinteligencia que se desarrolla de forma autónoma, sin supervisión humana y, finalmente, controla a la humanidad. Hasta ahora, la IA y los LLM no exhiben tal "superinteligencia" y, como he argumentado en artículos anteriores, no pueden reemplazar el poder imaginativo del pensamiento humano. Pero pueden aumentar enormemente la productividad, reducir las horas de trabajo y desarrollar nuevas y mejores formas de resolver problemas si se ponen en uso social.

Lo que está claro es que el desarrollo de la IA no debe estar en manos de empresarios "ambiciosos" como Altman o controlado por los megagigantes de la tecnología como Microsoft. Lo que se necesita es un instituto de investigación internacional y no comercial similar al Cern en física nuclear. Si algo requiere propiedad pública y control democrático en el siglo XXI, es la IA.

EL AUTOR. Michael Roberts habitual colaborador de Sin Permiso, es un economista marxista británico, que ha trabajado 30 años en la City londinense como analista económico y publica el blog The Next Recession.


Esta nota habla de:

Tenés que saberlo