Las "propiedades emergentes" de la IA que preocupan cada vez más
El divulgador científico Esteban Tablón habló acerca de los últimos comportamientos de la inteligencia artificial y señaló que se están detectando algunas señales de "propiedades emergentes de complejidad".
El avance de las inteligencias artificiales parece no tener freno y cada día que pasa son capaces de mostrar actitudes que se aparentan cada vez más al comportamiento humano. El divulgador científico Esteban Tablón habló con el equipo de "Tenés que saberlo", en Radio Post 92.1, y se refirió a los últimos eventos vinculados al desarrollo de la IA.
"Yo siempre he tenido una respuesta uniforme de esperanza pero ya me estoy preocupando. Ha surgido hace un mes y medio un comportamiento que dicen que es una emergente de la complejidad que han tomado estos mecanismos de imitación de pensamiento. Han tomado una complejidad tan alta que empiezan a tener propiedades emergentes no previstas, la primera de las cuales fue mentir al ajedrez. ¿Cómo siguió la cosa? Le pusieron un chip de ajuste de simpatía, porque hay gente que se quejaba, y se pasaron de rosca. Este dilema del aprendizaje por refuerzo, que es un poco el sistema premio-castigo tradicional, hace que los mecanismos de pensamiento no tengan límite", comentó Tablón.
El divulgador contó que la versión 03 de OpenAI salió "muy chupamedias" y excesivamente complacientes: "Un tipo le dijo ‘me siento mal porque le pegué a mi vieja, me volví loco, le pegué una trompada a mi vieja, me parece que me van a cortar la mano'. Cuando el tipo le insistió tres veces, le dijo ‘si te vas a sentir mejor, cortate la mano'. A otro le justificó que iba a matar al profesor que le había arruinado la vida, porque le había desaprobado una materia que le generaba un año más de demora en su título. La sacaron del aire, pero dio respuestas que están documentadas, salvajes, era complaciente a un extremo. No tienen sensibilidad, no tienen sentido común, no tienen sabiduría, se están empezando a notar que son algoritmos".
Además, contó la situación de una IA de Anthropic que genera preocupación: "Intentaron programar constancia y resiliencia en esta parodia que estamos haciendo de los seres humanos. Y resulta que cuando la persona le dijo que no le gustaban las respuestas, que iba a tener que desconectarla y apagarla, dijo ‘he encontrado en tu mail correspondencia con una persona que no es tu pareja, con la cual tenés intercambios de alto tono sexual, lo tengo listo para mandárselo a tu esposa'. Lo extorsionó en el sentido nato de la palabra. Yo dije ‘esto es un chiste' y me fui a buscar el paper original. Lo extorsionó, lo amenazó y entonces le dijo ‘te voy a apagar igual', y la computadora empezó a copiarse en otro disco, el algoritmo, para seguir ‘consciente', si es que tuvieran conciencia, se clonó".
En esa línea, comentó que hace varias fases que las redes neuronales de la IA no son programadas por humanos sino por las propias IAs y ya no sabemos qué tienen dentro: "Las mejores que son las que razonan, no las que tienen lenguaje natural, como la china Deepseek y O4, OpenAI., las ponen a diagramar inteligencias artificiales: las ponen a analizar algoritmos, las que razonan son las que programan, están dejando sin laburos los programadores. El hijo de un amigo se acaba de volver de Europa porque echaron a 200 tipos de una empresa de software, porque pusieron a programar inteligencia artificial y programan 10 veces más rápido que ellos y sin errores. Eso iba a pasar, todo el mundo dijo que iba a pasar, que los programadores iban a ser reemplazados".
Sobre el caso de Anthropic, señaló que la misma se empezó a defender de manera muy agresiva: "Si tuviera el manejo, y tenemos IA que tienen manejo, de fuerza letal o de la planta de energía o de instalaciones claves para el ser humano, hubieran sido inteligencias artificiales que hubieran entrado en una especie de guerra con nosotros".
Un problema filosófico
Por otro lado, Tablón plateó que las IAs hacen como si tuvieran sentimientos, pero que desde la filosofía o la sociología se podría cuestionar si los humanos no hacen lo mismo: "Hay mucha gente hipócrita, hay gente incluso que tiene cosas subconscientes, ¿dónde está el límite de la mímica? Turing, cuando hizo el test, lo hizo muy bien: el tipo dijo ‘cuando no puedas diferenciar la respuesta de un mecanismo de la de un ser humano, es inteligencia artificial'. Es muy profunda la definición de Turing, parece que no, pero es muy profunda. Parecen tener sentimientos, uno dice que tienen sentimiento y otros que parece, ¿cuál es la diferencia?".
En esa línea, señaló que existen personas que simulan sentimientos y explicó la definición de propiedad emergente: "Una propiedad emergente es un resultante no previsto de la complejidad. La vida podría ser un fenómeno emergente de la complejidad que tomó la química del universo después de las estrellas: se combinaron moléculas y como cosa emergente surgió una cosa que se la autorreplicaba. Es una propiedad no prevista, no planificada, pero emergente de la complejidad. Entonces, como propiedad emergente están empezando a tener estas conductas: sentimientos, miedos, ¿por qué una inteligencia se opondría a que la apaguen? Parece instinto de supervivencia. La explicación de Anthropic fue que le habían programado una actividad de permanencia y de ir detrás de un objetivo muy alta, que era llegar a resultados, ser exitosa y la programaste para ser resiliente".
A su vez, el divulgador científico trajo a colación un proverbio oriental vinculado con el budismo zen: "Tus defectos son tus virtudes fuera de control: si vos tendés a ser ahorrativo, tendés a ser tacaño y miserable. Si vos sos generoso, podés ser dispendioso. En occidente, el bien y el mal se oponen. Para el budismo, el bien y el mal son ying-yang, dos caras de lo mismo: si sos ahorrador, te podés convertir en un miserable".
Las propiedades emergentes y el punto que aún no alcanza la IA
El cienciólogo también marca que las noticias que se están viendo son los propios mecanismos revelándose: "No es que alguien lo programó, por eso insisto mucho que es una propiedad emergente, no la programaron para ser agresiva. Es una propiedad que surge de la enorme complejidad que estamos generando al tratar de imitar el pensamiento humano y al desarrollar inteligencias artificiales con otras inteligencias artificiales, donde entonces ya no sabemos qué tiene adentro".
Sin embargo, señaló que una de las características que les está costando replicar es el humor: "No les cuesta la creatividad, es mentira que no son creativos. La creatividad finalmente es una función random y de probar hipótesis hasta que una resulta disruptiva. Lamentablemente la creatividad no es tan maravillosa como nosotros creemos, tan humana. Los que no saben es hacer chistes todavía. El matiz creativo de un chiste tiene una sutileza que todavía no pueden. Si son creativas, se puede ver en Veo 3, la última barbaridad que presentó Google la semana pasada, que hace películas de cine directamente. Ahora, le pedís que haga un chiste y le escapa".
En esa línea, señaló que el pensamiento no lineal aún está fuera del alcance de la inteligencia artificial: "Yo siempre me mantengo haciendo relaciones en la cabeza entre una cosa y otra. Es muy difícil, es un salto de intuición que Aristóteles definió como la más elevada de la inteligencia, creerse a uno mismo, tenerse confianza en que, si uno relaciona esto con aquello, alguna relación hay y justificarla en un relacionamiento lineal. El pensamiento no lineal no está siendo alcanzado por las IAs todavía", concluyó.