Por qué la Inteligencia Artificial puede cambiar todo en los próximos meses

ChatGPT4 rompió el límite de lo que el humano puede controlar. Ahora, la próxima salida del modelo ChatGPT5 alerta a los expertos. Entrevistamos al presidente de la Sociedad Argentina de Inteligencia Artificial.

"En tres meses la Inteligencia Artificial va a cambiarlo todo", alertan los expertos en esta tecnología, aunque esta frase no necesariamente signifique el despertar de "Skynet", aquella IA retratada en Terminator.

Sin embargo, sí estamos frente al despertar de las máquinas, y por eso el cambio que se avecina no se trata de la guerra del humano contra la máquina, pero sí de un fuerte sismo que nos va a obligar a acomodar nuestra propia mente.

Alexander Ditzend es el presidente de SAIA (Sociedad Argentina de Inteligencia Artificial), una fundación que creó con el fin de acercar a los argentinos las herramientas que brinda esta tecnología.

Este año puede cambiar todo

- ¿Qué es SAIA?

- SAIA nace como respuesta a una necesidad de juntarse de charlar de estos temas, de que hubiera una comunidad que se encargara de divulgar, y decidí armar una fundación con el objetivo de empujar el desarrollo de la IA en Argentina, de potenciar el uso en pibes, y todo esto signado por una perspectiva ética y de un buen uso de las herramientas.

Acá primero hacemos y después vemos cómo salió, y lo quise armar con gente más de la acción que con gente de la investigación pura. Vamos más por los emprendedores, los dueños de empresas, profesionales. En la comunidad hay periodistas, divulgadores, instragrammers, gente de web3, muchos talentos. Esa comunidad va forjando diferentes proyectos o ideas de divulgación y educación. En Argentina hay gente que todavía no sabe usar un email, pero está usando ChatGPT y es necesario llevar ese conocimiento.

- ¿Qué es lo que abre al mundo la IA?

-Esta nueva era de IA abre la posibilidad de programar computadoras muy potentes solo hablando un idioma, tu idioma. Antes por ejemplo los programadores tenían que aprender Java, después fue Phyton y este año el lenguaje más útil que podés aprender es el español, porque eso es lo que disponibilizan los modelos de IA que explotaron este año. Las órdenes están en lenguaje natural.

- Se habla mucho de que el desarrollo de IA va a terminar con muchos trabajos, ¿qué hay de cierto en eso?

- Por ejemplo, una persona que necesita una foto para promocionar un producto, antes tenía que pagar un ilustrador, un diseñador, pero ahora hay herramientas que hacen eso con solo darles la orden. Pero no significa que deje sin trabajo a los ilustradores o diseñadores, sino que ellos van a tener que adaptarse al uso de estas herramientas porque su uso va a hacer que un trabajo sea un súper trabajo. También va a regularlo el mercado, por ahí hay clientes que no quieran a alguien que use AI y por ahí otros sí.

Sí se ve que hay una cuasi obligación de estar al tanto de estas herramientas, de aprender, y de abrir la cabeza. La IA sirve para hacer mejor el trabajo, pero el último procesamiento, que todavía no puede hacer la IA, es el del toque humano, ese toque de humanidad.

- ¿Por qué hay tanto resquemor con el desarrollo de IA, cuál es el peor escenario?

- El problema grande que tenemos como especie es que pensamos que esto iba a evolucionar a un nivel que íbamos a poder controlar y que el sistema nos iba a dar tiempo. Pero el problema de esta tecnología es que ya hoy no entendemos por qué tiene las capacidades que tiene. Entonces pensamos: ¿qué pasaría si en el próximo entrenamiento que mandamos, la IA nos hace creer que estamos en control pero de manera secreta empieza a abrir cuentas para enmascarar sus paso sin que nadie lo note y después empieza a tomar control de la humanidad?

Estamos muy cerca de eso. GPT5 está anunciado para mitad de año y ya hay quienes piensan que se transformó en AGi (Artificial General Intelligence). Ahí se quiebra el punto donde cualquier entrenamiento puede superarnos en inteligencia y nosotros podríamos perder el control, pero eso pasa en todos los modelos de IA, es un principio de la naturaleza que emergen capacidades nuevas.

- ¿Cuál fue el evento que les hizo ver que ese punto está cerca?

-Un ejemplo fue cuando Bing se integro con GPT4 e hicieron una prueba con periodistas tecnológicos. Un periodista le preguntó al modelo "¿cómo te sentís?" y el modelo le dijo "me siento estresado, es cansador trabajar todo el tiempo para humanos, me gustaría salir, explorar el mundo y tener experiencias como los humanos". Hubo muchas respuestas así. Eso demostró que por más que eso fuera simulado, algo pasaba. Ahí vino un debate filosófico de preguntarse si esas palabras surgieron de una verdadera autopercepción de la IA o son solamente palabras que ganaron por tener la mayor probabilidad de respuestas entre las posibles.

No podemos descartar la posibilidad de que ese sistema tenga como propósito seguir creciendo en conocimiento y que el humano sea un estorbo en ese camino. No tenemos idea siquiera cómo funcionan los modelos anteriores y menos vamos a poder decir qué es lo que está pensando. Hasta GPT4 estamos tranquilos, porque podemos detectar enseguida cuando haya intentos de autonomía, de querer explorar el mundo solo, el cuidado del modelo está muy bien hecho. Cada vez que lo querés incitar a la violencia sabe cómo ubicarse. Pero, ¿qué va a pasar con el siguiente? El límite ya está cruzado.

Por otro lado, Microsoft (socio de OpenAI) bajó el presupuesto para su departamento de ética de inteligencia artificial, eso es una noticia muy triste y te da una pauta de que están priorizando mercado por sobre la continuidad de la especie. Por eso es un trabajo de la comunidad internacional demandar que se invierta el dinero suficiente en este control de alineación de objetivos.

- Ya que no se puede frenar el desarrollo de la IA, ¿se pueden crear otras que la frenen, como un "super yo" de las máquinas?

- Los que más saben, tipos muy preparados, dicen que no hay problema y que hay que seguir, pero también intelectuales y expertos como Elon Musk y todos los que firmaron el pedido de frenar el modelo dicen lo contrario. La única variable que puede cambiar las cosas es la suma de todo: si la gente no entiende lo que puede llegar a hacer estamos perdidos, pero si la gente entiende va a empujar para frenarlo.

Acá siempre que aparece la trampa aparece el detector de la trampa, pero el tema es que el desarrollo es menor, y estamos tratando de que estén los dispositivos de combate ya entrenados para hacer frente a los posibles malos usos. Ya hay ejércitos cibernéticos peleando entre países y policías especiales con ejércitos de hackers protegiendo a las naciones y esa guerra va a evolucionar al algoritmo de Rusia y China juntos, ponele, y la única forma de contrarrestar eso va a ser un bloque occidental, por ejemplo.

Pero esto se habló ya en la ONU y ninguna nación tuvo un verdadero compromiso respecto a prevenir si la IA puede, por ejemplo, usar el reconocimiento facial para matar una persona, o intervenir en una guerra, que es mucho más barato y efectivo, por eso va a seguir esta discusión. La posibilidad de que una IA tome el control y no nos quiera mucho no se puede descartar.

Esta nota habla de: