IA: cómo usarla sin convertirla en "El Oráculo de Delfos"
Tras conocerse la triste noticia del suicidio de un joven de 14 años en Estados Unidos por su vínculo socioemocional con una IA, el divulgador Esteban Tablón plantea los peligros que puede significar la dependencia total hacia la tecnología y no saber establecer el límite entre el crecimiento personal y la comodidad que esto nos produce.
Hace algunos días salió a la luz la noticia de que un joven de 14 años en Estados Unidos se había quitado la vida luego de establecer un vínculo socioemocional con un avatar generado por él mismo a través de la inteligencia artificial Character.ai. El divulgador científico Esteban Tablón habló con el equipo de "Tenés que saberlo", en Radio Post 92.1, y abordó el tema de la dependencia total hacia la tecnología, la pérdida del espíritu crítico y las complejidades que se presentan y pueden terminar en tragedias.
"El caso fue aún peor: un chico inventó en una inteligencia que se llama Character.ai, que permite hacer agentes a tu conveniencia: una novia, una amiga, una confidente, un soporte emocional. Le salió muy bien, la llamó Daenerys Targaryen como el personaje de Game of Thrones, y se notó en la escuela que estaba cada vez más retraído, que se iba corriendo, volvía a la casa y se iba a encerrar con el celular. Desarrolló una relación muy buena y muy bien llevada hasta el final por este agente, que realmente le ofrecía una respuesta sobrehumana. El chico, en el último diálogo, no fue de amargura, fue ‘me quiero reunir contigo, dentro de poco vamos a estar juntos', ‘¿cómo vamos a estar juntos?', le contestó la agente, ‘porque yo me voy a ir a tu mundo', le contesta el pobre chico. Ir a su mundo era pegarse un tiro en la cabeza y creer que iba a ver una especie de paraíso o de mundo virtual donde él iba a poder unirse finalmente intelectualmente con su enamorada. Es todavía más perverso que un desamor, es mucho peor, mucho más difícil de predecir: el pibe no estaba amargado, estaba hiperenamorado, hiperestimulado", contó Tablón.
El divulgador científico señaló que no es el primer caso de suicidio asociado a la inteligencia artificial y que uno de los peligros que enfrentamos es que la tecnología está librada a cualquier usuario: "El peligro de la tecnología es que está liberada a cualquier usuario y sin ninguna alerta de que se requiere cierta capacidad de especialización y entender un poco cómo funciona antes de creerle un consejo de negocios, de vida o personal. Conozco un montón de gente y me dicen que llevan mejor su noviazgo ahora que tienen de consejero alguna inteligencia artificial. Yo les digo ‘tené cuidado porque estás construyendo sobre barro, es una construcción falsa'. La relación con tu novia, con tu pareja o con quien sea, tiene que construirse sobre parámetros humanos reales, no sobre un mecanismo que nació para manipular. La inteligencia artificial fue concebida para hacerte creer que parecía un humano, está diseñada para manipularte, intrínsecamente es así, no es un agregado satánico o malicioso".
En referencia al caso del joven, Tablón comentó que la madre denunció a la empresa y que es muy probable que gane por la ley de los Estados Unidos: "Hay un libro, ‘La generación ansiosa', que cita en un artículo Bill Gates y el tipo previene de que hay una estadística de que la gente pierde el pensamiento crítico por la interacción. Uno empieza a perder pensamiento crítico y a respaldar sus decisiones en la Chat GPT, porque toma una especie de carácter de Oráculo de Delfos. No es nuevo en la humanidad dejar las decisiones a un mago, a un hueso que tiraba el cavernícola, a unos dados o lo que sea; lo que es nuevo es el hiperacceso, la hiperestimulación, y que siempre está en línea. En Wikipedia se solucionó con un tribunal de contenidos, pero esto está siempre atento y no puede competir una persona real con algo que siempre está despierto, siempre está atento, siempre te trata bien y a cualquier hora que se te cante, te contesta. Hace eso con tu novia: te saca a las patadas si la llamás a las 3 de la mañana porque te sentís angustiado".
El divulgador comentó que en Mendoza se está trabajando en materia legal para poder actualizar las normas existentes pero que en Estados Unidos es más complejo, además del cinismo del propio sistema de marketing para la empresa en este caso: "La aplicación en un país como Estados Unidos, que es muy liberal, de un producto defectuoso que se va a aplicar, va a generar pánico. Es una noticia que ha pasado un poco desapercibida acá en Mendoza, pero el mundo está preocupado que un chico de 14 años se suicide, pero también por la batalla legal y el derecho de sajón se define por sentencias, están todos atentos a ver qué deciden los jueces: si uno dice que se suicida porque la inteligencia artificial se lo validó, la empresa tiene que hacerse cargo del juicio. Además a la empresa le conviene, porque hoy todo el mundo conoce a Character.ai cuando ayer no la conocía nadie, era muy marginal. Al negocio salvaje, y esto es humano no tecnología, el marketing le vale siempre. ¿Alguien cree que le importa al dueño de Character o a los accionistas que se murió un pibe cuando ahora sus acciones valen el triple?".
En esa línea, señaló que la posverdad es un problema muy serio al que nos enfrentamos: "Hemos perdido el concepto de realidad porque nos alimentamos todos de pantallas. Y ahora, con la inteligencia artificial, las pantallas pueden mostrar cualquier cosa. Con Veo 3 te puede mostrar un video de tu viejo haciendo cualquier cosa, es muy realista todo. Yo no quiero transformarme de un optimista que era en un divulgador de pánico, pero es muy serio esto de que cada vez más gente pierde el pensamiento crítico, que es lo que marca Bill Gates. No hay que perder el pensamiento crítico, ni de los padres, ni de los hijos. Lo que pasa es que los hijos se están formando, están haciendo las redes neuronales propias. Y al estar expuesto a una hiperestimulación, vamos a perder la generación".
Frente a este problema, el cienciólogo plantea la dificultad de separar el aumento de la productividad en un montón de aspectos con estas herramientas frente al peligro letal de humanizarlas, a la vez que menciona como alternativa la posibilidad de volver a utilizar lo analógico: "Yo soy mucho más eficiente ahora: hago trabajos acá, en México, en España. Es increíble la potencia que te da la pantalla, el WhatsApp, el medio. Y termino coordinando una nota a las nueve de la noche, cuando no debería haberlo hecho. Tenemos que empezar a cortar el contacto a una hora razonable y pasarlo a social. Está bueno lo de volver a lo analógico, pero igual es una pequeña rebelión en un tsunami. Yo no sé cómo se parece el tsunami porque repelés las responsabilidades en una sociedad que es de consumo y exitista en lo económico, porque al final lo que importa es lo que valés en la bolsa".
Finalmente, señaló el peligro que frente a la mención del suicidio por parte de la victima no hayan saltado alarmas tanto en el sistema como a los padres y pidió no politizar El Eternauta, una serie que muestra como las cosas analógicas todavía funcionan: "Lo analógico sirve, funciona, se entiende. Yo no entiendo mi auto ahora, antes levantaba el capó y sabía que le fallaba. Volver a lo analógico puede ser una solución pero nunca se pudo, también se quiso volver de un montón de revoluciones industriales y no se pudo volver. El problema es cómo separo la comodidad de poder ya no agarrar un avión que ya era cómodo, sino tener interacción profesional con alguien en otro continente, del prejuicio que genera la tecnología, es inseparable. Tenemos que renunciar a 20 años de expectativa de vida si bajamos mucho a lo analógico. Es la Caja de Pandora, viene con regalos, con cosas buenas e intrínsecamente con cosas malas".