OpenAI advierte sobre la super IA y proponen crear un organismo internacional

Sam Altman publicó un comunicado en el que propone crear distintos controles y establecer una "tasa de crecimiento".

Sam Altman, el Ceo de Open AI, la empresa creadora de ChatGPT, publicó un comunicado advirtiendo sobre la necesidad de tomar recaudos ante el crecimiento de la "superinteligencia artificial".

Se trata de un nivel de inteligencia artificial altamente avanzado y superior al intelecto humano en todas las áreas, que podría ser insegura para la humanidad.

En este sentido, Altman junto al co fundador de Open Ai, Greg Brockman y el científico de computación en jefe de la empresa, Ilya Sutskever, explicaron que "En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado", y agregaron que esto podría pasar en un plazo máximo de diez años.

Sam Altman 

Sam Altman 

"Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí", expresaron en el documento difundido este lunes.

Si bien aseguran que también es necesario mitigar los riesgos de la inteligencia artificial actual, su preocupación más importante es sobre el desarrollo de la superinteligencia, la que "requerirá un tratamiento y una coordinación especiales."

Para ello, proponen la creación de una organización internacional que establezca una especie de "tasa de crecimiento de la capacidad de IA" por año.

Algo así como una especie de OIEA (Organización Internacional de Energía Atómica) que vela por el uso pacífico de la energía nuclear en el mundo. Esta organización debería controlar el uso "por encima de un cierto umbral de capacidad" y sería encargado de inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad.

"El seguimiento del uso de cómputo y energía podría ser de gran ayuda y darnos alguna esperanza de que esta idea pueda implementarse", precisaron, pero aclararon que "Sería importante que una agencia de este tipo se centre en reducir el riesgo existencial y no en cuestiones que deberían dejarse en manos de países individuales, como definir lo que se le debe permitir decir a una IA."

También señalaron que "necesitamos la capacidad técnica para hacer que una superinteligencia sea segura", pero remarcaron que eso es algo en lo que todavía se está trabajando.

Finalmente, aclararon que los desarrollos que surgen actualmente en cuanto a IA no están siendo inseguros ya que, "si bien tienen riesgos, el nivel de esos riesgos se siente acorde con otras tecnologías de Internet".

"Por el contrario, los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora, y debemos tener cuidado de no diluir el enfoque en ellos aplicando estándares similares a la tecnología muy por debajo de esta línea", explicaron.

Por qué la Inteligencia Artificial puede cambiar todo en los próximos meses

"Creemos que las personas de todo el mundo deberían decidir democráticamente los límites y valores predeterminados de los sistemas de IA. Todavía no sabemos cómo diseñar tal mecanismo, pero planeamos experimentar con su desarrollo", continúa el escrito a la vez que destaca que en Open AI, "creemos que (esta tecnología) conducirá a un mundo mucho mejor de lo que podemos imaginar hoy. El crecimiento económico y el aumento de la calidad de vida serán asombrosos", aseguran.

Sin embargo, también aceptaron que, dado la constante disminución de los costos y el aumento de actores que construyen IA cada día, "sería poco intuitivo, arriesgado y difícil detener la creación de superinteligencia", y por eso concluyen que "tenemos que hacerlo bien". 

Esta nota habla de: