Samsung prohibió ChatGPT: el motivo

La marca de tecnología teme que sus datos privados se entreguen a otros usuarios. Por eso, sus empleados ya no podrán acceder al ChatGPT y otros chatbots.

Lo que podría haber sido un matrimonio exitoso terminó en un divorcio apresurado. Así, rápida y tumultuosa, fue la relación entre Samsung y ChatGPT. La marca surcoreana había coqueteado con la Inteligencia Artificial (IA) de Microsoft y OpenAI el mes pasado, pero ahora decidió prohibir ChatGPT y otros chatbots en su empresa por miedo a que se filtrara información interna confidencial en alguna de esas plataformas.

ChatGPT: ¿Cómo exprimir al máximo esta nueva inteligencia artificial?

La decisión, una más en la saga de compañías que toman medidas enérgicas contra el uso de servicios de IA en el lugar de trabajo, llegó después de que Samsung descubriera una fuga accidental de un código fuente interno confidencial que un ingeniero que había subido a ChatGPT el mes pasado.

La gravedad de la fuga sigue sin estar clara, pero eso le bastó a Samsung para prohibir ChatGPT. A la empresa le preocupa que los datos compartidos con los chatbots de IA se almacenen en servidores propiedad de empresas que operan el servicio como OpenAI, Microsoft y Google, sin una forma sencilla de acceder a ellos y eliminarlos.

De forma predeterminada, ChatGPT guarda el historial de chat de un usuario y usa las conversaciones para entrenar más a sus modelos. Aunque la plataforma permite a los usuarios desactivar esto manualmente, no está claro si esta opción se aplica retroactivamente a los chats más antiguos.

Por eso, Samsung también teme que los datos confidenciales compartidos con ChatGPT puedan terminar siendo entregados a otros usuarios, informó Bloomberg.

Poco después de enterarse de la fuga, Samsung comunicó al personal en un comunicado que aplicará una restricción temporal a los chatbots mientras trabaja para "crear un entorno seguro" y así usar de manera segura las herramientas generativas de IA.

Samsung trabaja en una IA segura

"La sede está revisando las medidas de seguridad para crear un entorno seguro para el uso de la IA generativa para mejorar la productividad y la eficiencia de los empleados. Sin embargo, hasta que se preparen estas medidas, estamos restringiendo temporalmente el uso de la IA generativa", se lee en el comunicado.

Además de restringir el uso de IA generativa en las computadoras, teléfonos y tablets de la empresa, Samsung también pidió al personal que no cargue información comercial confidencial a través de sus máquinas personales. "Le pedimos que se adhiera diligentemente a nuestra pauta de seguridad y, de no hacerlo, puede resultar en una violación o compromiso de la información de la compañía que resulte en una acción disciplinaria que puede incluir la terminación del empleo", solicitó.

Las empresas, con miedo del ChatGPT

Otras empresas e instituciones pusieron límites al uso de herramientas de IA generativa en el pasado, aunque las razones exactas de las restricciones varían.

JPMorgan, por ejemplo, restringió su uso por cuestiones de cumplimiento, mientras que otros bancos como Bank of America, Citigroup, Deutsche Bank, Goldman Sachs y Wells Fargo también han prohibieron o limitaron el uso de dichas herramientas.

Las escuelas de la ciudad de Nueva York prohibieron ChatGPT por miedo a hacer trampa y desinformar, mientras que la protección de datos y la seguridad de los niños se citaron como el motivo de la prohibición temporal de ChatGPT en Italia.

OpenAI, por su parte, aconseja a los usuarios que no "compartan información confidencial en sus conversaciones" y señala que cualquier conversación también puede usarse para entrenar versiones futuras de ChatGPT. La compañía lanzó recientemente una función similar al "modo incógnito" de un navegador, señaló Reuters, que no guarda los historiales de chat y evita que se usen para capacitación.

Esta nota habla de:
¿Hay que prohibir el uso de celulares en las aulas?