La colaboración prometía un futuro exitoso para ambas empresas, y excelentes funciones para sus usuarios. Sin embargo, la relación terminó drásticamente luego de que se filtraran datos confidenciales de Samsung. ¿Qué ocurrió?
Samsung y ChatGPT iniciaron una colaboración el mes pasado. La marca surcoreana planeaba ahondar en los beneficios que la Inteligencia Artificial de Microsoft y OpenAI podía ofrecer a sus productos.
Pero todo acabó rápidamente luego de que Samsung prohibiera terminantemente el uso de los chatbots de inteligencia artificial en su empresa. Al parecer el problema surgió cuando uno de sus empleados filtró información confidencial en dicha plataforma.
¿Por qué Samsung prohibió el uso de ChatGPT?
Samsung se ha sumado a la, ya larga, lista de empresas que deciden tomar distancia de la Inteligencia Artificial de ChatGPT. El problema comenzó cuando un ingeniero subiera un código fuente interno a la chatGPT el mes pasado.
Sin embargo, aún no ha trascendido la gravedad o las consecuencias de la fuga. Lo que no ha impedido a Samsung tomar medidas restrictivas con respecto al uso de la inteligencia artificial en el lugar de trabajo.
Esto se debe a que OpenAI aún no ha sido claro sobre el funcionamiento de ChatGPT y su forma de utilizar la información aportada por sus usuarios. Se sabe que las consultas de los mismos se almacenan para mejorar la calidad de las interacciones futuras, pero no se conoce a detalle el proceso de borrado de los mismos.
A Samsung le preocupa que los datos compartidos en el Chatbot se reserven en servidores de empresas que operan el servicio. Tales como OpenAI, Microsoft y Google, sin un método claro y seguro de acceder a ellos para eliminarlos.
¿Qué información compartió OpenAI sobre el funcionamiento de ChatGPT?
Es sabido que, de manera predeterminada, ChatGPT guarda el historial de chat de un usuario para entrenar a sus modelos. Lo cierto es que, si bien incluye una opción para desactivar este funcionado, el proveedor no es claro si esto se aplica a los chats más antiguos.
Desde un principio, los administradores del chat de Inteligencia Artificial advertían a sus usuarios que no compartieran información confidencial en sus chats. Debido a que cualquier conversación podría ser usada para entrenar versiones futuras de la herramienta.
Para evitar riesgos de filtración de datos, OpenAI implementó un modo incógnito. Similar al de los navegadores. El cual prometía no guardar los historias de chats, prohibiendo su uso para el entrenamiento de la misma en un futuro.
Otras empresas que prohibieron el uso de la inteligencia artificial
Samsung no es la primera empresa, y tampoco la última, en poner un freno al uso de la Inteligencia Artificial. Muchas empresas ya han implementado estas medidas aunque por motivos disímiles.
Por ejemplo, JPMorgan restringió el uso debido a conflictos por el cumplimiento. A esta causa se sumaron numerosos bancos como Bank of America, Citigroup, Deutsche Bank, Goldman Sachs y Wells Fargo.
Las instituciones educativas también mostraron una posición similar. Esta vez debido a la posibilidad de que los alumnos utilizaran la herramienta para hacer trampa. Aunque también se consideró que la plataforma podía generar contenido falso que terminase por confundir a los estudiantes.