• Samsung prohibió a sus empleados usar ChatGPT en el lugar de trabajo, según Bloomberg.
  • Esto se produce después de que los ingenieros de Samsung filtraran accidentalmente el código fuente interno de ChatGPT en abril.
  • Otras empresas, incluidas Amazon, JPMorgan y Goldman Sachs, han restringido el uso de IA.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Samsung introdujo una nueva política que prohíbe a los empleados utilizar herramientas generativas de inteligencia artificial como ChatGPT de Open AI y Google Bard en el lugar de trabajo, informó Bloomberg.

En un memorando interno visto por Bloomberg, la compañía expresó su preocupación por el hecho de que los datos se compartan en plataformas de IA y terminen en manos de otros usuarios.

La nueva política se produce después de que ingenieros de Samsung filtraran accidentalmente el código fuente interno al cargarlo en ChatGPT en abril, según el memorando.

El personal ahora tiene prohibido usar herramientas de IA generativa en dispositivos propiedad de la empresa; incluidas computadoras, tabletas, teléfonos y redes internas, según Bloomberg.

«Le pedimos que se adhiera diligentemente a nuestras pautas de seguridad y, de no hacerlo, puede resultar en una violación o compromiso de la información de la compañía que resulte en una acción disciplinaria que puede incluir la terminación del empleo», escribió Samsung en el memorando.

Agregó que la compañía está revisando sus medidas de seguridad para «crear un entorno seguro» para que los empleados usen IA; sin embargo, está «restringiendo temporalmente el uso de IA generativa».

Samsung, OpenAI y Google no respondieron de inmediato a la solicitud de Insider de comentarios sobre la prohibición.

Samsung no es la primera empresa en restringir el uso de ChatGPT a sus empleados

Los bancos de Wall Street, incluidos Citigroup, Goldman Sachs y JPMorgan, estuvieron entre las primeras empresas en restringir el uso de ChatGPT a sus empleados debido a las preocupaciones sobre el acceso de software de terceros a información confidencial.

Estos bancos también temían que el chatbot pudiera compartir información financiera que pudiera conducir a una acción regulatoria.

Amazon advirtió de manera similar a su personal contra el uso de ChatGPT debido a que las respuestas del chatbot se asemejan a los datos internos de la compañía.

OpenAI, la empresa detrás de ChatGPT, introdujo nuevas medidas en abril para abordar las preocupaciones sobre la gestión de datos en el chatbot. Esto incluía dar a los usuarios la posibilidad de desactivar el historial de chat.

«Cuando el historial de chat está deshabilitado, retendremos las conversaciones nuevas durante 30 días y las revisaremos solo cuando sea necesario para monitorear el abuso, antes de eliminarlas de forma permanente», dijo la compañía.

OpenAI también está trabajando en una suscripción de ChatGPT Business para profesionales y empresas que desean un mayor control sobre cómo se usan y almacenan sus datos.

Google dijo que ayuda a Bard a mejorar seleccionando un «subconjunto de conversaciones y usando herramientas automatizadas para ayudar a eliminar información de identificación personal», según su sitio web.

«Estas conversaciones de muestra son revisadas por personal capacitado y se conservan hasta por tres años, por separado de su cuenta de Google».

AHORA LEE: ChatGPT cuesta a OpenAI alrededor de 700,000 dólares al día para operar, dice analista

TAMBIEN LEE: Elon Musk planea crear una ‘IA que busque la verdad al máximo’ llamada TruthGPT

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: