MENU

ChatGPT fait fuiter des secrets de Samsung

ChatGPT fait fuiter des secrets de Samsung

Actualité générale |
Par Peter Clarke



Samsung – entre autres – se demande s’il faut interdire aux employés d’accéder à ChatGPT, après que le chatbot controversé de l’IA ait commencé à partager des informations confidentielles de la société.

 

 Les informations de Samsung que ChatGPT a pu partager incluent des données de mesure d’équipements de semiconducteurs, des informations sur le rendement des produits, etc., selon un compte DigiTimes, qui fait référence à plusieurs sources de médias coréennes.

ChatGPT est un chatbot de traitement du langage naturel développé par OpenAI et mis gratuitement à la disposition du grand public en novembre 2022. Apparemment, des ingénieurs et d’autres travailleurs de nombreuses entreprises recrutent ChatGPT pour travailler pour eux ; pour écrire des logiciels et préparer des rapports, par exemple. C’est parfois avec, et parfois sans, l’autorisation  de leurs employeurs.

Le rapport de Digitimes mentionne trois cas précis de fuites causées par des ingénieurs partageant des informations avec ChatGPT. Dans un cas, un ingénieur a téléchargé un code défectueux et a demandé à ChatGPT de trouver le défaut et d’optimiser le logiciel. Mais en conséquence, le code source est devenu partie de la base de données et du matériel d’apprentissage de ChatGPT.

Un autre cas concerne l’utilisation de ChatGPT pour prendre le procès-verbal d’une réunion. Par défaut, la discussion et le nom de tous ceux ayant assisté à la réunion – tous deux confidentiels – ont été stockés sur la base de données ChatGPT et ainsi ChatGPT a pu divulguer le matériel à toute personne le demandant.

À la suite de tels événements, Samsung, SK Hynix, LG et de nombreuses autres entreprises se hâtent d’interdire ou élaborer des directives pour l’utilisation de ChatGPT et autres services de chatbot d’IA sur le lieu de travail, selon le Korea Times.

Le Korea Times a semblé confirmer les mésaventures de Samsung et a déclaré qu’un message sur un bulletin interne à l’entreprise avait été publié pour attirer l’attention sur l’utilisation abusive de ChatGPT. SK Hynix a bloqué l’utilisation de ChatGPT sur son réseau informatique interne et les employés doivent obtenir une approbation de sécurité avant d’utiliser ChatGPT, a indiqué le journal.

Le journal a également cité Kim Dae-jong, professeur d’administration des affaires à l’Université Sejong, affirmant que l’utilisation de ChatGPT sur le lieu de travail se répandait.

« Il est rapporté que davantage de personnes utilisent ChatGPT pour faire des programmes ou organiser des remarques lors de réunions. Ces actions augmenteront probablement la probabilité de fuite de secrets d’entreprise, de sorte que les entreprises privées sont invitées à proposer leurs propres directives pour les services d’IA », a déclaré Kim. Kim a ajouté que son université essaie également d’empêcher les étudiants d’utiliser ChatGPT pour leurs essais mais qu’il est difficile de le repérer car ChatGPT est si bon.

Pour la défense d’OpenAI, les propres directives de ChatGPT appellent les utilisateurs « à ne pas saisir de contenu sensible ».

 

Related links and articles:

https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?id=0000660911_GV3LF27M0DYJ0I2ZJ5Y85

https://www.koreatimes.co.kr/www/tech/2023/04/133_348342.html

News articles:

SpiNNaker2 spiking neural network project gets €2.5 million

Microsoft announces multibillion investment in OpenAI

ChatGPT gets its Wolfram superpowers

Si vous avez apprécié cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à :    ECI sur Google News

Partager:

Articles liés
10s