TL;DR :

Dans mon article, je discute des nombreuses réactions à ChatGPT, certaines alarmistes, d’autres le considérant comme une mode. Je tiens à clarifier l’importance de la sécurité lors de l’utilisation de ChatGPT, en particulier dans le milieu professionnel soumis à des régulations comme la LPD et le RGPD. J’insiste sur le fait qu’il ne faut pas toujours croire aveuglément ce que ChatGPT dit, et je mets en garde contre le partage imprudent d’informations. Les risques de sécurité peuvent être atténués par des mesures telles que la sensibilisation des employés, l’anonymisation des données, le contrôle d’accès et des audits réguliers. Pour conclure, utiliser les IA de manière sécurisée est une question de bon sens et de sensibilisation. Si vous cherchez des experts pour sensibiliser votre équipe, je suis là pour vous aider. Profitez de la technologie, mais faites-le de manière responsable!


Article complet :

Ces derniers temps, j’entends toutes sortes de réactions concernant ChatGPT : certains prédisent l’apocalypse, d’autres pensent que c’est juste une mode passagère, certains voudraient même l’interdire complètement, ou suggèrent qu’il stocke spécifiquement vos données pour les revendre ! En bref, il y a toutes sortes d’opinions !

C’est pourquoi je voudrais mettre les choses au clair sur la sécurité de l’utilisation de ChatGPT et de toute autre IA générative sur le cloud qui est plus ou moins gracieusement mise à votre disposition.

Nous savons tous maintenant ce que ChatGPT est et ce qu’il peut faire pour nous ! Et soyons honnêtes, c’est vraiment fantastique ! Les plus blasés diront qu’ils utilisent l’IA depuis longtemps. Mais bizarrement, ils n’en parlaient pas avant.

L’utilisation de ChatGPT nous donne des super pouvoirs, nous permettant de faire des choses impossibles auparavant et beaucoup plus rapidement ! Déjà, on voit une différence se creuser entre ceux qui l’utilisent et les autres.

Et cela devient également la norme dans les entreprises, et c’est là que les choses se compliquent un peu. Car en entreprise, des règles beaucoup plus strictes s’appliquent. C’est normal, une entreprise est soumise à des règlementations comme la LPD et le RGPD, des choses auxquelles beaucoup de personnes ne se sentent pas concernées à titre personnel.

Mais que cela soit à titre personnel ou professionnel, il faut prendre en compte un certain nombre de choses. Et vous allez voir, beaucoup de ces règles sont simplement du bon sens. Donc, comme je voulais l’écrire dans le titre : Ne soyez pas con !

Quelques règles d’utilisation de ChatGPT :

Ne prenez pas pour argent comptant ce que dit ChatGPT :

Vérifiez toujours les résultats que vous donne ChatGPT. Il arrive souvent que ChatGPT vous donne une information qui semble logique, bien formulée, mais qui est fondamentalement incorrecte ! Ne vous faites pas avoir !

Mauvaise utilisation de ChatGPT :

Le partage insouciant d’informations personnelles ou d’entreprise avec ChatGPT peut violer la conformité à la LPD et au RGPD. Cela peut également violer le secret de fabrication d’une entreprise. Par exemple, Samsung a permis à ses ingénieurs d’utiliser ChatGPT pour vérifier le code source, oubliant que toutes les données partagées avec ChatGPT sont conservées pour former le modèle.

Risques de sécurité :

Les principaux risques de sécurité avec ChatGPT sont les fuites de données et les violations, ainsi que son utilisation malveillante pour générer de fausses informations ou pour usurper l’identité de personnes réelles. Évidemment, dans la pratique, cela est très lié au point précédent. Ce n’est souvent pas par malveillance, mais simplement par négligence !

Voici quelques mesures de sécurité à prendre pour atténuer les risques lors de l’utilisation de ChatGPT, spécialement pour les entreprises !

Sensibilisation des employés :

N’oubliez pas de sensibiliser régulièrement vos employés aux problématiques et aux dangers de ChatGPT. Cela permettra à votre personnel de bénéficier des fabuleux avantages de cet outil tout en travaillant en toute sécurité.

Anonymisation ou chiffrement des données :

Toutes les données utilisées par ChatGPT doivent être chiffrées ou anonymisées pour protéger les informations personnelles. Evitez donc de copier des e-mails tels quels pour demander la génération d’une réponse. Changez les noms et les adresses e-mail ! Dans le cadre de l’entreprise, déterminez quelles sont les données sensibles et communiquez cette information à vos collaborateurs de manière à ce qu’ils puissent faire un choix éclairé quant à ce qu’il est possible d’envoyer à une IA !

Contrôle d’accès :

L’accès à ChatGPT doit être limité à ceux qui en ont besoin et doit être surveillé.

Audit régulier :

Un audit régulier de l’utilisation et de l’accès à ChatGPT peut aider à identifier les problèmes de sécurité potentiels.

Conclusion

Comme vous l’avez compris, profiter des IA en toute sécurité n’est pas si compliqué et un peu de bon sens fait déjà beaucoup de chemin. Néanmoins, sensibilisez vos employés sur la protection des données !

Si vous ne connaissez personne pour cette sensibilisation, faites-moi signe et je regarderai dans mon réseau pour vous trouver quelqu’un !


Article original sur LinkedIn :