TL;DR :
L’article discute des réactions diverses et souvent négatives à l’IA comme ChatGPT, y compris des craintes d’impact sur l’emploi et de problèmes de sécurité des données. L’auteur affirme que l’IA est un outil, et comme tous les outils, son utilisation efficace peut augmenter la productivité et l’efficacité. Concernant l’emploi, il suggère que ce ne sont pas les IA qui prennent des emplois, mais plutôt les personnes utilisant ces outils efficacement qui pourraient supplanter ceux qui ne le font pas. En ce qui concerne la sécurité des données, il critique l’approche consistant à simplement bloquer ces outils pour résoudre les problèmes de sécurité, et préconise plutôt une sensibilisation à la sécurité de l’information. Cela permettrait de continuer à utiliser ces outils puissants tout en garantissant la sécurité et la conformité. Enfin, il met en question la possibilité de renoncer indéfiniment à ces outils étant donné leur potentiel d’efficacité et de productivité.
Article complet :
En novembre de l’année dernière, le monde a été initié à ChatGPT. Les adopteurs précoces l’ont immédiatement adopté. Les critiques et les journalistes ont prophétisé la fin du monde et la perte universelle d’emplois. Les influenceurs l’ont immédiatement utilisé pour générer automatiquement du contenu, qui s’est avéré être de qualité médiocre et souvent inexact. Les entrepreneurs en série sur YouTube ont proclamé que c’était l’outil futur pour gagner de l’argent facilement. Les étudiants y ont vu une opportunité d’accomplir leurs devoirs sans effort, supposant que leurs enseignants étaient naïfs. L’Italie a complètement banni ChatGPT pour protéger la vie privée. Finalement, les entreprises ont commencé à prendre des mesures, non pas en intégrant la technologie à leur avantage, non, mais en la bloquant purement et simplement ! Bien sûr, tout cela est saupoudré d’annonces pour faire le buzz et des titres “putes à clics”.
Quelle époque passionnante nous vivons ! Abordons maintenant les risques associés à ChatGPT et, plus généralement, aux outils basés sur l’IA !
Comme je l’ai mentionné précédemment, les IA ne sont, en fin de compte, rien de plus que des instruments. Certes, ce sont des instruments hautement efficaces, mais ce sont toujours des instruments ! Nous devons les aborder en tant que tels et avec la même précaution !
L’IA et l’emploi
Abordons d’abord l’impact sur l’emploi. Il est certain que ces nouveaux outils basés sur l’IA auront un fort impact sur nos emplois, à l’instar de toute révolution technologique. Avons-nous besoin d’évoquer l’impact de la machine à vapeur ?
Si vous me demandez si une IA va prendre votre emploi, ma réponse sincère serait : non ! Cependant, je crois qu’une personne qui utilise l’IA a plus de chances de vous supplanter !
Et cela a du sens ! Une personne qui utilise des outils modernes permettant une plus grande efficacité accomplira le même travail en moins de temps. Il en sera de même pour les entreprises. Cela s’appliquera à un large éventail de professions et de spécialités. C’est pourquoi simplement éviter ou bloquer ces outils est contre-productif et témoigne d’une vision à court terme.

Les dangers potentiels des IA
Une fois que nous avons compris comment préserver nos emplois et rester compétitifs, examinons les dangers potentiels que les outils d’IA peuvent représenter.
Non, je ne fais pas allusion à un scénario à la Skynet où les IA élimineraient les humains pour dominer le monde. Sarah Connor peut dormir paisiblement.
Cependant, tout comme pour n’importe quel outil en ligne, nous devons absolument nous interroger sur la sécurité des données !
Pour les entreprises qui ont bloqué ChatGPT par souci de sécurité des données, avez-vous aussi restreint l’accès à Google Translate ou DeepL ? Non ? Pourtant, ces outils soulèvent les mêmes questions en matière de sécurité des données.
Il est important de préciser que je ne minimise pas cette question, c’est un véritable enjeu qui mérite d’être traité. Cependant, je pense que bloquer un accès n’est justifié que dans de rares cas. Dans une entreprise, cela crée souvent simplement un défi pour les employés qui cherchent à contourner la sécurité pour y accéder malgré tout.
Il pourrait être plus sage d’éclairer les utilisateurs sur le problème, afin de les sensibiliser à l’impact qu’ils peuvent avoir sur la sécurité des données. Par exemple, dans un cabinet médical, il est peut-être crucial d’expliquer à la secrétaire que faire traduire un dossier médical sur Google Translate n’est pas nécessairement une bonne idée. Nous ne savons pas comment ces données envoyées seront traitées. C’est le cas pour tous les services en ligne ou dans le cloud ! Une fois les données envoyées, nous n’avons plus aucun contrôle dessus !
Dans de nombreux cas, ce n’est pas un problème. Prenons l’exemple des devoirs d’étudiant, la traduction d’un article public, la création d’images, le formatage du texte d’une chanson ou encore l’écriture de morceaux de code pour un site web, etc …
En revanche, cela devient un véritable enjeu lorsqu’il s’agit de données sensibles ou soumises à des restrictions géographiques. Et dans ces cas c’est la personne qui travail avec ces donnée qui doit être sensibiliser à ce qui est possible de faire et ce qui interdit, voir illégal !
La solution simpliste à ce problème est de bloquer ce type de service sur les postes de travail en entreprise, renonçant ainsi à des outils puissants qui ont un réel impact sur la qualité et l’efficacité du travail.
La solution
Cependant, une approche plus intéressante serait de sensibiliser tous les utilisateurs, de la secrétaire au CEO, à la sécurité de l’information, en illustrant à travers des exemples ce qui est permis et ce qui ne l’est pas. De cette façon, il est possible de conserver ces outils qui ont un effet positif sur l’efficacité !
Oui, cela exige un engagement de la part des utilisateurs et un certain investissement de la part des entreprises pour la sensibilisation. Cependant, est-il vraiment envisageable de se passer indéfiniment de ces outils ?
