Interdit en Italie, sous enquête en France et au Canada, le programme d’intelligence artificielle ChatGPT peut produire des articles, des essais et des poèmes presque aussi bien que la plupart des gens – bien que sa production ne soit pas toujours exacte. Les régulateurs peuvent-ils déjouer la machine avant qu’elle ne décide de nous exclure complètement de l’histoire ?
ChatGPT est un programme d’écriture basé sur l’intelligence artificielle. Il a été lancé par la firme américaine OpenAI en novembre dernier. Moins de trois mois plus tard, il comptait 100 millions d’utilisateurs enregistrés.
La version Microsoft s’appelle Bing. Google appelle le leur Bard.
J’ai demandé à ChatGPT de produire un article de 250 mots dans le « style journalistique standard » sur le potentiel et les dangers d’écrire des programmes basés sur l’intelligence artificielle.
C’est ce que j’ai eu, exactement comme la machine me l’a proposé. Il a fallu moins de 20 secondes pour qu’il apparaisse sur mon écran d’ordinateur.
Cet article écrit par un bot :
À mesure que l’intelligence artificielle (IA) continue d’évoluer et de s’améliorer, elle est devenue de plus en plus capable d’effectuer des tâches qui étaient autrefois réservées exclusivement aux êtres humains. L’écriture est un domaine dans lequel l’IA a fait des progrès significatifs, avec des programmes comme GPT-3 désormais capables de générer une prose de haute qualité difficile à distinguer de celle écrite par un humain.
Bien que les capacités des programmes d’écriture d’IA soient impressionnantes, elles comportent également des dangers importants. L’une des préoccupations les plus urgentes est la possibilité que ces programmes soient utilisés à des fins malveillantes, telles que la création de fausses nouvelles ou de propagande qui ne se distingue pas des articles authentiques. Cela pourrait être utilisé pour influencer l’opinion publique ou diffuser de la désinformation, causant des dommages à grande échelle.
Une autre préoccupation est la possibilité que les programmes d’écriture d’IA soient utilisés pour le plagiat. Avec la possibilité de générer rapidement et facilement du contenu de haute qualité, il devient trop tentant pour des individus peu scrupuleux d’utiliser l’IA pour créer du contenu à leurs propres fins, que ce soit pour promouvoir leurs propres produits ou pour faire passer le travail de quelqu’un d’autre comme le leur. .
Enfin, il existe un risque que les programmes d’écriture IA soient utilisés pour automatiser des tâches traditionnellement effectuées par des écrivains humains. Bien que cela puisse être bénéfique du point de vue de la réduction des coûts, cela peut entraîner des pertes d’emplois importantes, en particulier dans les secteurs qui dépendent fortement de la création de contenu.
En conclusion, alors que les programmes d’écriture d’IA ont sans aucun doute le potentiel de révolutionner la façon dont nous écrivons et consommons du contenu, il est essentiel que nous restions conscients des dangers potentiels qui accompagnent leur utilisation. En prenant des mesures pour atténuer ces risques et garantir que l’IA est utilisée de manière éthique et responsable, nous pouvons exploiter son pouvoir pour le bien et éviter les pièges qui accompagnent toute nouvelle technologie.
Vaste collection de données personnelles
Un problème que le logiciel ne mentionne pas est qu’il est basé sur la collecte de grandes quantités de données, en grande partie personnelles, sur lesquelles il puise ensuite sans l’approbation de la source d’origine.
Le commissaire fédéral à la protection de la vie privée du Canada a ouvert cette semaine une enquête à la suite d’une plainte alléguant « la collecte, l’utilisation et la divulgation de renseignements personnels sans consentement ».
Le gardien Le journal de Londres a mis en place un groupe de travail spécial pour faire face au fait que des sites tels que ChatGPT inventent des références à des articles inexistants, attribuent à de vrais journalistes un travail qu’ils n’ont jamais fait – et le font assez bien pour confondre le journaliste nommé comme le écrivain.
Les dangers, pour la crédibilité, pour la responsabilité juridique et pour les réputations professionnelles, sont époustouflants.
Le maire australien Brian Hood a menacé de poursuivre la société mère OpenAI après que l’application Web l’ait impliqué à tort dans un scandale de pots-de-vin et de corruption, un crime qu’il a en fait dénoncé.
« C’est une chose de se tromper un peu; c’en est une autre d’accuser quelqu’un d’être un criminel et d’avoir purgé une peine de prison alors que la vérité était exactement le contraire », a-t-il déclaré.
Se démener pour réguler
Les régulateurs italiens ont déclaré vendredi dernier que l’entreprise n’avait aucune base légale pour s’engager dans une collecte massive de données et ont remis en question la manière dont elle traitait les informations qu’elle avait recueillies. Le logiciel est désormais interdit en Italie.
Les autorités européennes, dont celles de la France, de l’Irlande et de l’Allemagne, se sont depuis rapprochées de leur homologue italienne dans le but d’établir une position commune.
La CNIL a déjà reçu deux plaintes.
Zoe Vilain de Janus International, un groupe de campagne, a déposé le premier, affirmant que lorsqu’elle a essayé de créer un compte ChatGPT, on ne lui a pas demandé son consentement aux conditions générales d’utilisation ou à la politique de confidentialité.
Nous avons porté plainte devant la CNIL hier contre #OpenAI #ChatGPT suite à une demande d’accès à mes données personnelles conservées sans réponse. Retrouvez les infos dans @LInforme_ _ avec @reesmarc https://t.co/tGxc1CrtDk
— Zoé Vilain 🇪🇺 (@Zoe_Vilain) 5 avril 2023
L’autre plainte est venue de David Libeau, un développeur qui a écrit dans sa soumission qu’il avait trouvé des informations personnelles sur lui-même lorsqu’il a interrogé ChatGPT sur son profil.
« Lorsque j’ai demandé plus d’informations, l’algorithme a commencé à inventer des histoires sur moi, à créer des sites Web ou à organiser des événements en ligne totalement faux », a-t-il écrit.
ChatGPT et des programmes similaires sont « formés » sur d’énormes corps de texte glanés sur Internet et sont connus pour inventer des réponses, bien qu’OpenAI ait déclaré que de telles « hallucinations » sont moins courantes avec GPT-4, la dernière version du logiciel.
OpenAI insiste sur le fait qu’il « s’engage à protéger la vie privée des personnes » et estime que l’outil est conforme aux lois en vigueur.