top of page

CHAPTER - 5
Éthique & réglementation

Lorsque l'on parle d'IA, on ne peut s'empêcher de parler du danger qu'elle pourrait représenter que cela soit par le Deep Faking, la cybercriminalité, le vol de données... de nombreux points restent encore assez opaques. Nous allons donc analyser les risques actuels mais aussi dans notre avenir.

​

​

DEEP FAKING

Le Deep Faking ou Hypertrucage, qui est un mot valise reprenant les mots "Deep Learning" et "Fake" . C'est l'imitation ou la transformation de personnes, de vidéos, de voix existantes via une intelligence artificielle afin de produire de l'intox ou des contenus humoristiques. Les Deep Fakes sont réalisés par synthèse intégrale en Deep Learning, où l'IA emmagasine des millions de visages avec leurs expressions via un système d'algorithmes, générant des vidéos ultra-réalistes de visage humain. Comme l'on peut maintenant retrouver des Deep Fake de Tom Cruise ou de Keanu Reeves.

​​

Le danger avec le Deep Fake, c'est de diffuser de l'intox, d'utiliser l'image de personnalité publique mais aussi privée dans le but d'escroquer ou de manipuler. Le problème qui sera engendré sera de savoir si une vidéo est réelle ou non et donc de perdre confiance à tout ce qui pourrait être visible sur les réseaux.  L'intox a toujours existé mais maintenant elle devient plus pointue et peut avoir des enjeux politiques ou économiques. 

​

Il serait intéressant de créer une IA capable de détecter les Deep Fakes, en analysant les images et vidéos, et en les comparant à une base de données, de démontrer que l'image a été créée ou est bien réelle. 

IA & Éthique​

Il est important que lorsque l'on parle d'intelligence artificiel des problèmes éthiques peuvent se poser, c'est pour cela qu'il faut aussi apprendre aux IA à ne pas commettre de discrimination ou d'uniformisation, ce qui pourrait engendrer de graves conséquences sur les inégalités de genre et d'ethnicité. 

​

Cela a été le cas d'Amazon qui en 2014, qui a réalisé ces recrutements via une IA, qui en utilisant la base de données des salariés actuels, dominés largement par les hommes, ce qui a engendré que l'IA ne recrutaient pas les femmes. 

​

A l'heure actuelle, les IA n'ont pas la capacité de ne pas commettre d'erreur ou d'être juste dans leurs choix, dont les algorithme peuvent être faussé si déjà le système dans lequel nous vivons n'est pas équitable. Cela voudrait dire que l'IA devrait être supérieur à un humain pour savoir si ces choix seront juste et bon pour l'humanité.

​

En novembre 2021, les membres de l'UNESCO ont rédigé des recommandation sur l'éthique de l'Intelligence Artificielle, afin de servir de référence dans le respect des droits humains et de la dignité humaine dans le monde numérique. 

​

Pour L'UNESCO, l'IA a été d'un très grand secours dans le domaine médical et la recherche d'un vaccin pendant le Covid 19, cependant elle a soulevé d'autres problèmes liés à l'accès aux données, aux traçages et a également créer des problèmes d'inégalité entre les genres. Il n'y a actuellement que 22% de femmes dans le secteur professionnel de l'IA, ce qui peut provoquer des préjugés et stéréotypes de genre. Comme le fait que les assistant.e virtuel ont des voix féminine par défaut comme Siri, Alexa ou Cortana. 

​

Pour ce qui est des problèmes liés aux réchauffement climatique, l'IA pourrait nous aider à trouver des solutions sur la gestions des énergies, la protection de nos écosystèmes... cependant l'IA généré elle-même beaucoup de CO2 donc comment réduire cette consommation d'énergie pour la rendre plus propre.

​

Il existe encore un grand vide au niveau législatif, il est important que des réglementations puissent être appliquées mondialement. Mais comment être sûr qu'il n'y aura pas des abus politiques comme cela a déjà été le cas via d'autres technologies.

Réglementation​

Le 16 mai 2023, Sam Altman, fondateur d'Open AI avec ChatGPT4, a été convoqué afin d'aider à la mise en place d'une réglementation à l'échelle mondiale, sans pour autant nuire à l'innovation. Depuis l'avènement des LLM - Large Language Model, ces IA sont capable de générer des réponses indiscernables d'un humain, ont engendré des risques potentiels tel que la discrimination, les préjugés, la désinformations, la sécurité et la confidentialité. 

​

A l'heure actuel, les États-Unis tentent de gérer une réglementation sur les IA au niveau national. Pour ce qui est de l'Europe, en 2021 la Commission Européenne a proposé un premier cadre réglementaire au sujet de l'IA. 

​

L'idée serait d'analyser et classer les IA suivant les risques que cela pourraient représenter aux utilisateurs. Pour cela les systèmes d'IA autorisés en Europe, doivent être sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Les IA doivent être supervisée par des humains et ne pas être automatisée. 

​

Les IA qui doivent être complètement interdite : 

  • Manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques tel que les enfants

  • Score social en classant les personnes en fonction de leur comportement, statut socio-économique et caractéristiques personnelles

  • Des systèmes d'identification biométrique en temps réel et à distance comme la reconnaissance faciale mais pourraient être utilisée a posteriori dans le cas d'enquête policière après l'aval de la justice

​

Afin de respecter toute transparence, les contenus créés par une IA générative doivent être notifiée, ne pas créer de contenu illégal (pédo-pornographique, criminel...) et ne publier que des résumés de textes qui sont protégées par des droits d'auteur. Les utilisateurs doivent être informés lorsqu'ils ont à faire à une IA et donner à l'utilisateur le libre choix d'arrêter. 

 

Il est donc important que les entreprises créant les IA, mettent en place des systèmes de gouvernance équitable afin de créer une éthique de l'IA et éviter toutes les dérives dangereuses que cela pourrait impliquer. 

Les Danger de l'IA​

Quand la réalité rejoint la fiction, comment ne pas avoir peur des avancés de l'IA, sans penser à tous les films d'anticipation qui ont abordé ce sujet. L'une des peurs seraient que l'IA puisse avoir la conscience d'elle-même. Ce qui poserait d'énorme problème éthique de même lorsqu'il a été question pour le clonage humain. 

​

Comme toute découverte scientifique, il est normal de pouvoir imaginer toutes les solutions possibles même lorsqu'il s'agit du pire. Une IA dotée d'une conscience pourrait remettre en cause son statut d'infériorité face à un humain, pourrait se rebeller ou faire ses propres choix contraire aux ordres donnés. La conscience pousserai à la remise en question du système et donc pourrait provoquer la fin de l'humanité si cette dernière se jugerai être supérieur à l'humain.

​

Il est aussi évident que les machines ont déjà remplacé les humains dans l'industrie, comme cela a été le cas dans l'automobile causant la perte de millions d'emploi. Les tâches rébarbatives seraient attribuées à des robots, poussant à la déshumanisation des métiers notamment lorsque l'on a remplacé les caissières par des caisses automatiques. Cette quête de l'automatisation, du rendement, du gain de temps pourrait nous faire perdre notre part d'humanité. 

 

Il y a également le risque de contrôle et de surveillance que les états pourraient mettre en place pour surveiller la population comme la Chine l'a déjà appliqué via des caméras de surveillance dirigée par une IA avec reconnaissance faciale.

​

Toutes ces questions doivent être abordées et étudiées via des comités d'éthique gouvernemental afin de maintenir le contrôle de l'IA pour que l'on respecte les droits humains et la vie sur terre. Ce comité devraient être composé de scientifiques, juristes, politiciens, sociologues, médecins et philosophe ; une alliance parfaite qui garantirai la protection de l'humanité face aux dérives liées aux avancées scientifiques et technologiques. 

​

Et si un jour la réalité rejoignait la fiction et que des ASI - Superintelligence artificielle seraient fabriquées, il faudra certainement leurs imposer les lois de la robotique telles que les aura rédigées Isaac Asimov, dans le "Cycle des Robots" et  "Fondation" :​

​

  • Loi Zéro : Un robot ne peut pas porter atteinte à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger ;

  • Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro ;

  • Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro ;

  • Troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

​

Source#1

Source#2

Source#3

Source#4

​

  • Instagram

© 2023 par Vision Future. Créé avec Wix.com

bottom of page