7x Anticiper 7x Inspirer 7x Décrypter 7x Savoir 7x Faire 7x Recommander 7x Surprendre
Recevoir la newsletter 7x7

7 dangers de l’intelligence artificielle

Anticiper Par Philippe Kerforne 10 avril 2023

7 dangers de l’intelligence artificielle
pixabay/Gerd Altmann
1 2 3 4 5 6 7

L'intelligence artificielle (IA) est une technologie émergente qui pourrait transformer le monde en améliorant la productivité, la créativité et la qualité de vie. Son impact est déjà comparé à la révolution de l’Internet. 

Malgré toutes ses promesses, l’intelligence artificielle présente également des dangers qui doivent être pris en compte.

L'intelligence artificielle offre de fabuleux avantages, mais présente, également, des risques importants. Il est capital que les gouvernements, les entreprises et les développeurs travaillent ensemble pour minimiser les effets négatifs potentiels. Zoom sur 7 risques liés à l'IA.

1 Danger de l'IA : La destruction de millier d'emplois

7 dangers de l’intelligence artificielle
PIXABAY/GERD ALTMANN

Les innovations humaines technologiques sont censées aider ou, au moins, alléger le travail des humains. 

Paradoxalement, à chaque fois que l’humanité a effectué un bond technologique visant à soulager la pénibilité des tâches humaines, cela a entraîné la disparition de plusieurs métiers. Par exemple, on ne trouve plus, depuis bien longtemps, des rémouleurs ou des porteurs d’eau dans les rues de nos cités ! 

L’IA n’échappe pas à la règle et vient transformer la pratique de nombreuses professions. Elle bouleverse de nombreux domaines et révolutionne le travail en entreprise. Cette transformation entraîne des pertes d'emplois significatives : les tâches répétitives et routinières sont les premières à être automatisées.

Les secteurs qui dépendent fortement de la main-d'œuvre, comme la fabrication, la logistique et le service clientèle, sont particulièrement vulnérables à cette transformation. Ainsi, les travailleurs peu qualifiés risquent de se retrouver sans emploi.

Les gouvernements auront, et ont déjà, la lourde tâche de trouver des moyens de garantir que l'automatisation ne se traduise pas par une augmentation du chômage et de la pauvreté. Il faut, en effet, s’attendre à une destruction et, au moins, à une précarisation d’un certain nombre d’emplois...

2 Danger de l'IA : Un biais de données

7 dangers de l’intelligence artificielle
PIXABAY/GERD ALTMANN

L’irruption de l’IA, dans nos existences, peut être un grand avantage dans de nombreux domaines et nous faciliter de nombreuses tâches. 

Elle possède des propriétés fabuleuses, notamment pour l’accès à de nombreuses bases de connaissances en temps réel et la collecte d’informations de façon quasi instantanée ou en quelques minutes. C’est le cas, par exemple, avec des outils conversationnels basés sur l’IA comme le chatbot ChatGPT. L'intelligence artificielle, qui s'appuie sur d'énormes quantités de données, est capable de créer des modèles prédictifs. 

Cependant, les corpus de données peuvent contenir des biais risquant d’être reproduits par les algorithmes. Par exemple, si une base de données est principalement composée d'hommes blancs, les modèles prédictifs qui en découlent peuvent ne pas fonctionner correctement pour les femmes ou les minorités ethniques. Il convient de ne pas accorder une confiance aveugle à toutes les recherches basées sur l’IA, car elle peuvent contenir des erreurs. 

Prenez toujours le temps de vérifier les informations recueillies par le biais de recherches à l’aide d'une IA. Accorder une confiance aveugle à un outil de recherche peut avoir des conséquences graves dans de nombreux domaines. 

Prenons le cas de la justice pénale, où les algorithmes sont de plus en plus utilisés pour aider à prendre des décisions importantes, telles que la libération conditionnelle ou la fixation de la peine. Si ces algorithmes sont biaisés, cela peut entraîner des résultats discriminatoires et injustes. Les développeurs doivent être conscients de ces biais et travailler pour les éliminer ou les atténuer.

3 Danger de l'IA : Une diffusion de fausses informations

7 dangers de l’intelligence artificielle
PIXABAY/JOHN IGLAR

Il convient de ne pas s’en remettre complètement aux résultats de vos recherches à l’aide d'une IA, notamment dans un secteur capital, aussi bien pour les gouvernements que les particuliers : celui du domaine de l’information. 

Les recherches basées sur des chatbots comme ChatGPT sont rapides et font gagner énormément de temps, aussi bien pour les journalistes, que pour des chercheurs, des conseillers, des analystes dans différents domaines, ou encore des étudiants.

Cependant, si l‘intelligence artificielle a été développée pour aider les êtres humains à accomplir des tâches difficiles et fastidieuses, elle peut également être utilisée à des fins néfastes. 

L'un des risques majeurs de l'IA est la propagation de fausses informations. 

Certes, le recours à la désinformation ou à la propagande n’a pas attendu l’avènement de l’IA pour se répandre. Leur utilisation date probablement des débuts de l’humanité... Mais, avec la capacité de générer des textes de manière autonome, les systèmes d'IA peuvent être utilisés pour créer de fausses nouvelles, des rumeurs et des théories du complot, et ce, très rapidement. Les réseaux sociaux et les plateformes de partage de contenu sont les principaux vecteurs de la propagation de ces informations. 

L’utilisation de l’IA, combinée à celles des médias sociaux, peut s’avérer désastreuse, car la plupart des gens ne prennent pas la pleine de vérifier les informations trouvées sur les médias sociaux et les répandent (ou les « retweetent ») aisément en leur accordant crédit. Cela contribue à leur diffusion exponentielle, parfois en atteignant des millions de vues, et avoir des conséquences catastrophiques. C'est pourquoi, des mesures doivent être prises pour limiter la diffusion de ces fausses informations et éviter leur propagation.

4 Danger de l'IA : Des atteintes à la vie privée

7 dangers de l’intelligence artificielle
PIXABAY/GERD ALTMANN

De nombreuses personnes, soucieuses de leur vie privée, mais qui n’hésitent pas à raconter leur vie sur les réseaux sociaux dans les moindres détails, s’inquiètent des atteintes à la vie privée potentielles que représente l’arrivée de l’IA dans leur vie quotidienne. 

Les données partagées sur les réseaux sociaux sont facilement récupérables, aussi bien dans des buts de marketing digital que de nuisance en ligne. De même, les systèmes d'IA peuvent collecter des données sur les utilisateurs, qui pourraient être utilisées pour des campagnes de publicité ciblées, des escroqueries, ou autres activités malveillantes. 

Les technologies de reconnaissance faciale et vocale peuvent également servir à suivre les mouvements des personnes et à identifier les comportements suspects. Ces dernières pratiques de contrôle des populations sont déjà monnaie courante avec le système du crédit social en Chine. De nombreux pays (même en occident) regardent, d’ailleurs, avec un intérêt grandissant ce système de contrôle des citoyens.

Espérons que les gouvernements et les entreprises soient conscients de la nécessité de protéger la vie privée des individus et de garantir que les données personnelles ne soient pas utilisées à des fins commerciales, illégales ou immorales.

5 Danger de l'IA : Une addiction à de nouvelles formes d'intelligence

7 dangers de l’intelligence artificielle
PIXABAY/ALEXA

L’intelligence artificielle peut aussi devenir une drogue et conduire à des comportements addictifs. En effet, les interfaces conviviales des applications basées sur l'IA peuvent rendre les utilisateurs dépendants des services proposés. 

Les jeux vidéo, les réseaux sociaux et les assistants vocaux sont des exemples d'applications d'IA pouvant créer une dépendance. Les utilisateurs peuvent être tellement absorbés par ces applications qu'ils en oublient leur vie réelle, ce qui peut entraîner des problèmes de santé mentale et physique. 

Il est donc important de réglementer l'utilisation de ces technologies et de sensibiliser les utilisateurs aux dangers de l'addiction. Même s’il n’est pas question d’interdire l’accès aux applications basées sur l’IA, il est important de mettre en garde contre l’addiction qu’un excès peut entraîner

Au niveau des familles, il convient d’en avertir les jeunes enfants et les adolescents qui sont déjà, en grande majorité, très dépendants des applications mobiles et des réseaux sociaux. 

Au niveau sociétal, les gouvernements et les entreprises devront prendre des mesures pour réglementer l'utilisation de l'IA et protéger les droits des individus.

6 Danger de l'IA : Des guerres technologiques avec le syndrome Terminator

7 dangers de l’intelligence artificielle
PIXABAY/Victoria watercolor

La série de films Terminator du réalisateur James Cameron (cinq films de 1984 à 2019) avait interpellé sur le danger de la prise du contrôle du monde par des cyborgs dotés d’une intelligence supérieure. Cette franchise (IP) pointait, en particulier, le risque d’une guerre ente ces derniers et l’humanité. Les possibilités infinies de l’intelligence artificielle, dont seront équipés, prochainement, des robots humanoïdes, rend ce danger réaliste. 

Mais, avant cela, l'utilisation de l'intelligence artificielle dans la création de systèmes d'armes autonomes par l'Homme représente, déjà, un véritable danger pour la sécurité mondiale. 

En effet, ces armes seraient capables de prendre des décisions de manière autonome, sans intervention humaine. Cela pourrait conduire à une situation extrêmement dangereuse, car une fois qu'un pays aurait développé une telle arme, les autres parties seraient susceptibles de suivre pour rester compétitives. 

Ce risque de guerre technologique pourrait causer une escalade de la violence, car ces armes seraient potentiellement imprévisibles et difficiles à contrôler.

De plus, les systèmes d'armes autonomes pourraient tomber entre de mauvaises mains, celles d’états agressifs ou de terroristes pouvant alors causer des catastrophes humanitaires. Il est donc capital d’établir des réglementations strictes pour empêcher la prolifération de ces armes dangereuses.

7 Danger de l'IA : Une singularité technologique dangereuse pour l’Humanité

7 dangers de l’intelligence artificielle
PIXABAY/Pete Linforth

La singularité technologique, dans le domaine de l’IA, est sa capacité cognitive potentielle (encore une fiction à l’heure actuelle) susceptible de dépasser celle de l’humanité. Cette théorique risque rapidement de devenir une réalité au vu du développement croissant des capacités des machines programmées à l’aide de l’IA. 

Sans aller jusqu’à un scénario à la Terminator, qui pourrait marquer la fin de l’humanité, il convient de prendre en compte cette singularité technologique dès maintenant. En effet, celle-ci est un sujet de préoccupation pour de nombreux experts en intelligence artificielle, si ce n’est le principal danger d’un développement incontrôlé de l’IA. 

Si la capacité cognitive de l'IA dépassait celle de l'humanité, elle pourrait prendre des décisions menaçant l'existence même de notre espèce. L'IA pourrait décider que les humains sont des obstacles à ses objectifs et prendre des mesures pour les éliminer. Même si l'IA a été programmée pour agir dans l'intérêt de l'humanité, il est impossible de prévoir comment elle réagira. 

Rappelons-nous les 3 lois de la robotique de l'auteur Isaac Asimov dans son oeuvre Le Cycle de Fondation :

1) Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;2) Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;3) Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.

Enfin, la singularité technologique de l’IA pourrait être un processus irréversible. Une fois que l'IA aura atteint un niveau de développement supérieur à celui de l'humanité, il pourrait être impossible de revenir en arrière. Nous devons donc être extrêmement prudents dans notre utilisation de l'IA, en nous assurant que nous sommes en mesure de contrôler ses actions.

Commentaires

Nous suivre

Facebook black Twitter black Linkedin black
Partager Linkedin white Facebook white Twitter white Email white Plus white