Quels sont les principaux atouts et risques de l’intelligence artificielle ?

par | Fév 15, 2024 | IA Intelligence artificielle

L’intelligence artificielle déferle sur notre vie de tous les jours mais suscite aujourd’hui en 2024 de vives inquiétudes. Cet article de blog présente une vue d’ensemble aussi complète que possible des risques liés à l’intelligence artificielle.

L’intelligence artificielle est un sujet qui capte l’imagination de nombreuses personnes. Les nombreux films hollywoodiens qui ont été réalisés sur le sujet en sont bien sûr la cause principale. Dans les films hollywoodiens, on voit souvent des scénarios apocalyptiques de type science-fiction. Ces scénarios sont presque toujours exagérés, mais de plus en plus de rapports inquiétants sur l’intelligence artificielle apparaissent, alimentés par la poussée de croissance qualitative de cette nouvelle technologie.

En particulier, l’amélioration qualitative de l’apprentissage automatique et de l’apprentissage profond. Les rapports inquiétants concernent alors, par exemple, le manque de transparence de ces types de machines, les biais qu’elles produisent et les défauts évidents de la prise de décision algorithmique.

artificial intelligence, brain, think

La science-fiction devient réalité

Le fait est que les systèmes informatiques intelligents savent de mieux en mieux regarder, écouter ou parler. Ils apprennent à détecter des modèles et des règles à partir de grandes quantités de données. Dans certains domaines, ces systèmes nous dépassent rapidement. Cette évolution a de nombreuses conséquences.

Qualité de l’intelligence artificielle

L’intelligence artificielle (IA) est, à mon avis, la technologie la plus perturbatrice de la prochaine décennie. La qualité de cette technologie s’est considérablement améliorée dans un certain nombre de domaines au cours des dernières années, avec toutes les conséquences que cela implique. Les systèmes logiciels intelligents comprennent de plus en plus qui nous sommes, ce que nous faisons, ce que nous voulons et pourquoi nous le voulons. Un monde de possibilités s’ouvre. Les chatbots, les assistants virtuels intelligents et les assistants logiciels intelligents autonomes vont nous aider de plus en plus.

Les systèmes KI apportent prospérité, gain de temps, commodité, connaissances et confort. Nous allons nous habituer à un assistant personnel disponible 24 heures sur 24 et qui sait ce dont nous avons besoin avant que nous ne le sachions nous-mêmes. De même qu’il est difficile d’imaginer vivre sans l’internet aujourd’hui, il en sera de même avec votre assistant personnel dans dix ans.

L’avènement des systèmes d’IK intelligents

Les systèmes intelligents d’intelligence artificielle nous donneront bientôt des informations que nous n’aurions jamais cru possibles et apporteront des réponses à des questions dont nous n’aurions jamais soupçonné l’existence. Les systèmes KI sont plus rapides, ne se fatiguent jamais, apprennent à partir d’exemples et les uns des autres, et sont beaucoup plus intelligents que les humains dans des domaines spécifiques. Ce n’est pas une musique d’avenir, c’est la réalité. Les logiciels artificiellement intelligents sont passés du laboratoire au monde réel.

Les cas d’utilisation connus

Ces types de systèmes sont utilisés pour approuver les prêts dans les banques. Ils sont également utilisés dans les services financiers pour les systèmes de négociation automatisés. La police et les assureurs utilisent l’intelligence artificielle pour retrouver les femmes. Les boutiques en ligne utilisent également l’intelligence artificielle pour recommander des produits.

Prenons par exemple la recommandation suivante de Netflix. Les logiciels dotés d’intelligence artificielle sont utilisés pour traduire automatiquement des textes, prédire la maintenance des industries, empêcher les courriels indésirables d’arriver dans votre boîte de réception et gérer la circulation dans la ville.

Les cadeaux prédictifs

Des systèmes informatiques intelligents peuvent repérer les contrefaçons d’œuvres d’art mieux que les experts humains. Un autre système peut reconnaître la démence avant même qu’un spécialiste médical n’y pense. Un système artificiellement intelligent reconnaît le cancer de la peau avant un professionnel de la santé, tandis qu’un autre fait de même avec les champignons des ongles. Des chercheurs de Stanford utilisent Google Street View pour prédire les habitudes de vote lors des élections et un algorithme alimenté par les données de Street View.

La montre Apple peut prédire le diabète. Facebook sait parfois que vous sortez avec quelqu’un avant même que vous l’ayez déclaré manuellement sur la plateforme. Amazon a déposé un brevet sur l’expédition prédictive, c’est-à-dire qu’elle peut vous envoyer un colis avant même que vous ne sachiez que vous le voulez. La valeur prédictive de l’IC va être énorme. Et la liste est encore longue. Sélection de CV, entretiens d’embauche via des chatbots, classification de textes, planification, diagnostics de santé, tests A/B de sites web, etc.

two wrapped presents sitting on top of each other

Exemple d’intelligence artificielle en pratique

Voici, par exemple, une application intéressante de l’intelligence artificielle dans le cadre d’un examen IRM visant à détecter une tumeur cérébrale. Ce nouveau système évite d’avoir à injecter un produit de contraste malsain dans le cerveau et réduit potentiellement de 75 % le temps passé dans le scanner IRM, pendant lequel il faut rester allongé.

Une belle application de l’intelligence artificielle dans le domaine des soins de santé. L’intérêt réside ici dans la possibilité de former une machine à un cas d’utilisation spécifique. L’IA permet parfois d’obtenir des capacités cognitives surhumaines.

Mais nous ne pouvons pas fermer les yeux sur les scénarios potentiellement négatifs : le président russe Poutine a déclaré un jour que le leader de l’intelligence artificielle deviendrait probablement aussi le leader du monde. Et que dire du système KI qui prétend être capable de dire quelque chose sur l’orientation sexuelle d’une personne sur la base de la technologie de reconnaissance faciale ? Comment faire face à ce type de nouvelles technologies ? Avec ces risques d’intelligence artificielle ?

Il est donc judicieux d’examiner de près une technologie potentiellement puissante comme l’intelligence artificielle : ses aspects positifs et moins positifs. Nous y voilà.

Les différents risques potentiels de l’IA

De nombreux systèmes d’IC sont construits sur la base de ce que l’on appelle des réseaux neuronaux, il s’agit de systèmes complexes de nœuds interconnectés. Cependant, ces systèmes sont moins capables d’afficher la « justification » de leurs décisions. On ne voit que ce qui entre et ce qui sort. Le système est beaucoup trop complexe. En revanche, pour les décisions militaires, sociales ou médicales, il est important de retracer les données qui ont conduit à telle ou telle décision. Quelle pensée ou quel raisonnement sous-jacent a conduit au résultat ? Quelles données ont été utilisées pour former le modèle ? Comment le modèle « pense-t-il » ? À l’heure actuelle, nous n’en avons souvent aucune idée. C’est un risque de l’intelligence artificielle.

Les algorithmes biaisés

Les entreprises et les gouvernements confient de plus en plus de décisions à des logiciels intelligents. L’intelligence de ces systèmes augmente. Pour ce faire, ces systèmes ont besoin de beaucoup de données. Les entreprises et les gouvernements collectent activement des données depuis des années.

Ils croient parfois que ces données ont des qualités magiques. Mais ce n’est pas le cas : les données ne sont pas objectives. Car nous, les humains, sommes pleins de préjugés. Ces préjugés se retrouvent également dans nos données et donc, en fin de compte, dans les modèles algorithmiques. Ils regardent le passé. C’est un miroir, pas un oracle. Les algorithmes d’auto-apprentissage confirment les images que nous avons déjà.

Ainsi, lorsque nous alimentons nos algorithmes avec des ensembles de données qui contiennent des données biaisées, le système confirme logiquement nos préjugés. Et malheureusement, il n’y a pas de magie ou de filtre de nettoyage dans un système informatique. Par exemple, il a récemment été constaté que le logiciel de reconnaissance faciale de Twitter favorisait les personnes blanches au détriment des personnes de couleur.

Les modèles algorithmiques

Aujourd’hui, les modèles algorithmiques désignent les gagnants et les perdants. Les conséquences sont énormes. Vous pouvez ou non obtenir un prêt hypothécaire, vous pouvez ou non obtenir une assurance, vous pouvez ou non obtenir un contrat avec un employeur, vous pouvez ou non obtenir une invitation à un entretien d’embauche.

En particulier lorsque les systèmes ne sont pas transparents, nous devons éviter d’avoir continuellement affaire au chapeau du film Harry Potter : personne ne sait exactement ce qui se passe, mais est confronté à un résultat irréversible. Nous devons donc être très prudents avant de laisser des logiciels artificiellement intelligents prendre des décisions de nature médicale, sociale ou militaire.

Une prophétie qui s’accomplit d’elle-même

Exemple : Si un système policier détermine où patrouiller sur la base de chiffres antérieurs, les agents ne se rendront que dans les quartiers les plus défavorisés, où ils procéderont à davantage d’arrestations. Et cela se répercutera sur le système. Il s’agit d’une prophétie qui se réalise d’elle-même. Les personnes vulnérables deviennent encore plus désavantagées. L’intelligence artificielle présente un risque important.

En effet, lorsqu’un système est alimenté par des données discriminatoires, il produira également ce type de données. Des déchets à l’entrée, des déchets à la sortie. De plus, comme les données proviennent d’un ordinateur, la réponse sera plus susceptible d’être considérée comme vraie. (Ce qu’on appelle le biais d’automatisation, c’est-à-dire la tendance des gens à prendre plus au sérieux les suggestions des « systèmes de prise de décision automatisés » et à ignorer les informations contradictoires créées par des humains, même si elles sont correctes). Et n’oubliez pas : les préjugés sont souvent un angle mort.

L’ordinateur dit non à la société

De plus, les entreprises disposent encore de trop peu d’expertise pour évaluer correctement ces ensembles de données et filtrer les hypothèses et les données biaisées. Sinon, les plus vulnérables seront encore plus désavantagés par ce type de systèmes. Et comment s’assurer que nos ensembles de données (dont nous dépendons de plus en plus) ne sont pas délibérément souillés par des gouvernements hostiles ou d’autres parties malveillantes ? Il s’agit là aussi d’un risque lié à l’intelligence artificielle. Nous devons éviter de nous retrouver de plus en plus dans une société où l’ordinateur dit non, où les gens s’appuient trop sur les résultats des systèmes intelligents, sans savoir comment les algorithmes et les données sont arrivés à leurs résultats.

La responsabilité des actions

Les aspects juridiques des systèmes de plus en plus intelligents sont encore loin d’être clairs. Qu’en est-il de la responsabilité lorsque le système d’IK commet une erreur ? Doit-on le juger comme un être humain ? Lorsque les systèmes deviennent plus autodidactes et autonomes, qui est responsable ? Une entreprise peut-elle encore être tenue pour responsable d’un algorithme qui s’est auto-appris et qui choisit ensuite sa propre voie ? Qui a tiré ses propres conclusions sur la base de grandes quantités de données pour arriver à des décisions spécifiques ? Acceptons-nous que les machines d’IA fassent aussi des erreurs, même si elles sont fatales ?

Un mandat trop important

Plus nous utilisons de systèmes intelligents, plus nous nous heurtons à la question du champ d’application. Quelle est l’étendue du mandat que nous confions à nos assistants virtuels intelligents ? Quelle est l’autonomie à laquelle nous renonçons ? Qu’est-ce qu’ils peuvent décider pour nous et qu’est-ce qu’ils ne peuvent pas décider ? Sommes-nous en train d’étendre de plus en plus l’autonomie des systèmes intelligents, ou devrions-nous garder le contrôle sur eux à tout prix, comme le veut l’Union européenne ?

Que devons-nous laisser les systèmes intelligents déterminer et exécuter, sans intervention humaine ? Et ne devrait-il pas y avoir une fonction standard de « prévisualisation » dans les systèmes d’IA intelligents ? Le risque est de céder trop d’autonomie sans que la technologie ou les conditions préalables soient prêtes.

Le risque est également que nous cédions une trop grande part de notre autonomie, perdant ainsi des éléments qui se sont avérés précieux par la suite (contact humain, réflexion indépendante). Mais ce n’est pas tout : le risque est aussi que les grandes entreprises technologiques décident de plus en plus pour nous.

Risque lié à l’utilisation de logiciels artificiellement intelligents

Le risque lié à l’utilisation de logiciels artificiellement intelligents est que les attentes sont actuellement si élevées que la technologie est déployée dans des endroits où son utilisation n’est pas encore suffisamment robuste ou fiable. On attribue au logiciel des qualités concrètes qu’il ne possède pas encore.

Mais qu’entre-temps, le logiciel classe les choses ou prend des décisions à notre place. Le risque est qu’avec le temps, nous ne sachions plus nous-mêmes à quoi et pourquoi nous externalisons ces tâches. Et qu’avec le temps, nous ne sachions plus très bien comment évaluer certaines choses parce que nous avons laissé des entreprises technologiques le déterminer pour nous.

Empathie et solidarité

Plus important encore : nous ne devons pas perdre de vue notre empathie et notre solidarité mutuelles. En effet, il existe un risque réel que nous laissions trop facilement les décisions difficiles (par exemple le licenciement) aux machines « intelligentes » parce que nous les trouvons trop difficiles nous-mêmes.

Google Maps détermine déjà l’endroit où nous passons en voiture, Amazon choisit le cadeau pour notre frère ou notre sœur, Tinder choisit notre partenaire de vie, Youtube choisit les informations que nous absorbons et détermine ainsi notre vision du monde.

Nous devrions éviter que nos vies se déroulent en mode autoplay. En suivant toujours les suggestions des logiciels intelligents et en renonçant à notre autonomie dans le processus.

Trop peu d’intimité

Chaque jour, nous créons 2,5 quintillions d’octets de données (soit 2,5 millions de téraoctets, 1 téraoctet correspondant à 1 000 gigaoctets). Quatre-vingt-dix pour cent de toutes les données numériques dans le monde ont été créées au cours des deux dernières années. Pour que les systèmes intelligents fonctionnent bien, l’entreprise a besoin de beaucoup de données pures. Outre des algorithmes de haute qualité, la puissance d’un système d’intelligence artificielle réside également dans la possession de bons ensembles de données.

Les entreprises qui travaillent sur l’intelligence artificielle deviennent de plus en plus conservatrices de nos données : elles ne sont jamais suffisantes et tout est permis pour obtenir de meilleurs résultats. Un autre risque de l’intelligence artificielle est que les entreprises nous profilent avec toujours plus de précision.

Qu’elles nous manipulent toujours plus subtilement vers un profil, pour elles, commercialement intéressant. Qu’elles utilisent nos données pour influencer nos idées, nos désirs, nos pensées. Et, en fin de compte, notre comportement. Et que ces outils soient finalement déployés à des fins politiques.

La vie privée

En conséquence, notre vie privée s’effondre. Mais lorsque nous protégeons notre propre vie privée, ils utilisent simplement des groupes cibles similaires : des personnes qui nous ressemblent beaucoup. Nos données sont revendues en masse et personne ne sait plus qui les reçoit ni à quoi elles servent. Les données sont l’huile des systèmes KI et notre vie privée est en jeu dans les deux cas.

La super-intelligence artificielle

À mon avis, la discussion sur les inconvénients de l’intelligence artificielle prédomine trop souvent sur la super intelligence. Des systèmes si intelligents qu’ils transcendent de loin l’intelligence humaine sur de multiples facettes. Qu’ils acquièrent eux-mêmes toutes sortes de compétences et de connaissances, sans l’intervention des gens. Qu’ils s’entraînent dans des situations qui leur sont inconnues. Qu’ils comprennent le contexte. Une sorte d’oracle super-intelligent que l’humanité ne considère que « les escargots dans le jardin » : tant que cela ne vous dérange pas, ils peuvent vivre.

Morale éthique sur les systèmes intelligents

Cependant, je pense que nous devrions prendre ce scénario au sérieux. Plus tôt nous y réfléchirons sérieusement, mieux ce sera. De nombreuses questions entourant ce thème ont un contenu de science-fiction élevé. Mais cela ne change rien au fait que nous devons bien nous préparer pour un avenir possible dans lequel les logiciels artificiellement intelligents sont plus intelligents que nous dans de nombreux domaines.

En particulier, nous devons veiller à transmettre notre morale éthique à des systèmes intelligents. Que nous ne leur donnions pas de règles concrètes, mais que nous apprenions quelque chose sur les considérations humaines. Très important.

Je ne crois donc pas que, dans peu de temps, nous serons sensibilisés à ce genre de système. La technologie est encore beaucoup trop jeune pour cela, s’il est possible de sensibiliser à ce type de systèmes. Donc, y penser est très bien et nous avons vraiment besoin de prendre le super renseignement au sérieux, mais il y a certainement d’autres risques, plus à jour en ce moment.

Une nuance. Je n’ai pas tellement peur d’un système qui prendra le monde en possession de toute forme de conscience. Mais… nous souffrirons probablement beaucoup plus des systèmes qui sont programmés avec un certain objectif et voulons suivre cet objectif sans relâche. Sans tenir compte des choses que nous considérons comme importantes, comme l’empathie et l’égalité sociale.

Marc
Author: Marc

Marc est un passionné de la tech mais également du SEO ou il y évolue depuis 2009.

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Recevoir un devis gratuit

Contact