L’intelligence artificielle (IA) est considérée comme une technologie clé de l’avenir. Elle est déjà présente dans la vie quotidienne, utilisée dans les assistants virtuels, les réseaux sociaux, les caméras de surveillance, les applications de routage, les plateformes de streaming, etc. Se pose la question : qu’entend-on exactement par « IA » ?
Comme décrit sur le site web du Parlement européen, l’IA désigne la capacité d'une machine à reproduire des comportements humains tels que la pensée, la planification et la créativité. Elle permet à des systèmes techniques de percevoir leur environnement, gérer ces perceptions, résoudre des problèmes et prendre des mesures pour atteindre un objectif donné. Les systèmes reçoivent des données (déjà préparées ou collectées via des capteurs - une caméra, par exemple), les analysent et réagissent. Ils sont capables d’adapter leurs comportements en analysant les effets produits par leurs actions antérieures, travaillant de manière (plus ou moins) autonome.
IA forte et IA faible
Dans le domaine de l’intelligence artificielle, on distingue généralement entre l'IA forte et l'IA faible.
L'IA forte
L'IA forte, également connue sous le nom d'intelligence artificielle générale, est un système d’algorithmes capable de résoudre des problèmes pour lesquels il n'a jamais été entraîné, d'apprendre et de planifier, à l'instar d'un être humain. Selon les experts, l’intelligence artificielle forte pourrait développer une conscience, une sensibilité et une volonté autonome, sur le modèle de l’être humain.
Ce type d'IA n'existe pas encore, et une grande majorité des experts pensent que nous sommes encore loin avant d’y parvenir, entre autres en raison des avancées technologiques qu’il reste encore à accomplir.
L'IA faible
L'IA faible, parfois appelée IA étroite ou IA spécialisée, fonctionne dans un contexte limité et est une simulation de l'intelligence humaine appliquée à un problème étroitement défini (la transcription d'un discours humain, l'organisation du contenu d'un site web ou l’analyse de textes juridiques ou documents contractuels volumineux).
L'IA faible est souvent axée sur l'exécution d'une seule tâche de manière extrêmement efficace. Bien que ces machines puissent sembler intelligentes, elles sont soumises à beaucoup plus de contraintes et de limitations que l'intelligence humaine la plus élémentaire.
Parmi les exemples d'IA faible, on peut citer :
- Siri et autres assistants intelligents
- Les voitures autopilotées
- Les moteurs de recherche
- Les robots conversationnels (« chatbots »)
- Les filtres anti-spam pour les courriels
- Les recommandations de Netflix
Apprentissage automatique et apprentissage profond
Bien que l'IA soit une technologie avec de multiples approches, les progrès de l'apprentissage automatique et de l'apprentissage profond, en particulier, sont en train de créer un changement de paradigme dans pratiquement tous les secteurs économiques et dans la société.
L'apprentissage automatique (« Machine Learning »)
L'apprentissage automatique (ML) est une sous-spécialité de l’IA se caractérisant par l’utilisation d’algorithmes qui permettent aux applications logicielles de prédire les résultats avec plus de précision, sans avoir à être explicitement programmées. Le principe de base de l'apprentissage automatique est de développer des algorithmes capables d'obtenir des données d'entrée et de prédire une sortie à l'aide d'une analyse statistique, tout en étant mis à jour lorsque de nouvelles données sont disponibles.
Les moteurs de recommandations font partie des cas d’utilisation courants du machine learning, ainsi que le dépistage de fraudes, les filtres antispam et la détection de logiciels malveillants.
Apprentissage profond (« Deep Learning »)
L’apprentissage profond ou « deep learning » implique des algorithmes capables de mimer les actions du cerveau humain grâce à des réseaux de neurones artificiels. Les réseaux sont composés de dizaines voire de centaines de « couches » de neurones, chacune recevant et interprétant les informations de la couche précédente. Ceci permet à la machine d'aller « en profondeur » dans son apprentissage, en établissant des connexions et en pondérant les données pour obtenir les meilleurs résultats.
Apprentissage supervisé et apprentissage non supervisé
Apprentissage supervisé
La majorité des apprentissages automatiques utilisent un apprentissage supervisé (« supervised learning »). Cette approche utilise des jeux de données étiquetés pour entraîner des algorithmes de classification ou de prédiction. Ils sont alimentés avec les données d’entraînement étiquetées, et le modèle ajuste de manière itérative la manière dont il évalue les différentes caractéristiques des données jusqu’à ce que le modèle soit adapté au résultat souhaité.
Ce procédé est appelé supervisé, car le processus d’un algorithme tiré de l’ensemble des données étiquetés peut être considéré comme un enseignant supervisant le processus d’apprentissage. Les réponses correctes ont été définies, l’algorithme effectue des prédictions itératives sur les données d’apprentissage et est corrigé par l’enseignant. L’apprentissage s’arrête lorsque l’algorithme atteint un niveau de performance acceptable fixé d’avance.
Apprentissage non supervisé
Dans le cas de l’apprentissage non supervisé, l’intelligence artificielle examine et regroupe des jeux de données non étiquetés. Elle modélise la structure ou la distribution sous-jacente des données afin d'en apprendre davantage sur ces dernières.
On parle d'apprentissage non supervisé parce que, contrairement à l'apprentissage supervisé ci-dessus, il n'y a pas de réponse correcte ou d'enseignant. Les algorithmes sont laissés à leurs propres mécanismes pour découvrir et représenter la structure intéressante des données (Microsoft, « Apprentissage supervisé et non supervisé : quelles différences ? », 29 mai 2020). La seule aide humaine nécessaire concerne la validation des variables de sortie.
Les sources d’erreurs
L'intelligence artificielle n’est pas infaillible. En tant que technologie conçue par des êtres humains, elle présente plusieurs faiblesses inhérentes à sa conception et à son fonctionnement.
Le risque de biais est l'une des préoccupations. Les algorithmes donnent l'illusion d'être impartiaux, mais ils sont écrits par des personnes et formés à partir de données collectées ou générées par une organisation. Les biais et lacunes inhérentes au codage et jeux de données sont forcément reproduits dans les processus du système intelligent. Des exemples bien connus existent d’entreprises qui rencontraient ce problème après avoir lancé leurs algorithmes d'embauche formés sur des données historiques et reflétant des préjugés liés au genre.
S’y ajoute le manque de compréhension contextuelle. Les IA actuelles sont très performantes dans des tâches spécifiques, mais elles ont du mal à comprendre le contexte plus large. Elles manquent souvent de connaissances générales et sont limitées quand il s’agit de faire preuve de bon sens ou de sens commun.
De même, les IA sont dépourvues de conscience ou de jugement moral. Elles prennent des décisions basées uniquement sur des critères statistiques sans tenir compte de considérations éthiques ou morales. Par exemple, un véhicule autonome pourrait être programmé pour minimiser - en cas de risque de collision - les blessures des occupants, sans prendre en compte les autres usagers de la route.
D’un point de vue opérationnel, l’IA requiert d’importantes ressources en données. En raison de nouvelles avancées technologiques dans le domaine, les données d'utilisation réelles peuvent différer de celles sur lesquelles l'IA a été formée, ce qui peut entraîner des résultats imprévisibles ou indésirables. C’est pourquoi les modèles d'IA doivent être continuellement mis à jour avec un maximum de données et améliorés pour maintenir leur performance.
Finalement, les systèmes d'IA peuvent être vulnérables à des attaques malveillantes. Des acteurs mal intentionnés peuvent manipuler les données d'entrée pour induire l'IA en erreur ou la tromper. Par exemple, des chercheurs ont réussi à tromper des systèmes de reconnaissance d'images en ajoutant à ces images des perturbations imperceptibles pour l’humain.
Il convient donc de garder en tête les vulnérabilités et risques que présente l’utilisation de l’intelligence artificielle, sans pour autant entraver son utilisation qui peut être source de progrès indéniable et au bénéfice de l’humain et de la société.