Un des objectifs forts de l’Union Européenne est d’assurer un marché unique des biens qui soit performant et qui garantisse des niveaux élevés de sécurité y compris pour l’IoT (Internet des Objets), l’IA (Intelligence Artificielle) et robotique.

Dans ce rapport les thèmes abordés sont :

1. Le cadre juridique existant concernant l’IA, l’IoT et la robotique sur la sécurité et la responsabilité

L’objectif est de veiller à ce que tous les produits et services, y compris ceux qui intègrent les technologies numériques émergentes, fonctionnent de manière sûre, fiable et cohérente. Cela permet d’instaurer un climat de confiance à l’égard de ces technologies, une condition indispensable à leur adoption par les entreprises et les utilisateurs, ce qui permettra de renforcer la compétitivité de notre industrie et de contribuer aux objectifs de l’Union.

2. Les caractéristiques de l’IA, de l’IoT et de la robotique

Ces technologies ont de nombreuses caractéristiques en commun dont celles d’associer connectivité, autonomie et dépendance aux données pour exécuter des tâches avec peu d’intervention humaine, voire aucune, pour le contrôle ou la supervision. Les systèmes équipés de l’IA sont également capables d’améliorer leurs propres performances grâce à l’apprentissage par l’expérience.

3. Les possibilités de l’IA, de l’IoT et de la robotique

Au-delà des gains de productivité et d’efficience, l’IA, l’IoT et la robotique promettent également :

  • De porter le niveau d’intelligence à des niveaux encore jamais atteints,
  • D’améliorer la sécurité des produits en réduisant leur exposition à certains risques,
  • De recevoir et traiter de grandes quantités de données qui permettent aux produits de s’adapter de manière autonome,
  • D’améliorer la traçabilité des produits

Cependant, l’IA, l’IoT et la robotique peuvent également comporter un risque de préjudice pour des intérêts juridiquement protégés. Dans ce contexte, il est essentiel d’analyser le cadre juridique actuel en matière de sécurité et de responsabilité pour protéger les utilisateurs.

4. Les conséquences en matière de sécurité

Il s’agit de déterminer si le cadre législatif actuel de l’Union Européenne est doté des éléments adéquats permettant de faire en sorte que les technologies émergentes, et les systèmes d’IA en particulier, intègrent des mécanismes de sécurité par conception et de sûreté.

Citons notamment :

  • La connectivité qui remet en question le concept traditionnel de sécurité, comme le souligne par exemple l’alerte envoyée par l’Islande au sujet d’une montre intelligente pour les enfants.
  • L’autonomie qui ne permet pas de déterminer les risques du produit à l’avance ; dans ce contexte l’accent devrait être mis sur les effets résultant du comportement autonome du produit sur la sécurité, pendant toute sa durée de vie.
  • Les risques pour la santé mentale des utilisateurs résultant, par exemple, de leur collaboration avec des robots humanoïdes et des systèmes d’IA.
  • La dépendance aux données qui sont essentielles pour garantir que les systèmes et les produits basés sur l’IA prennent les décisions prévues à l’origine par le fabricant.
  • L’opacité qui rend le processus de prise de décision difficile à tracer (« effet boîte noire ») ; il est donc crucial d’être en mesure de saisir comment les décisions algorithmiques du système ont été prises.
  • La complexité des produits et des systèmes qui impacte l’évaluation du risque d’un produit ; le fabricant doit tenir compte de l’utilisation prévue, de l’utilisation prévisible et, le cas échéant, d’une mauvaise utilisation raisonnablement prévisible de ce dernier.
  • Les logiciels dont une attention particulière devrait être portée à ceux qui sont autonomes et qui assurent des fonctions de sécurité dans les produits et les systèmes d’IA.
  • Les chaînes de valeur complexes pour lesquelles il devrait y avoir une coopération entre les opérateurs économiques et les utilisateurs pour garantir la sécurité juridique.

5. Les conséquences en matière de responsabilité

L’optimisation des règles de sécurité de l’Union en matière d’IA peut certes contribuer à éviter les accidents, mais le risque zéro n’existe pas. C’est là qu’intervient la responsabilité civile, elle vise un juste équilibre entre la protection des citoyens et la capacité d’innovation des entreprises.

Le rapport explique la façon dont les nouvelles technologies remettent les cadres existants (cités ci-dessus) en question et comment il serait possible d’y remédier.

Sommaire

Partager cet article

Sur le même thème