Moteurs de recherche, assistants vocaux, maisons connectées ou encore réseaux sociaux : tous ces outils et services sont munis de systèmes pour nous faciliter la vie et nous faire gagner du temps. Ils connaissent désormais aussi bien – voire mieux que nous – nos habitudes de navigation en ligne, nos restaurants favoris ou encore nos coups de cœur musicaux du moment.

Touts ces informations leurs sont accessibles grâce à la collecte de nos données; collecte qui se réalise avec notre accord dans la cadre de la RGPD. Une fois analysées et traitées, ces données sont modélisées en vue de nous renvoyer des informations personnalisées pour nous guider dans notre quotidien.

Mais comment nos outils connectés et services en ligne réussissent-ils à nous fournir toutes ces informations  personnalisées ?

Grâce à l’intelligence artificielle (IA) !

L’intelligence artificielle est un vaste domaine, mêlant étroitement technologie, données et science cognitive. Une IA s’appuie sur des algorithmes afin de traiter rapidement des tâches et calculs complexes, nécessitant normalement une intervention humaine

 

Les systèmes robotisés nécessitent de plus en plus d’intelligence pour gagner en autonomie. Il est donc nécessaire pour les entreprises de robotique de s’équiper d’un système de compréhension de scène. Semblable au cortex visuel humain, la compréhension de scène est une forme d’Intelligence Artificielle qui permet aux robots de structurer leur environnement (reconstruction 3D, perception de profondeur, détection de lignes…)

La question est : Comment combiner Robotique et IA pour une automatisation intelligente ?

 


La réponse dans les vidéos « Les éclairages de l’A »

Replays d’une série de webinaires organisée entre octobre 2020 et mai 2021  par l’Institut MIAI Grenoble Alpes (Multidisciplinary Institute in Artificial Intelligence) et le pôle de compétitivité Minalogic, avec le soutien de la Région Auvergne Rhône-Alpes, de la Direccte Auvergne Rhône-Alpes et en partenariat avec Digital League et Lyon is AI.


 

Les éclairages de l’IA – épisode 8 : Perception et interaction / Compréhension de scène pour la Robotique

Intervention de Rémi Agier : PDG de Visual Behavior. Grâce à son entreprise et en développant un cortex visuel artificiel, il offre de nouvelles possibilités au domaine de la robotique, telle que l’autonomie complète.

 

Sommaire du replay :

  • 3’40 : Présentation de Rémi Agier
  • 5’25 : La mission de Visual Behavior – Résoudre le problème de la compréhension de scène pour tous les robots : utiliser des capteurs pour que les robots puissent percevoir et comprendre le monde de façon autonome
  • 6’12 : Différence entre robotique « automatique » – observation de l’environnement par le robot puis action sur cet environnement – et robotique « autonome » – observation, compréhension, décision, planification, action (exemple de la voiture autonome)
  • 9’37 : Les challenges de la vision robotique actuelle
  • 11’33 : Comment faire pour que l’Intelligence Artificielle (un robot) puisse percevoir son environnement de la même façon qu’une intelligence générique (par exemple un être humain) ?
  • 16’19 : L’approche de Visual Behavior : la compréhension de scène
  • 17’15 : La technologie du système de vision
  • 25’07 : Quelques exemples d’applications de Visual Behavior
  • 30’24 : IA et éthique
  • 34’12 : Questions / réponses

Sommaire

Partager cet article

Sur le même thème