Quand l’IA sort de l’écran - le grand écart entre intelligence artificielle et monde réel
Pourquoi l’IA a encore du mal à s’adapter à la vraie vie.
Après avoir conquis nos écrans et nos documents, l’IA cherche désormais à s’incarner. Voitures autonomes, robots personnels, caméras intelligentes ou encore espaces « augmentés » : nous entrons dans l’ère de ce que Jensen Huang, CEO de Nvidia, appelle la « physical AI ».
Mais faire passer une IA du monde digital au monde physique, c’est un tout autre défi. Et aujourd’hui, le fossé reste immense.
Une IA brillante… mais dans un monde contrôlé
Les modèles de langage ou d’image générative brillent dans des environnements numériques : textes prédictifs, chatbots, créations visuelles… Tout cela fonctionne dans un cadre fermé, stable, sans surprises.
Le problème, c’est que le monde réel est tout sauf prévisible.
Prenons l’exemple des voitures autonomes :
Des milliards investis depuis plus d’une décennie
Des progrès techniques considérables
Mais toujours aucune solution pleinement généralisée
Pourquoi ? Parce que ces systèmes sont bloqués par ce qu’on appelle les « edge cases » : des situations inhabituelles, imprévues, qui n’étaient pas dans les données d'entraînement. Et quand l'IA est confrontée à un cas inconnu, elle improvise… parfois dangereusement.
L’humain, cet inconnu pour les modèles
Des chercheurs de l’université Johns Hopkins ont récemment montré que les IA génératives peinent à comprendre les interactions humaines en mouvement.
Dans leur étude, ils ont demandé à des volontaires humains de noter des clips vidéo de 3 secondes selon différents critères sociaux : intentions, actions, émotions.
Puis, ils ont fait appel à plus de 350 modèles d’IA — textes, images et vidéos — pour prédire les réactions humaines.
Le verdict est clair :
« Aucun modèle ne parvient à anticiper les comportements humains comme le ferait un enfant de quelques mois. »
Même les meilleurs modèles n’arrivent pas à comprendre si deux personnes sont en train de discuter ou sur le point de traverser la rue. Une faiblesse criante si l’on veut faire interagir des IA avec des humains.
Percevoir n’est pas comprendre
Ce que cette étude met en lumière, c’est la limite actuelle des architectures d’IA : elles sont pensées pour reconnaître des objets ou des motifs statiques.
Mais comprendre une scène vivante, dynamique, sociale, demande autre chose.
Cela suppose une capacité d’anticipation, d’interprétation, d’intuition… bref, une forme de cognition humaine que l’IA ne reproduit pas encore — et peut-être ne reproduira jamais.
L’IA dans le monde réel : un futur à construire, prudemment
Chez aiko, on croit aux usages concrets, mesurés, utiles de l’IA.
Mais il ne faut pas confondre performances numériques et compréhension du réel.
Ce fossé est le plus grand défi des prochaines années.
Il ne s’agit pas de freiner l’innovation, mais de rester lucides sur ce que l’IA peut — et ne peut pas — faire aujourd’hui.
Et surtout, de garder l’humain au centre
Ces articles peuvent aussi vous intéresser
