De « l’intelligence artificielle » et de ses erreurs

Actuellement, vous n’échapperez pas au sujet IA. Je ne sais pas combien d’éditoriaux, d’articles, de discussions sont en cours sur le sujet. Il faut choisir son camp, pro ou anti, alors que ce n’est qu’un outil, pour l’instant. L’avenir est dans l’utilisation des machines pour améliorer pas mal de choses dans notre vie quotidienne, si elles sont fiables. Comme néphrologue, j’ai l’habitude des machines et des résultats bizarres. Je remets toujours en doute valeurs hors normes dans une histoire de la maladie. J’ai ainsi une certaine méfiance vis à vis des machines, mais je suis fasciné comme tout amoureux de SF. L’IA sera un outil avec lequel nous devrons vivre. Interroger son efficience et ses limites est indispensable pour l’utiliser au mieux. Je ne connais rien qui ne soit que bénéfice sans risque. L’IA n’échappe pas à cette éternelle balance bénéfice-risque. Depuis quelques temps, il nous est promis le remplacement du radiologue, de l’anatomopathologiste, du dermatologue, de l’ophtalmologue par l’IA. Peut être que ceci arrivera, je suis quasiment sur que ça arrivera et les machines remplaceront aussi le néphrologue.

J’en profite pour signaler un lien d’intérêt. Je travaille dans un groupe sur IA et médecine au sein de mon université.

J’ai tendance à me méfier. Je reconnais que j’adore contredire le discours dominant, surtout quand il est catastrophique ou dans la dithyrambe. Nous devons absolument garder la tête froide et nous poser des questions. J’ai lu avec délectation un article dont je conseille la lecture à tous. Les radiologues, les anatpaths, les opthalmo vont être rassurés pour leur avenir. Le titre « Pourquoi l’IA est elle si facile à tromper? ». L’auteur reprend la littérature des échecs de la reconnaissance visuelle par l’IA en l’illustrant joliment. Pour faire court, il est très facile, juste en enlevant des pixels qu’une IA, performante au demeurant, prenne un lion pour une bibliothèque, un panneau stop pour une limitation à 50 km/h, etc.

Petits exemples sortis de l’article ou comment faire qu’une IA prenne un stop pour un panneau limitation de vitesse à 45 juste en collant des adhésifs blancs et noirs ou comment des images abstraites peuvent être vu comme un pingouin ou une étoile de mer.

Ceci peut paraître amusant, en pratique ceci est moins drôle quand on sait que changer quelques pixels sur une radio pourrait modifier le diagnostic final fait par l’IA. Il interroge de nombreux spécialistes qui expliquent comment ceci est possible. Le plus inquiétant est de lire qu’il n’y pas de solution réelle pour résoudre ces faiblesses, sauf à donner encore plus d’autonomie aux machines. Si j’ai bien compris, il faut qu’elles écrivent elles même du code pour lutter contre leurs limites. Sans paranoïa aucune, est ce bien raisonnable? Le hacking de ces réseaux de neurones qu’on pense robuste est très facile en fait. De nombreux exemples sont donnés. L’ajout de bruit invisible ou inaudible pour l’homme change complètement ce que la machine voit ou entend. Ceci est très inquiétant quand on imagine une société de surveillance où l’IA sera un opérateur indispensable. Nous devrons absolument garder à l’esprit qu’il ne s’agit que de machines qui peuvent faire des erreurs mais de manière imprédictible car nous ne savons pas vraiment comment elles apprennent avec les jeux de données que nous leur fournissons. Les limites sont inhérentes à la manière d’apprendre, « data-driven » sans à priori et supervision.

Vous nourrissez votre machine de grandes quantités de données et elle apprend à reconnaître. La limite est que les images sont en 2D. Juste changer l’orientation spatiale modifie la reconnaissance. Par exemple, un panneau stop devient une haltère ou une raquette. Imaginez une voiture autonome qui ne sait pas reconnaître le panneau stop qui a tourné de 45 degré…

Nous avons parlez de reconnaissance et vous voyez que sorti de son contexte d’apprentissage l’IA ne sait pas s’adapter. Elle ne conceptualise pas mais recherche uniquement des homologies. Pour avancer, il faut que la machine théorise et se confronte à la réalité. Cette revanche des approches théoriques et de la confrontation à la réalité et pas uniquement à de la simulation est capitale. Depuis que j’ai commencé à essayer d’enseigner, on me serine avec l’importance de la simulation qui va faire que plus jamais i n’y aura d’erreur. Pour moi, aucune simulation ne rendra compte de la complexité du monde et des situations. Rien ne remplacera l’expérience. Les échecs des IA nous disent: « Ne nous coupons pas du monde sensible ». Pour une métaphore sportive, l’entraînement si il est indispensable ne remplacera jamais le temps de matchs ou pour les amateurs de jazz, lisez comment à une époque Miles Davis travaillait. L’IA nous montre la limite de la simulation. L’exemple donné est amusant. Récemment une IA est capable de battre tous les joueurs de jeu vidéo, en apprenant à jouer. Sa force, comme les IA joueuses de go ou d’échecs, jouer des millions de parties et apprendre. Ce qui est amusant c’est quand dans des jeux moins formels que le go ou les

A simulated soccer penalty shootout between two Humanoid robots displayed with and without a adversarial policy

échecs on voit l’IA se faire avoir. On peut apprendre à une IA footballeuse à anticiper toutes les positions du goal et marquer des buts. Sauf que si le goal reste au sol en permanence l’IA est perdu et n’arrive plus à savoir quoi faire. Cette stratégie absurde du goal n’a jamais été rencontrée par l’IA durant sa formation. Elle est perdue. C’est impressionnant, non? Il s’agit du top de l’apprentissage IA…

Les exemples pullulent et les solutions aussi, en pratique on arrive toujours à la même réponse, il faut apprendre à apprendre. A la lecture de cet article, une chose m’est apparue évidente, nous devons apprendre de ce qui ne marche pas dans l’apprentissage par les machines, pour ne pas partir sur des pistes d’éducations qui seront dramatiques, résumer le monde à 2D, l’absence de confrontation à la réalité, l’absence de mentor qui explique et fait gagner du temps (l’interaction avec un sachant), la vie en simulation avec des règles rigides, etc. Les chercheurs en IA tentent d’enseigner comment apprendre de ses erreurs et de ses autres apprentissages (transversalité), tente de nourrir les IA avec de la 3D et de l’interaction avec le monde. Nous sommes aux débuts d’une nouvelle IA. La lecture de cet article m’a réjoui. Les génies qui pensent que l’enseignement se résume à de l’ingurgitation de données accessibles sans médiateur et sans confrontation à la réalité se fourre le doigt dans l’œil mais jusqu’à l’épaule. Cet article doit être absolument lu par tous les penseurs de l’éducation qui veulent résumer l’enseignement à de la simulation et de la vie derrière un écran. Est ce que nous voulons que nos enfants ne sachent reconnaître une bouteille qu’en 2D? L’outil informatique n’est qu’un outil, un support, il ne doit pas tout remplacer, la tentation est forte pour des questions de coûts et par le fait qu’on ne médiatise pas les échecs de l’IA et de ces formes d’apprentissages. Cet article m’a fait beaucoup réfléchir sur l’importance de protéger nos enfants d’une éducation qui ne se ferait plus que face à des écrans. Je pense que les spécialistes de l’IA ne feront pas l’économie d’une discussion avec les spécialistes du développement cognitif et des sciences de l’éducation et inversement. La capacité à simuler des machines peut nous donner des pistes passionnantes pour savoir comment l’homme peut mieux apprendre.

Petit conseil musical, l’excellent nouvel album du souljazz orchestra, plein d’énergie, de révolte et d’envie.

Ce contenu a été publié dans Non classé, Science, avec comme mot(s)-clé(s) , , . Vous pouvez le mettre en favoris avec ce permalien.

5 réponses à De « l’intelligence artificielle » et de ses erreurs

  1. JIPS dit :

    Que dirait une IA du petit conseil musical ? Que ce sont des casseroles, ou une voiture qui a du mal à démarrer ? Personne n’a jamais essayé de donner du jazz à reconnaître à une IA ?

    Blague à part cet article me rappelle celui de Ken Birman, qui disait qu’une voiture autonome dans les rues ensoleillées et dégagées de San Francisco aurait bien du mal dans le blizzard et sur les routes défoncées de New York City :
    http://thinkingaboutdistributedsystems.blogspot.com/2019/04/the-intractable-complexity-of-machine.html

    • JIPS dit :

      Citation : « Parce que ces voitures sont perçues comme intelligentes, elles sont traitées différemment de ce que nous percevons comme des systèmes perçus comme mécaniques, en matière de systèmes critiques sur les avions, probablement parce que l’intelligence des machines nous apporte une telle forme extrême de complexité qu’il n’y a en fait aucune façon significative de modéliser ou vérifier leur comportement potentiel ».

      « My sense is that because these cars are perceived as intelligent, they are somehow being treated differently from what we perceive as a more mechanical style of system when we think about critical systems on aircraft, quite possibly because machine intelligence brings such an extreme form of complexity that there actually isn’t any meaningful way to fully model or verify their potential behavior.  »

      Ou en deux mots : comme on n’y comprend rien ça semble drôlement malin, donc on leur fait confiance.

  2. dsl dit :

    En même temps que ferait un vrai footballeur face à un goal étendu au sol en permanence ?

    • PUautomne dit :

      mettre le but

      • Marnie dit :

        ou alors, il irait voir le gardien au cas où il serait blessé, malade ou mort… ça semblerait plus prudent que de tirer. Au pire, si vraiment la santé du gardien ne l’intéresse absolument pas, il peut aussi stopper le match pour anti jeu…un peu comme l’AI le fait avec ses moyens. Mais mettre le but ne devrait pas être la priorité du vrai joueur de foot.

Répondre à JIPS Annuler la réponse.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.