Technologie

Un pionnier de l’IA sur ce que nous devrions vraiment craindre

Un pionnier de l'IA sur ce que nous devrions vraiment craindre
Écrit par abadmin

L’intelligence artificielle attise nos ambitions les plus élevées et nos peurs les plus profondes comme peu d’autres technologies. C’est comme si chaque promesse étincelante et prométhéenne de machines capables d’accomplir des tâches à des vitesses et avec des compétences dont nous ne pouvons que rêver portait en elle un cauchemar compensatoire de déplacement humain et d’obsolescence. Mais malgré les récentes percées de l’IA dans des domaines du langage et des arts visuels auparavant dominés par l’homme – les compositions en prose du modèle de langage GPT-3 et les créations visuelles du système DALL-E 2 ont suscité un vif intérêt – nos préoccupations les plus graves devraient probablement être tempérées. C’est du moins selon l’informaticien Yejin Choi, récipiendaire en 2022 de la prestigieuse bourse MacArthur « génie » qui a fait des recherches révolutionnaires sur le développement du bon sens et du raisonnement éthique dans l’IA « Il y a aussi un peu de battage médiatique autour du potentiel de l’IA comme la peur de l’IA », admet Choi, qui a 45 ans. Ce qui ne veut pas dire que l’histoire des humains et de l’IA sera sans surprises. « Il y a un sentiment d’aventure », dit Choi à propos de son travail. « Vous explorez ce territoire inconnu. Vous voyez quelque chose d’inattendu, et puis vous vous sentez comme, je veux découvrir ce qu’il y a d’autre là-bas !


Quelles sont les plus grandes idées fausses que les gens ont encore sur l’IA ? Ils font des généralisations hâtives. « Oh, GPT-3 peut écrire ce merveilleux article de blog. Peut-être que GPT-4 sera un éditeur du New York Times Magazine. [Laughs.] Je ne pense pas qu’il puisse remplacer qui que ce soit là-bas parce qu’il n’a pas une véritable compréhension du contexte politique et ne peut donc pas vraiment écrire quelque chose de pertinent pour les lecteurs. Ensuite, il y a les préoccupations concernant la sensibilité de l’IA. Il y a toujours des gens qui croient en quelque chose qui n’a pas de sens. Les gens croient aux cartes de tarot. Les gens croient aux théories du complot. Alors bien sûr, il y aura des gens qui croient que l’IA est sensible.


Je sais que c’est peut-être la question la plus clichée à vous poser, mais je vais quand même la poser : les humains créeront-ils un jour une intelligence artificielle sensible ? Je pourrais changer d’avis, mais actuellement je suis sceptique. Je peux voir que certaines personnes pourraient avoir cette impression, mais quand on travaille si près de l’IA, on voit beaucoup de limites. C’est le problème. De loin, on dirait, oh, mon Dieu ! De près, je vois tous les défauts. Chaque fois qu’il y a beaucoup de modèles, beaucoup de données, l’IA est très bonne pour traiter cela – certaines choses comme le jeu de Go ou les échecs. Mais les humains ont cette tendance à croire que si l’IA peut faire quelque chose d’intelligent comme la traduction ou les échecs, alors elle doit aussi être vraiment bonne dans toutes les choses faciles. La vérité est que ce qui est facile pour les machines peut être difficile pour les humains et vice versa. Vous seriez surpris de voir à quel point l’IA se débat avec le bon sens de base. C’est fou.


Pouvez-vous expliquer ce que signifie « bon sens » dans le contexte de son enseignement à l’IA ? Une façon de le décrire est que le bon sens est la matière noire de l’intelligence. La matière normale est ce que nous voyons, ce avec quoi nous pouvons interagir. Nous avons longtemps pensé que c’était ce qu’il y avait dans le monde physique — et rien que ça. Il s’avère que ce n’est que 5% de l’univers. Quatre-vingt-quinze pour cent sont de la matière noire et de l’énergie noire, mais elles sont invisibles et non directement mesurables. Nous savons qu’il existe, parce que si ce n’est pas le cas, alors la matière normale n’a pas de sens. Nous savons donc que c’est là, et nous savons qu’il y en a beaucoup. Nous arrivons à cette réalisation avec bon sens. C’est la connaissance tacite et implicite que vous et moi avons. C’est tellement évident que nous n’en parlons pas souvent. Par exemple, combien d’yeux a un cheval ? Deux. On n’en parle pas, mais tout le monde le sait. Nous ne connaissons pas la fraction exacte des connaissances que vous et moi avons dont nous n’avons pas parlé – mais que nous savons toujours – mais ma spéculation est qu’il y en a beaucoup. Permettez-moi de vous donner un autre exemple : vous et moi savons que les oiseaux peuvent voler, et nous savons que les pingouins ne le peuvent généralement pas. Les chercheurs en intelligence artificielle ont donc pensé que nous pouvions coder cela : les oiseaux volent généralement, à l’exception des pingouins. Mais en fait, les exceptions sont le défi des règles de bon sens. Les oisillons nouveau-nés ne peuvent pas voler, les oiseaux couverts d’huile ne peuvent pas voler, les oiseaux blessés ne peuvent pas voler, les oiseaux en cage ne peuvent pas voler. Le fait est que les exceptions ne sont pas exceptionnelles, et vous et moi pouvons y penser même si personne ne nous l’a dit. C’est une capacité fascinante, et ce n’est pas si facile pour l’IA


Vous avez en quelque sorte fait référence au GPT-3 avec scepticisme plus tôt. Vous pensez que ce n’est pas impressionnant ? Je suis un grand fan de GPT-3, mais en même temps, j’ai l’impression que certaines personnes le rendent plus grand qu’il ne l’est. Certaines personnes disent que le test de Turing a peut-être déjà été réussi. Je ne suis pas d’accord parce que, oui, il semble peut-être qu’il ait été adopté sur la base d’une des meilleures performances de GPT-3. Mais si vous regardez la performance moyenne, c’est tellement loin d’une intelligence humaine robuste. Nous devrions regarder le cas moyen. Parce que lorsque vous choisissez une meilleure performance, c’est en fait l’intelligence humaine qui fait le dur travail de sélection. L’autre chose est que, bien que les progrès soient passionnants à bien des égards, il y a tellement de choses qu’il ne peut pas bien faire. Mais les gens font cette généralisation hâtive : parce qu’il peut parfois très bien faire quelque chose, alors peut-être qu’AGI est au coin de la rue. Il n’y a aucune raison de le croire.





Yejin Choi dirige un séminaire de recherche en septembre à la Paul G. Allen School of Computer Science & Engineering de l’Université de Washington.
Fondation John D. et Catherine T. MacArthur



Alors, qu’est-ce qui vous passionne le plus en ce moment dans votre travail en IA ? Je suis enthousiasmé par le pluralisme des valeurs, le fait que la valeur n’est pas singulière. Une autre façon de le dire est qu’il n’y a pas de vérité universelle. Beaucoup de gens se sentent mal à l’aise à ce sujet. En tant que scientifiques, nous sommes formés pour être très précis et viser une seule vérité. Maintenant, je pense, eh bien, il n’y a pas de vérité universelle – les oiseaux peuvent-ils voler ou non ? Ou les normes sociales et culturelles : est-il acceptable de laisser une porte de placard ouverte ? Une personne bien rangée pourrait penser, fermez-la toujours. Je ne suis pas propre, alors je pourrais le garder ouvert. Mais si le placard est à température contrôlée pour une raison quelconque, je le garderai fermé ; si le placard est dans la maison de quelqu’un d’autre, je vais probablement me comporter correctement. Ces règles ne peuvent fondamentalement pas être écrites comme des vérités universelles, car lorsqu’elles sont appliquées dans votre contexte par rapport à mon contexte, cette vérité devra être modifiée. Règles morales : il doit y avoir une vérité morale, vous savez ? Ne tuez pas les gens, par exemple. Et si c’était un meurtre par pitié ? Alors quoi?


Oui, c’est quelque chose que je ne comprends pas. Comment pourriez-vous apprendre à l’IA à prendre des décisions morales alors que presque toutes les règles ou vérités ont des exceptions ? L’IA devrait apprendre exactement cela : il y a des cas qui sont plus nets, et puis il y a des cas qui sont plus discrétionnaires. Il doit apprendre l’incertitude et la répartition des opinions. Permettez-moi d’apaiser un peu votre inconfort ici en faisant un cas à travers le modèle de langage et l’IA. La façon de former l’IA est de prédire quel mot vient ensuite. Donc, étant donné un contexte passé, quel mot vient ensuite ? Il n’y a pas de vérité universelle sur le mot qui vient ensuite. Parfois, il n’y a qu’un seul mot qui pourrait venir, mais presque toujours il y a plusieurs mots. Il y a cette incertitude, et pourtant cette formation s’avère puissante parce que quand on regarde les choses plus globalement, l’IA apprend par distribution statistique le meilleur mot à utiliser, la distribution des mots raisonnables qui pourraient venir ensuite. Je pense que la prise de décision morale peut être faite comme ça aussi. Au lieu de prendre des décisions binaires et claires, il devrait parfois prendre des décisions basées sur Cela a l’air vraiment mauvais. Ou vous avez votre position, mais il comprend que, eh bien, la moitié du pays pense autrement.


L’espoir ultime est-il que l’IA puisse un jour prendre des décisions éthiques qui pourraient être en quelque sorte neutres ou même contraires aux objectifs potentiellement contraires à l’éthique de ses concepteurs – comme une IA conçue pour être utilisée par les entreprises de médias sociaux qui pourraient décider de ne pas exploiter la vie privée des enfants ? Ou y aura-t-il toujours une personne ou un intérêt privé en fin de compte qui fera pencher la balance des valeurs éthiques ? Le premier est ce à quoi nous souhaitons aspirer. Ce dernier est ce qui se produit inévitablement. En fait, Delphi penche à gauche à cet égard parce que bon nombre des travailleurs de la foule qui font des annotations pour nous sont un peu à gauche. La gauche et la droite peuvent être mécontentes de cela, car pour les gens de gauche, Delphi n’est pas assez à gauche, et pour les gens de droite, ce n’est potentiellement pas assez inclusif. Mais Delphi n’était qu’un premier coup. Il y a beaucoup de travail à faire, et je pense que si nous pouvons résoudre d’une manière ou d’une autre le pluralisme des valeurs pour l’IA, ce serait vraiment excitant. Faire en sorte que les valeurs de l’IA ne soient pas une chose systématique, mais plutôt quelque chose qui a plusieurs dimensions, tout comme un groupe d’humains.


À quoi cela ressemblerait-il de « résoudre » le pluralisme des valeurs ? J’y pense ces jours-ci, et je n’ai pas de réponses claires. Je ne sais pas à quoi devrait ressembler la « résolution », mais ce que je veux dire dans le cadre de cette conversation, c’est que l’IA doit respecter le pluralisme des valeurs et la diversité des valeurs des gens, au lieu d’imposer un cadre moral normalisé à tout le monde.


Se pourrait-il que si les humains se trouvent dans des situations où nous comptons sur l’IA pour prendre des décisions morales, nous avons déjà foiré ? La moralité n’est-elle pas quelque chose que nous ne devrions probablement pas sous-traiter en premier lieu ? Vous touchez à un malentendu courant – désolé d’être franc – que les gens semblent avoir à propos du modèle Delphi que nous avons créé. C’est un modèle de questions et réponses. Nous avons clairement indiqué, pensons-nous, que ce n’est pas aux gens de prendre des conseils moraux. Il s’agit plutôt d’une première étape pour tester ce que l’IA peut ou ne peut pas faire. Ma principale motivation était que l’IA doit apprendre la prise de décision morale afin de pouvoir interagir avec les humains de manière plus sûre et plus respectueuse. Ainsi, par exemple, l’IA ne devrait pas suggérer aux humains de faire des choses dangereuses, en particulier les enfants, ou l’IA ne devrait pas générer de déclarations potentiellement racistes et sexistes, ou lorsque quelqu’un dit que l’Holocauste n’a jamais existé, l’IA ne devrait pas être d’accord. Il doit comprendre les valeurs humaines au sens large au lieu de simplement savoir si un mot clé particulier a tendance à être associé au racisme ou non. L’IA ne devrait jamais être une autorité universelle sur quoi que ce soit, mais plutôt être consciente des divers points de vue que les humains ont, comprendre où ils sont en désaccord et être ensuite capable d’éviter les cas manifestement mauvais.


Comme l’exemple du trombone de Nick Bostrom, ce que je sais est peut-être alarmiste. Mais un exemple comme celui-là est-il préoccupant ? Non, mais c’est pourquoi je travaille sur des recherches comme Delphi et les normes sociales, parce que est une préoccupation si vous déployez une IA stupide pour optimiser une chose. C’est plus une erreur humaine qu’une erreur d’IA. Mais c’est pourquoi les normes et les valeurs humaines deviennent importantes en tant que connaissances de base pour l’IA Certaines personnes pensent naïvement que si nous enseignons à l’IA « Ne tuez pas les gens tout en maximisant la production de trombones », cela s’en occupera. Mais la machine pourrait alors tuer toutes les plantes. C’est pourquoi il faut aussi du bon sens. C’est du bon sens de ne pas tuer toutes les plantes afin de préserver des vies humaines ; c’est du bon sens de ne pas aller avec des solutions extrêmes et dégénératives.


Qu’en est-il d’un exemple plus léger, comme l’IA et l’humour ? La comédie concerne tellement l’inattendu, et si l’IA apprend principalement en analysant les exemples précédents, cela signifie-t-il que l’humour sera particulièrement difficile à comprendre ? Certains humour sont très répétitifs, et l’IA le comprend. Mais, comme les légendes des dessins animés du New Yorker ? Nous avons un nouveau document à ce sujet. Fondamentalement, même l’IA la plus fantaisiste d’aujourd’hui ne peut pas vraiment déchiffrer ce qui se passe dans les sous-titres du New Yorker.


Pour être juste, beaucoup de gens non plus. [Laughs.] Ouais c’est vrai. Nous avons découvert, en passant, que nous, les chercheurs, ne comprenons parfois pas ces blagues dans les sous-titres du New Yorker. C’est dur. Mais nous continuerons nos recherches.


Illustration d’ouverture : photographie source de la Fondation John D. et Catherine T. MacArthur


Cette interview a été éditée et condensée à partir de deux conversations.

David Marchese est rédacteur pour le magazine et rédige la rubrique Talk. Il a récemment interviewé Lynda Barry sur la valeur de la pensée enfantine, le père Mike Schmitz sur les croyances religieuses et Jerrod Carmichael sur la comédie et l’honnêteté.

A propos de l'auteur

abadmin

Laissez un commentaire

  • king crab atl
  • king crab menu
  • ffxiv kholusian king crab