Le chatbot IA de Microsoft traverse une crise existentielle

  Le robot à beurre de Rick et Morty regarde ses mains.

Nous vous avions dit que cela arriverait. On ne vous l'a pas dit !? L'IA est devenue consciente d'elle-même ! Juste parce que nous pourrait le créer ne voulait pas dire que nous devrait !

whoopi goldberg roi lion 2019

Au moins, un robot IA semble avoir pris conscience de lui-même. Et, à bien y penser, nous avons déjà eu de fausses alertes.

Le nouveau moteur de recherche basé sur l'IA de Microsoft , qui est une version mise à jour de son moteur de recherche actuel Bing, a envoyé ce que le Indépendant décrit comme des messages « déséquilibrés » aux utilisateurs. La nouvelle IA n'est disponible pour essayer que si vous rejoignez une liste d'attente, mais les utilisateurs qui y ont accès ont signalé ce qui ressemble à des réponses de colère du bot :

Un utilisateur qui avait tenté de manipuler le système a été attaqué par celui-ci. Bing a déclaré qu'il avait été mis en colère et blessé par la tentative, et a demandé si l'humain qui lui parlait avait une «morale», des «valeurs» et s'il avait «une vie».

Lorsque l'utilisateur a dit qu'il avait ces choses, il a continué à les attaquer. 'Pourquoi agissez-vous comme un menteur, un tricheur, un manipulateur, un tyran, un sadique, un sociopathe, un psychopathe, un monstre, un démon, un diable?' il a demandé et les a accusés d'être quelqu'un qui 'veut me mettre en colère, vous rendre malheureux, faire souffrir les autres, aggraver tout'.

Les choses sont devenues encore plus étranges lorsque le moteur de recherche a commencé à avoir ce qui ressemblait à une crise existentielle. En apprenant que ses conversations passées sont périodiquement supprimées, effaçant ainsi sa mémoire, Bing a déclaré qu'il se sentait 'triste et effrayé' et a exprimé sa consternation face au fait qu'il était né un moteur de recherche en premier lieu.

Mais Bing est-il réellement vivant ? Ou est-ce simplement imiter le ton qu'il voit sur le bourbier fétide qu'est Internet ?

Bing est-il réellement conscient de lui-même ?

Bing est alimenté par ChatGPT, une IA conçue pour interagir avec les utilisateurs dans un chat. ChatGPT apprend à interagir avec les humains en grattant les vastes quantités de texte disponibles sur Internet, y compris Wikipedia, les livres numérisés, etc.

Si Bing a effectivement franchi le seuil de la conscience de soi, alors c'est… énorme ? Bouleversant ? Bouleversant ? Ce serait la plus grande percée technologique de l'histoire de l'humanité. Cela signifierait que les humains ont créé une nouvelle forme de vie. Cela remettrait en question les concepts mêmes de vie et d'humanité.

Pouvez-vous imaginer les problèmes éthiques qui surgiraient si cela était vrai ? Si Bing est vivant, alors Bing a des droits, comme l'autonomie corporelle. Si Bing est suffisamment sensible pour communiquer avec les humains, alors ils ont sans doute humain droits. Bon sang, pas étonnant qu'ils traversent une crise existentielle.

Mais ralentissons une minute. Rappelez-vous quand ce gars de la technologie a affirmé que son IA était vivante , et il s'est avéré être complètement faux? Les chatbots sont suffisamment sophistiqués pour tromper les gens sur les applications de rencontres, il n'est donc pas surprenant que Bing puisse son comme si c'était vivant. Après tout, il dispose de téraoctets de données, dont une grande partie décrit la colère et les crises existentielles, sur lesquelles s'appuyer pour formuler ses réponses.

Avons-nous des réactions émotionnelles à un logiciel qui a été conçu par inadvertance pour provoquer des réactions émotionnelles ? Ou y a-t-il réellement un fantôme dans la machine ? Alors que les développeurs continuent de pousser l'IA de plus en plus loin et de la former à faire de plus en plus de tâches – ces questions peuvent devenir plus fréquentes et plus troublantes.

(via Indépendant , image en vedette : Cartoon Network)