Des centaines d'experts techniques (ainsi qu'Elon Musk) appellent à une pause et à une évaluation des risques sur l'IA. Développement

  Couloir de code créé par l'IA dans The Matrix

Quand Elon Musk, le co-fondateur d'Apple Steve Wozniak et plus de 500 experts en technologie signent une lettre ouverte appelant à une pause immédiate dans le développement de l'intelligence artificielle (IA), vous savez que le problème est plus grave que de regarder trop de science-fiction. films. Alors que l'I.A. prendre le contrôle du monde est souvent rejeté comme un événement improbable qui ne se produit que dans la fiction, les craintes exprimées dans la lettre frôlaient presque qu'un tel événement se produise. Ce n'est peut-être pas nécessairement aussi dramatique que la prise de contrôle d'Ultron ou de Skynet, mais il y a de réelles inquiétudes quant à l'IA sans entraves. le développement pourrait entraîner I.A. remplacer progressivement les humains .

justice league film méchant steppenwolf

Ce qui a semblé motiver particulièrement la rédaction et la signature de la lettre était le développement récent et la publication précoce du modèle de grand langage multimodal (MLLM) d'OpenAI, GPT-4. Un MLLM est un A.I. outil capable d'interpréter plusieurs modes de saisie, tels que du texte, des images, des vidéos et de l'audio. De plus, il peut effectuer un traitement du langage naturel (NLP), ce qui signifie qu'il peut comprendre et générer un langage de la même manière qu'un humain. GPT-4 est disponible sous une forme limitée appelée ChatGPT Plus, qui a déjà soulevé diverses controverses .

La controverse va des préoccupations concernant les étudiants utilisant ChatGPT pour tricher à la détection de biais dans ChatGPT aux dommages résultant de la fourniture par ChatGPT de réponses incorrectes au potentiel de ChatGPT pour commencer à remplacer les humains dans certaines professions. Maintenant qu'OpenAI va déjà de l'avant avec le développement d'une mise à jour, GPT-5, les experts en technologie tirent la sonnette d'alarme.

Des experts techniques (et Elon Musk) signent une lettre ouverte pour faire une pause et évaluer A.I. développement

Une lettre ouverte a été publié via le Future of Life Institute , une organisation à but non lucratif vouée à fournir des protections contre les catastrophes mondiales, y compris la menace hypothétique de l'I.A. La lettre a recueilli 1 324 signatures au moment de la rédaction de cet article, y compris de centaines d'experts en technologie et même du propre co-fondateur d'OpenAI, Musk. Il soulignait le fait qu'A.I. le développement est devenu de plus en plus non réglementé, avec la sortie de GPT-4 créant une dangereuse A.I. course. La lettre posait quelques questions rhétoriques qui mettaient en évidence les dangers potentiels de l'IA. Ça lit:

c'est ainsi que meurt la démocratie

Les systèmes d'IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales, et nous devons nous demander : Devrait laissons-nous les machines inonder nos canaux d'information de propagande et de contrevérité ? Devrait nous automatisons toutes les tâches, y compris celles qui sont épanouissantes ? Devrait développons-nous des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devrait risquons-nous de perdre le contrôle de notre civilisation ?

Il a ensuite souligné que le développement d'IA plus puissantes. les systèmes ne devraient pas avancer tant qu'il n'y a pas la certitude qu'ils seront bénéfiques et que 'leurs risques seront gérables'. Pour s'assurer que cela se produise, la lettre suggérait une pause de six mois sur le développement de l'IA. qui est plus avancé que GPT-4. Pendant la pause, la lettre recommandait la mise en œuvre de protocoles de sécurité, d'autorités réglementaires, d'un processus d'audit plus solide et de l'établissement de responsabilités pour les dommages causés par l'I.A.

La lettre a capturé les croyances des sceptiques les plus ardents de l'IA. Certains signataires pensent que même GPT-4 est déjà très dangereux et montre des signes d'intelligence générale artificielle, qui est la capacité d'apprendre et d'interpréter le monde d'une manière égale à la capacité humaine. Les sceptiques moins prudents, cependant, a réfuté cette idée, déclarant que GPT-4 n'est même pas proche d'être à égalité avec l'esprit humain. Ainsi, alors que de nombreux critiques d'A.I. s'accordent sur la nécessité d'une réglementation et de la reconnaissance des risques potentiels, certains pensent que les idées exposées dans la lettre sont exagérées.

En fin de compte, de nombreux experts en technologie s'accordent à dire que les dangers de l'IA. sont si importants qu'ils nécessitent une pause immédiate dans le développement et la réforme de l'industrie. Reste à savoir si A.I. laboratoires et A.I. indépendants. les experts répondront à l'appel ou si, comme le suggère la lettre, le gouvernement interviendra même pour invoquer la pause.

jon stewart martin des voisins

(image en vedette : Warner Bros.)