Pourquoi Elon Musk veut-il interrompre le développement de l’IA ?

Les dernières innovations en matière de technologies basées sur l’IA repoussent les limites de ce que nous pensions être possible avec l’IA. Cependant, avec des chatbots comme ChatGPT et Bing Chat qui deviennent presque aussi bons que les humains dans plusieurs domaines, est-il temps de freiner un peu ?

Elon Musk et plusieurs chercheurs en IA font partie des 1 188 personnes (au moment de la rédaction de cet article) qui le pensent. Une lettre publiée par l’institut à but non lucratif Future of Life appelle à une pause de six mois dans la formation de technologies d’IA meilleures que le TPG 4, mais une pause est-elle vraiment nécessaire ?

Quel est l’objet de la lettre ouverte de Future of Life ?

Les publiée par l’institut Future of Life souligne que les laboratoires d’IA ont été « enfermés dans une course incontrôlée » pour développer et déployer des modèles d’IA de plus en plus puissants que personne, y compris leurs créateurs, ne peut « comprendre, prédire ou contrôler de manière fiable ».

Il souligne également que les systèmes d’IA contemporains deviennent maintenant compétitifs pour les humains dans des tâches générales et se demande si nous devrions développer « des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ».

La lettre demande enfin à tous les laboratoires d’IA d’interrompre immédiatement la formation de systèmes d’IA plus puissants que le GPT-4 pendant au moins six mois. Cette pause devrait être publique et vérifiable par tous les acteurs clés. La lettre indique également que si une telle pause ne peut être appliquée rapidement, les gouvernements devraient intervenir pour interdire temporairement la formation de modèles d’IA.

Une fois la pause active, les laboratoires d’IA et les experts indépendants sont invités à l’utiliser pour développer et mettre en œuvre conjointement un « ensemble partagé de protocoles de sécurité » afin de garantir que les systèmes qui adhèrent à ces règles sont « sûrs au-delà de tout doute raisonnable ».

Voir aussi :  Les 7 villes les plus intelligentes du monde

Cette lettre a été signée par un certain nombre de personnalités, dont Elon Musk, Steve Wozniak, ainsi que des chercheurs et des auteurs spécialisés dans l’IA. En fait, la liste des signataires est actuellement en pause en raison d’une forte demande.

Quelles sont les préoccupations de Musk concernant les technologies d’IA avancées et l’OpenAI ?

Bien que la signature de la lettre de Future of Life puisse indiquer que Musk est préoccupé par les risques de sécurité que posent ces systèmes d’IA avancés, la véritable raison pourrait être autre.

Musk a cofondé OpenAI avec l’actuel PDG Sam Altman en 2015 en tant qu’organisation à but non lucratif. Cependant, il s’est brouillé avec Altman plus tard en 2018 après avoir réalisé qu’il n’était pas satisfait des progrès de l’entreprise. Musk aurait voulu prendre le relais pour accélérer le développement, mais Altman et le conseil d’administration d’OpenAI ont rejeté l’idée.

Musk a quitté OpenAI peu de temps après et a emporté son argent avec lui, rompant sa promesse de contribuer au financement à hauteur d’un milliard et ne donnant que 100 millions avant de partir. Cela a forcé OpenAI à devenir une société privée peu de temps après, en mars 2019, afin de lever des fonds pour poursuivre ses recherches.

Crédit photo : Heisenberg Media/Wikimedia Commons

Une autre raison du départ de Musk est que le développement de l’IA chez Tesla entraînerait un conflit d’intérêts à l’avenir. Il est de notoriété publique que Tesla a besoin de systèmes d’IA avancés pour alimenter ses fonctionnalités d’auto-conduite intégrale. Depuis que Musk a quitté OpenAI, l’entreprise s’est enfuie avec ses modèles d’IA, lançant ChatGPT alimenté par GPT3.5 en 2022, puis GPT-4 en mars 2023.

Le fait que l’équipe d’IA de Musk est loin d’être proche d’OpenAI doit être pris en compte chaque fois qu’il affirme que les modèles d’IA modernes pourraient présenter des risques. Il n’a également eu aucun problème à déployer la version bêta de Tesla Full Self-Driving sur les routes publiques, transformant essentiellement les conducteurs réguliers de Tesla en bêta-testeurs.

Voir aussi :  L'évolution de l'ordinateur : comment en sommes-nous arrivés là où nous en sommes aujourd'hui ?

Cela ne s’arrête pas là non plus. Musk a également été plutôt critique à l’égard d’OpenAI sur Twitter, Altman allant jusqu’à dire qu’il les attaque alors qu’il apparaissait récemment sur le podcast « On with Kara Swisher ».

Pour l’instant, il semble que Musk utilise la lettre Future of Life pour stopper le développement d’OpenAI et de toute autre entreprise qui rattrape le GPT-4 afin de donner à ses entreprises une chance de rattraper leur retard, au lieu de se préoccuper réellement des dangers potentiels que posent ces modèles d’IA. Notez que la lettre demande également d’interrompre la « formation » des systèmes d’IA pendant six mois, ce qui peut être relativement facilement contourné pour continuer à les développer dans l’intervalle.

Une pause est-elle vraiment nécessaire ?

La nécessité d’une pause dépend de l’état des modèles d’IA à l’avenir. Le ton de la lettre est certainement un peu dramatique, et nous ne risquons pas de perdre le contrôle de notre civilisation au profit de l’IA, comme elle l’affirme si ouvertement. Cela dit, les technologies de l’IA posent quelques menaces.

Étant donné que l’OpenAI et d’autres laboratoires d’IA peuvent mettre en place de meilleurs contrôles de sécurité, une pause ferait plus de mal que de bien. Cependant, la suggestion de la lettre d’un ensemble de protocoles de sécurité partagés qui sont « rigoureusement audités et supervisés par des experts externes indépendants » semble être une bonne idée.

Les géants de la technologie comme Google et Microsoft consacrant des milliards au développement de l’IA et à son intégration dans leurs produits, il est peu probable que la lettre affecte le rythme actuel du développement de l’IA.

Voir aussi :  Qu'est-ce que Bluetooth 5.3 ? Les versions de Bluetooth 5 expliquées

L’IA est là pour durer

Les géants de la technologie poussent l’intégration de l’IA dans leurs produits et investissent des milliards de dollars dans la recherche et le développement, l’IA est là pour rester, quoi qu’en dise l’opposition.

Mais ce n’est pas une mauvaise idée de mettre en œuvre des mesures de sécurité pour éviter que ces technologies ne dérapent et ne se transforment potentiellement en outils de nuisance.

S’abonner à notre lettre d’information

Que pense Elon Musk de l’intelligence artificielle ?

Depuis de nombreuses années, Elon Musk, l’homme le plus riche du monde, met en garde les humains contre le fait qu’un jour l’IA pourrait être plus intelligente que nous et nous mettre en danger, qualifiant l’intelligence artificielle de plus grande menace pour la civilisation.

Quel est le rapport entre Elon Musk et l’IA ?

Elon Musk est cofondateur d’OpenAI, la startup américaine qui a développé ChatGPT, un outil d’IA dite générative qui renvoie des réponses semblables à celles d’un être humain à des questions posées par l’utilisateur. ChatGPT est une forme avancée d’IA alimentée par un grand modèle de langage appelé GPT-3.

Pourquoi l’IA sensible est-elle mauvaise ?

L’une des conséquences négatives possibles de la création d’une IA sensible serait la perte de confiance dans les autres humains s’ils sont considérés comme « inférieurs » aux machines qui n’ont pas besoin de sommeil ou de nourriture comme nous, parce que les esprits des machines peuvent toujours continuer à travailler, même lorsque nous cessons de penser à eux !

Que pense Elon Musk des robots ?

Elon Musk a déclaré mercredi qu’il prévoyait que les robots humanoïdes « vaudront probablement beaucoup plus que l’aspect automobile à long terme », car leurs utilisations seront très variées. Dans le passé, il a également mentionné des robots utilisés comme « compagnons ».

Cliquez pour évaluer cet article !
[Total: Moyenne : ]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *