Dans un entretien avec Tucker Carlson, Elon Musk prévient que l’IA pourrait provoquer une « destruction de civilisation »

Par Samantha Flom
16 avril 2023 06:56 Mis à jour: 16 avril 2023 06:56

Le magnat de la technologie Elon Musk sonne l’alarme sur les risques de l’intelligence artificielle (IA), en particulier sur son potentiel de « détruire la civilisation ».

Dans un extrait de l’entretien qu’il a accordé le 14 avril à Tucker Carlson, sur Fox News, Elon Musk souligne que les ramifications de cette technologie pourraient être désastreuses pour l’humanité.

« L’IA est plus dangereuse que, par exemple, la mauvaise conception d’un avion, une mauvaise maintenance de la production ou une voiture mal conçue, dans le sens où elle a le potentiel – aussi faible que cette probabilité puisse-t-elle être, mais [cette probabilité] n’est pas triviale – elle a le potentiel de détruire la civilisation ».

Le PDG de Tesla, Space X et Twitter est bien placé pour le savoir, puisqu’il a cofondé OpenAI, le laboratoire à but non lucratif qui a créé ChatGPT en 2015.

Des « risques profonds »

ChatGPT est un chatbot interactif dont le prototype a été lancé en novembre en grande pompe et qui a capté l’attention de plus de 100 millions d’utilisateurs. Mais tous les retours n’ont pas été positifs.

Le malaise croissant que suscite l’IA et ses implications a commencé à faire réfléchir de nombreuses personnes, dont M. Musk.

Le mois dernier, le milliardaire (qui n’est plus associé à l’OpenAI) s’est aligné sur des dizaines d’autres experts et dirigeants de l’industrie pour demander à tous les laboratoires d’IA d’interrompre le développement de systèmes plus puissants que GPT-4, propriété d’OpenAI, et a appelé à un moratoire d’au moins six mois dans une lettre datée du 22 mars, qui a depuis recueilli plus de 25.000 signatures.

Estimant que l’IA peut présenter des « risques profonds pour la société et l’humanité », les experts de l’IA expliquent que  » les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être solide et augmenter en même temps qu’augmente l’ampleur des effets potentiels d’un système ».

Visant plus particulièrement OpenAI, les signataires ont rappelé que l’organisation elle-même avait récemment reconnu que, « à un moment donné », il pourrait être nécessaire d’imposer des limites au taux de croissance de ces systèmes.

« Nous sommes d’accord », écrivent-ils. « Et ce moment, c’est maintenant. »

Toutefois, lors d’une discussion au Massachusetts Institute of Technology le 13 avril, le PDG d’OpenAI, Sam Altman, a estimé que la lettre manquait de « nuances techniques » quant à l’endroit et à la manière dont les travaux devraient être interrompus.

Tout en soulignant qu’il était d’accord sur le fait que la sécurité devait être une priorité, il a précisé que son laboratoire n’était pas en train de travailler sur GPT-5.

« Et nous ne le ferons pas avant un certain temps », a ajouté M. Altman. « Donc, dans ce sens, c’était un peu idiot » précise-t-il, en référence à la lettre.

L’entretien d’Elon Musk lors de l’émission « Tucker Carlson Tonight » devrait être diffusé en deux parties, les 17 et 18 avril aux Etats-Unis, à 20 heures. Parmi les autres sujets qu’il abordera, il parlera de son rachat de Twitter et de ses projets pour la plateforme de réseaux sociaux.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.