WEB & HIGH TECH

Elon Musk lance une nouvelle entreprise, «xAI», avec une mission pour le moins énigmatique

juillet 14, 2023 1:49, Last Updated: juillet 14, 2023 1:49
By

Le PDG de Twitter, Elon Musk, a annoncé qu’il créait une nouvelle société d’intelligence artificielle appelée xAI.

Musk a fait cette annonce dans un bref tweet mercredi, dans lequel il ne s’est pas étendu sur les détails de la nouvelle entreprise, sauf pour dire que son objectif est de « comprendre la réalité ».

Il a également partagé un lien vers la page Twitter de l’entreprise et son site web, qui indique que son objectif est de « comprendre la vraie nature de l’univers ».

« Quelles sont les questions les plus fondamentales restées sans réponse ? » a été le premier tweet du compte xAI sur Twitter.

Musk a répondu au tweet : « Et quelles sont les questions ignorées les plus fondamentales ? Une fois que vous savez quelle est la bonne question à poser, la réponse est souvent la partie la plus facile. »

Plus de détails

Le site web de xAI indique qu’un chat Twitter Spaces est prévu pour le 14 juillet afin de « rencontrer l’équipe et de nous poser des questions » sur la nouvelle initiative, dont les détails restent vagues.

La nouvelle société est distincte de X Corp, l’entreprise détenue par Musk qui a absorbé Twitter dans le cadre de l’initiative tant attendue de ce dernier visant à transformer la plateforme de médias sociaux en une « application pour tout ».

xAI travaillera toutefois en étroite collaboration avec Twitter, Tesla et d’autres entreprises « pour progresser vers notre mission », selon son site web.

L’équipe est dirigée par Musk, et certains de ses membres ont déjà travaillé sur divers projets d’IA dans le passé, comme DeepMind de Google et OpenAI, la société à l’origine du chatbot ChatGPT.

Le site web mentionne Igor Babuschkin, Manuel Kroiss, Yuhuai (Tony) Wu, Christian Szegedy, Jimmy Ba, Toby Pohlen, Ross Nordeen, Kyle Kosic, Greg Yang, Guodong Zhang et Zihang Dai comme membres de l’équipe, avec une note indiquant que xAI « recrute activement » des chercheurs et des ingénieurs.

L’équipe est conseillée par Dan Hendrycks, qui est aujourd’hui directeur du Center for AI Safety, une organisation à but non lucratif qui cherche à « réduire les risques à l’échelle de la société associés à l’IA ».

L’annonce par Musk de la création de xAI fait suite au récent lancement de Threads, le concurrent de Twitter, lancé par Mark Zuckerberg, le grand rival de Musk et PDG de Meta, qui a accepté de se mesurer au patron de Twitter lors d’un combat en cage.

Elle intervient alors que Twitter a été confronté à des turbulences liées à ce que Musk a qualifié de niveaux « extrêmes » de manipulation du système et de récupération de données, y compris par des projets d’intelligence artificielle.

Turbulences sur Twitter

Elon Musk a récemment imposé des limites sur le nombre de tweets que les utilisateurs pouvaient lire sur Twitter en raison de ce qu’il a qualifié de niveaux « extrêmes » de manipulation du système et de récupération de données, avec un impact négatif sur l’expérience de l’utilisateur.

Plus tôt, Twitter a annoncé qu’il exigerait des utilisateurs qu’ils possèdent un compte sur la plateforme de médias sociaux pour pouvoir lire les tweets, une mesure que Musk a qualifiée de « mesure d’urgence temporaire ».

À l’époque, Musk avait déclaré que des centaines d’organisations, voire plus, récupéraient les données de Twitter « de manière extrêmement agressive », une remarque qui faisait suite à son mécontentement à l’égard d’entreprises d’intelligence artificielle telles qu’OpenAI, propriétaire de ChatGPT, qui utilisaient les données de Twitter pour entraîner leurs grands modèles de langage.

En avril, il a menacé de poursuivre Microsoft, qui a investi des milliards dans OpenAI, après avoir accusé l’entreprise d’utiliser les données de Twitter pour l’entraînement.

« Ils se sont entraînés illégalement en utilisant les données de Twitter. Il est temps d’intenter un procès », a écrit Musk sur Twitter le 19 avril, sans donner plus de détails sur les allégations.

Bien que Musk n’ait pas fourni de preuves de la prétendue « formation illégale » de Microsoft et qu’il n’ait pas indiqué à quoi servait la formation, ChatGPT est formé à l’aide de l’apprentissage par renforcement à partir de commentaires humains (RLHF) et de grandes quantités de texte provenant de diverses sources sur Internet, y compris des conversations humaines.

Microsoft n’a pas répondu à une demande de commentaire d’Epoch Times sur la menace de procès de Musk.

Menace de l’IA

Auparavant, Musk s’était joint à plus de 1100 personnes, dont des experts et des dirigeants d’entreprises tels que Steve Wozniak, cofondateur d’Apple, pour signer une lettre ouverte appelant tous les laboratoires d’intelligence artificielle à interrompre la formation de systèmes plus puissants que le Chat GPT-4 pour une durée d’au moins six mois.

La lettre ne demande pas l’arrêt du développement de l’IA en général, mais seulement des systèmes les plus avancés, dans ce que Musk et les autres experts décrivent comme un acte de « simple recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles de plus en plus grands et dotés de capacités émergentes ».

Musk, ainsi que d’autres signataires de la lettre, ont fait part de leurs inquiétudes quant aux « risques pour la société et l’humanité » que pourrait présenter l’IA.

Impacts « catastrophiques » sur la société

Les signataires de la lettre avertissent que les systèmes d’IA dotés d’une intelligence compétitive avec celle des humains pourraient poser des « risques profonds pour la société et l’humanité » et devraient être planifiés et gérés avec soin afin d’éviter des impacts potentiellement « catastrophiques » sur le monde et ses habitants.

Ayant réussi à créer des systèmes d’IA puissants, nous pouvons maintenant profiter d’un « break de l’IA » au cours duquel nous récolterons les fruits de nos efforts, nous concevrons ces systèmes pour le plus grand bénéfice de tous et nous donnerons à la société une chance de s’adapter », ont déclaré les experts.

« La société a mis en pause d’autres technologies aux effets potentiellement catastrophiques. Nous pouvons faire de même ici. Profitons d’un long break de l’IA et ne nous précipitons pas sans préparation vers l’automne », ont-ils déclaré.

Ils ont demandé aux laboratoires d’IA et aux experts indépendants d’utiliser le moratoire de six mois pour développer et mettre en œuvre un ensemble de protocoles de sécurité pour la conception d’IA avancées qui garantiraient que ces systèmes sont « sûrs au-delà de tout doute raisonnable ».

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.

Voir sur epochtimes.fr
PARTAGER