En savoir plus - Publicité 2 Publicité 2 En savoir plus - Publicité 2 Publicité 2 En savoir plus - Publicité 2 Publicité 2 En savoir plus - Publicité 2 Publicité 2 En savoir plus - Publicité 2 Publicité 2 En savoir plus - Publicité 2 Publicité 2 Découvrez nos offres pour annonceurs - Publicité 4 Publicité 4 En savoir plus - Publicité 2 Publicité 2 Visitez 3Vision Group - Publicité 3 Publicité 3 banner Publicité 3

OpenAI, la maison mère de ChatGPT, appelle à une régulation mondiale de l’IA



Les cadres d’OpenAI, l’entreprise à l’origine de GPT-4 et ChatGPT, expriment leur volonté d’une régulation mondiale de l’intelligence artificielle. Dans une note publiée sur le site de la société, Sam Altman, Greg Brockman et Ilya Sutskever soulignent les risques que représente une « superintelligence » dans les dix prochaines années.

Selon eux, la superintelligence pourrait dépasser toutes les technologies auxquelles l’humanité a été confrontée jusqu’à présent. Face à cette situation, ils appellent à des mesures strictes de régulation pour les technologies d’IA actuelles, mais soulignent également la nécessité de mesures et de coordination spécifiques au niveau international pour l’intelligence artificielle générale (AGI).

Lire aussi : Elon Musk : La figure emblématique derrière OpenAI ?

ChatGPT d’Open AI, une menace comparable au nucléaire

Openai, La Maison Mère De Chatgpt, Appelle À Une Régulation Mondiale De L'Ia

Les risques liés à cette superintelligence sont comparés à ceux de l’énergie nucléaire. Elle pourrait dépasser le niveau de compétence des experts dans la plupart des domaines et être plus productive que certaines des plus grandes entreprises. Les leaders d’OpenAI vont jusqu’à affirmer qu’il existe un risque « existentiel » pour les sociétés humaines.

Afin de limiter ces dangers, ils appellent à agir dès maintenant. Ils proposent la création d’une autorité internationale chargée d’auditer les systèmes d’IA au-delà d’un certain seuil de puissance, ainsi que de vérifier leur conformité aux normes de sécurité. Les détails de cette agence restent flous pour le moment.

Il est souligné que cette agence devrait se concentrer sur la réduction des risques existentiels plutôt que de se pencher sur des questions qui devraient être laissées aux pays individuels. OpenAI considère que l’arrivée d’une superintelligence est inévitable et estime qu’arrêter son développement serait risqué et complexe, nécessitant une surveillance mondiale.

La réglementation proposée devrait être élaborée démocratiquement avec la participation des citoyens de tous les pays. OpenAI prévoit même d’expérimenter le développement d’un outil décisionnel dans ce sens. Les cadres de l’entreprise croient en une IA générale qui pourrait contribuer à résoudre de nombreux problèmes et améliorer la qualité de vie de façon surprenante.

Quelle efficacité ?

Openai Révolutionne L'Ia Avec L'Application Mobile Chatgpt

Cependant, la question de la régulation de l’IA par les acteurs du secteur soulève des interrogations quant à son efficacité réelle. Il y a également des enjeux économiques pour OpenAI, car des réglementations fragmentées au niveau national pourraient nécessiter une adaptation des modèles d’IA aux règles de chaque pays afin d’éviter des sanctions ou des interdictions.

Sam Altman a même laissé entendre que sa société ne serait peut-être pas en mesure de se conformer à toute forme de régulation, ce qui pourrait l’amener à quitter l’Europe si elle ne parvient pas à respecter les nouvelles lois sur l’IA en cours de discussion dans l’UE.

Ainsi, la question de la régulation de l’intelligence artificielle reste complexe et nécessite une réflexion approfondie à l’échelle mondiale pour faire face aux défis futurs.

Rejoignez DOINGBUZZ PREMIUM

Découvrez un monde de contenus exclusifs et d'opportunités.

Accédez Maintenant

Lancez-vous dans une nouvelle aventure avec DoingBuzz

Découvrez une multitude d'offres d'emploi et de bourses d'études adaptées à votre parcours.

doingbuzz DIRECT
Mots-clés associés à l'article :

Newsletter

Abonnez-vous et accédez à tous nos articles en premier !