Lors du premier sommet international dédié à l’intelligence artificielle (IA), des pays tels que la Chine, les États-Unis, l’Union européenne et une vingtaine d’autres nations ont signé la « Déclaration de Bletchley » au Royaume-Uni. Cette déclaration historique vise à promouvoir le développement « sûr » de l’IA à l’échelle mondiale.
LIRE AUSSI : Niger : Nouveaux rebondissements dans l’affaire de tentative d’évasion Bazoum
Au cœur de cette déclaration se trouve la reconnaissance de l’urgence de comprendre et de gérer les risques potentiels associés à l’IA. Les signataires s’engagent à coopérer pour garantir que l’IA soit développée et déployée de manière sécuritaire et responsable.
Le Premier ministre britannique, Rishi Sunak, a salué cette initiative comme le début d’un effort mondial visant à renforcer la confiance du public dans l’IA.
Il est important de noter que la Déclaration de Bletchley ne vise pas à établir une législation mondiale sur l’IA, mais plutôt à définir une voie à suivre pour le développement futur de cette technologie.
Ce sommet international a rassemblé des dirigeants politiques, des experts de l’IA et des géants de la tech, à l’initiative du Royaume-Uni, qui cherche à jouer un rôle de premier plan dans la coopération mondiale sur l’IA.
Elon Musk, cofondateur d’OpenAI, a plaidé en faveur de la mise en place d’un « arbitre indépendant » capable de signaler les préoccupations liées à l’IA, qu’il considère comme l’une des « plus grandes menaces » pour l’humanité. Kamala Harris, vice-présidente américaine, a également souligné les « menaces existentielles » de l’IA.
La technologie de l’IA générative, qui permet de produire du contenu en un temps record, suscite à la fois des espoirs et des inquiétudes, notamment en ce qui concerne les deepfakes, de plus en plus crédibles.
Plusieurs sommets internationaux sur l’IA sont prévus, notamment en Corée du Sud et en France, pour explorer davantage ces questions cruciales. L’enjeu central réside dans la définition de règles et de garde-fous sans entraver l’innovation des laboratoires d’IA et des géants de la tech.
L’Union européenne et les États-Unis ont opté pour une approche réglementaire, tandis que le Royaume-Uni encourage la transparence et la coopération volontaire.
LIRE AUSSI : Groupe sanguin O+ : Quelle alimentation est recommandée ?
Des entreprises telles qu’OpenAI, Meta (Facebook) et DeepMind (Google) ont accepté de rendre publiques certaines de leurs règles de sécurité en matière d’IA en réponse à la demande du Royaume-Uni.
Cependant, des critiques ont été formulées concernant le caractère « huis clos » du sommet, qui a été dominé par les grandes entreprises technologiques et qui a limité l’accès à la société civile.
Lancez-vous dans une nouvelle aventure avec DoingBuzz
Découvrez une multitude d'offres d'emploi et de bourses d'études adaptées à votre parcours.
Newsletter
Abonnez-vous et accédez à tous nos articles en premier !