OK
Accueil > Marchés > Cotation Cac 40 > Actus Cac 40

Etats-Unis, Chine et UE signent une première déclaration mondiale sur les risques de l'IA


Actualité publiée le 01/11/23 15:32
Au cours du premier sommet international pour un développement sûr de l'Intelligence artificielle, à Bletchley, en Angleterre, le 1er novembre 2023
Au cours du premier sommet international pour un développement "sûr" de l'Intelligence artificielle, à Bletchley, en Angleterre, le 1er novembre 2023 (POOL/AFP/Leon Neal)

La Chine, les Etats-Unis, l'UE et une vingtaine de pays ont signé mercredi au Royaume-Uni la déclaration de Bletchley pour un développement "sûr" de l'intelligence artificielle (IA), lors du premier sommet international sur l'essor fulgurant de cette technologie.

"Cette déclaration historique marque le début d'un nouvel effort mondial visant à renforcer la confiance du public dans l'IA en veillant à ce qu'elle soit sûre", a salué le Premier ministre britannique Rishi Sunak sur X (ex-Twitter).

L'Union européenne et les 28 pays réunis à Bletchley Park au nord de Londres se sont mis d'accord sur "le besoin urgent de comprendre et gérer collectivement les risques potentiels" de l'IA à travers "un nouvel effort mondial visant à garantir que l'IA est développée et déployée de manière sûre et responsable".

Face au potentiel grandissant des modèles comme ChatGPT, la déclaration de Bletchley "montre que pour la première fois, le monde se réunit pour identifier le problème et mettre en avant ses opportunités" a souligné la ministre britannique de la Technologie Michelle Donelan à l'AFP.

Cette réunion "n'a pas pour objectif de poser les bases d'une législation mondiale, elle doit servir à tracer une voie à suivre", a-t-elle précisé.

Deux sommets internationaux sur l'IA vont suivre, en Corée du Sud dans six mois puis en France dans un an, a-t-elle ajouté depuis l'emblématique centre de décryptage des codes de la Seconde guerre mondiale.

Pendant deux jours, dirigeants politiques, experts de l'IA et géants de la tech y sont réunis à l'initiative du Royaume-Uni, qui veut prendre la tête d'une coopération mondiale sur cette technologie.

En parallèle, la vice-présidente américaine Kamala Harris doit annoncer dans un discours à Londres la création d'un institut sur la sécurité de l'intelligence artificielle à Washington.

Une telle structure - similaire à celle que le Royaume-Uni a aussi annoncé établir - rassemblerait des experts chargés d'établir "des lignes directrices" et d'évaluer les modèles d'IA les plus avancés pour "identifier et atténuer" les risques, selon la Maison Blanche.

Les IA génératives, capables de produire du texte, des sons ou des images sur simple requête en une poignée de secondes, ont fait des progrès exponentiels ces dernières années et les prochaines générations de ces modèles feront leur apparition d'ici l'été.

Elles suscitent d'immenses espoirs pour la médecine ou l'éducation, mais pourraient aussi déstabiliser les sociétés, permettre de fabriquer des armes ou échapper au contrôle des humains, a averti le gouvernement britannique.

- "Huis clos" -

Après cette première journée consacrée aux dangers potentiels des IA les plus avancées, des représentants politiques de haut niveau sont attendus jeudi à Bletchley Park.


(POOL/AFP/Leon Neal)

Parmi eux, la présidente de la Commission européenne Ursula von der Leyen, le secrétaire général de l'ONU Antonio Guterres ou la Première ministre italienne Giorgia Meloni - seule cheffe d'Etat du G7 à faire le déplacement.

Le Royaume-Uni espère les convaincre de créer un groupe d'experts sur l'IA sur le modèle du Giec pour le climat.

Le milliardaire américain et entrepreneur star Elon Musk, déjà présent au sommet mercredi, échangera avec le Premier ministre britannique Rishi Sunak jeudi soir.

Dans une lettre ouverte publiée mardi, plusieurs des "pères fondateurs" de cette technologie comme Yoshua Bengio ou Geoffrey Hinton ont plaidé pour "l'élaboration et la ratification d'un traité international sur l'IA", afin de réduire les risques "potentiellement catastrophiques que les systèmes avancés font peser sur l'humanité".

Tout l'enjeu est d'arriver à définir des garde-fous sans entraver l'innovation pour les laboratoires d'IA et géants de la tech. L'UE et les Etats-Unis, contrairement au Royaume-Uni, ont choisi la voie de la réglementation.

La ministre anglaise des Sciences, de l'Inovation et des Technologies, au sommet sur l'Intelligence artificielle de Bletchley, le 1er novembre 2023
La ministre anglaise des Sciences, de l'Inovation et des Technologies, au sommet sur l'Intelligence artificielle de Bletchley, le 1er novembre 2023 (POOL/AFP/TOBY MELVILLE)

La semaine dernière, plusieurs entreprises comme OpenAI, Meta (Facebook) ou DeepMind (Google) ont accepté de rendre publiques certaines de leurs règles de sécurité sur l'IA à la demande du Royaume-Uni.

Dans une lettre ouverte adressée à Rishi Sunak, une centaine d'organisations, experts et militants internationaux ont déploré que ce sommet se tienne à "huis clos", dominé par les géants de la tech et avec un accès limité pour la société civile.

© 2023 AFP

Vous avez aimé cet article ? Partagez-le avec vos amis avec les boutons ci-dessous.

Twitter Facebook Linkedin email

Soyez le premier à réagir à cet article

Pour poster un commentaire, merci de vous identifier.

VLuWbEwDiKrwTTEo35eTxETe1y9iGy-Fm4E0Eni-8grQJGfkdFVsIBw0ev0uZZ1V

Comparatif des courtiers en ligne