Que retenir de la première édition de l’AI Safety Summit ? — Siècle Digital
Les 1er et 2 novembre 2023 se tenaient à Bletchley, au Royaume-Uni, la première édition de l’AI Safety Summit, un sommet dédié à l’intelligence artificielle et aux risques entourant cette …
Les 1er et 2 novembre 2023 se tenaient à Bletchley, au Royaume-Uni, la première édition de l’AI Safety Summit, un sommet dédié à l’intelligence artificielle et aux risques entourant cette technologie. Cet évènement a été l’occasion pour de nombreux dirigeants et Hommes d’État de réaliser plusieurs annonces dans un seul et même but : mieux encadrer l’IA à travers le monde.
Une déclaration historique qui engage les grandes puissances à mieux encadre le développement de l’IA
Cette première édition a été marquée par une déclaration signée par 28 pays s’engageant à limiter les risques induits par le développement de l’intelligence artificielle. Les États-Unis, la Chine, la France, l’Allemagne, le Royaume-Uni, entre autres, considèrent qu’il existe un « besoin urgent de comprendre et gérer collectivement les risques » de l’IA.
« Cette déclaration historique marque le début d’un nouvel effort mondial visant à renforcer la confiance du public dans l’IA en veillant à ce qu’elle soit sûre, » a déclaré sur X, le Premier ministre du Royaume-Uni, Rishi Sunak. En parallèle, Gina Raimondo, secrétaire au Commerce des États-Unis a annoncé la création d’un institut américain de sécurité chargé d’évaluer les risques de l’IA. Une initiative qui s’inscrit dans le décret signé le 31 octobre par Joe Biden, pour mieux encadrer le développement de l’IA aux États-Unis.
Les grandes entreprises font également un pas en avant pour limiter les risques
Outre les Hommes d’État, les grandes entreprises ont également pris des engagements pour évaluer les risques de leurs technologiques. OpenAI, Google DeepMind, Anthropic, Amazon, Mistral AI, et Meta, parmi d’autres, ont signé un accord permettant aux gouvernements de la majorité des pays signataires de la déclaration précédemment citée, de tester leurs derniers modèles d’IA pour savoir s’ils ne faisaient encourir aucun risque à leur sécurité intérieure. Seule la Chine a refusé de participer à cet accord.
« Il est essentiel que nous établissions des moyens d’évaluer et de relever les défis actuels que présente l’IA, ainsi que les risques liés à une technologie qui n’existe pas encore », a déclaré Nick Clegg, président des affaires mondiales chez Meta. « Nous ferons toujours nos propres tests, » a déclaré Jack Clark, cofondateur d’Anthropic, « mais je veux vraiment qu’il y ait une autorité de test légitime tierce à laquelle nous pouvons proposer de tester nos solutions, et obtenir des résultats probants ».
Bruno Le Maire et Jean-Noël Barrot portent un vent d’innovation à l’AI Safety Summit
La France était présente pour cette première édition de l’AI Safety Summit. Le ministre de l’Économie et des Finances, Bruno Le Maire, a porté un discours tourné vers l’innovation, plutôt que sur la réglementation et l’encadrement de l’IA. « Il faut s’appuyer sur les ingénieurs, comprendre comment on est arrivé là, quels sont les risques réels et comment on les contrôle. Il ne faut pas céder au complotisme ou au catastrophisme, » a déclaré Bruno Le Maire, aux Échos.
Le ministre a aussi fait référence à la domination de Nvidia en matière d’infrastructures permettant de former et de faire fonctionner les modèles d’IA performants. « Avoir un seul pays avec toutes les technologies, toutes les entreprises privées, tous les appareils, toutes les compétences serait un échec pour nous tous, » assure-t-il. Avec le soutien de l’Union européenne, il souhaiterait encourager les entreprises françaises et européennes à se faire une place sur le marché de l’IA et concurrencer les leaders du secteur.
Jean-Noël Barrot, ministre délégué chargé de la Transition numérique, était également présent à Bletchley Park. Il a rencontré, avec le ministre de l’économie, le dirigeant d’OpenAI, Sam Altman. « Nous avons rappelé nos priorités pour l’intelligence artificielle : développer les talents et les technologies en France, agir pour une régulation efficace qui préserve l’innovation, » précise Jean Noël Barrot dans une publication sur X. La France sera par ailleurs l’organisatrice de la deuxième édition physique de l’AI Safety Summit qui se déroulera l’année prochaine.