United Nations Security Council

07/18/2023 | Press release | Distributed by Public on 07/18/2023 12:20

Conseil de sécurité: maintien de la paix et de la sécurité internationales (intelligence artificielle: opportunités et risques pour la paix et la sécurité internationales)

Conseil de sécurité: maintien de la paix et de la sécurité internationales (intelligence artificielle: opportunités et risques pour la paix et la sécurité internationales)

(Le résumé complet du communiqué sera disponible plus tard dans la journée.)

MAINTIEN DE LA PAIX ET DE LA SÉCURITÉ INTERNATIONALES

Intelligence artificielle: opportunités et risques pour la paix et la sécurité internationales

Déclarations

M. ANTÓNIO GUTERRES, Secrétaire général de l'ONU, a rappelé que si, il y six ans, il avait déclaré à l'Assemblée générale que l'intelligence artificielle (IA) aurait un impact considérable sur le développement durable, le monde du travail et le tissu social, il avait, comme tout le monde, été choqué et impressionné par l'avancée radicale que constitue l'IA générative, qualifiant la vitesse et la portée de cette nouvelle technologie de « sans précédent ». Pour illustrer son propos, le Secrétaire général a rappelé qu'après l'apparition de l'imprimerie, il avait fallu plus de cinquante ans pour que les livres soient largement disponibles en Europe, alors que ChatGPT a atteint 100 millions d'utilisateurs en seulement deux mois. Il a rappelé que le secteur financier estime que l'IA pourrait apporter entre 10 et 15 mille milliards de dollars à l'économie mondiale d'ici à 2030, que presque tous les gouvernements, toutes les grandes entreprises et toutes les organisations du monde travaillent à l'élaboration d'une stratégie en matière d'IA, mais que même ses propres concepteurs n'ont aucune idée de la direction que pourrait prendre leur stupéfiante percée technologique.

Estimant qu'elle pouvait donner un coup de fouet au développement mondial, à la lutte contre la crise climatique, à la recherche médicale, aux progrès en matière d'éducation, M. Guterres a aussi rappelé que le Haut-Commissaire aux droits de l'homme s'était inquiété du fait que l'IA pouvait amplifier les préjugés, renforcer les discriminations et permettre de nouveaux niveaux de surveillance autoritaire. Il a invité le Conseil à aborder cette technologie avec un sentiment d'urgence, une vision globale et un esprit d'apprentissage. Il a indiqué que l'IA est déjà mise au service de la paix et de la sécurité, y compris par l'ONU, notamment pour identifier les schémas de violence et surveiller les cessez-le-feu.

A contrario, le Secrétaire général s'est inquiété du fait qu'une utilisation malveillante de l'IA pourrait causer « des niveaux horribles de mort et de destruction » à une échelle inimaginable. Il a rappelé que les cyberattaques fondées sur l'IA visaient déjà des infrastructures critiques et les opérations de maintien de la paix et d'aide humanitaire de l'ONU, causant de grandes souffrances humaines. L'avènement de l'IA générative pourrait constituer un moment décisif pour la désinformation et les discours haineux, ajoutant une nouvelle dimension à la manipulation du comportement humain et contribuant à la polarisation et à l'instabilité à grande échelle, a-t-il averti, s'inquiétant notamment des graves conséquences que les « deepfakes » pourrait avoir sur la paix et la stabilité. Il a aussi évoqué les risques de sécurité imprévus que certains systèmes basés sur l'IA pourraient créer, citant notamment des réseaux sociaux utilisés pour compromettre des élections, diffuser des théories du complot et inciter à la haine et à la violence. Il a également jugé très inquiétants les risques de dysfonctionnement des systèmes d'IA en ce qui concerne les armes nucléaires, la biotechnologie, les neurotechnologies et la robotique.

« L'IA générative a un énorme potentiel de bien et de mal à grande échelle », a résumé M. Guterres, notant que ses créateurs eux-mêmes avaient prévenu que des risques beaucoup plus importants, « potentiellement existentiels », se profilent à l'horizon. Il a appelé à une approche universelle de la gouvernance de l'IA, soulignant les obstacles que constituait la large diffusion de modèles puissants d'IA, le peu de traces laissé par leur transfert, contrairement aux matières nucléaires, chimiques ou biologiques, ainsi que le rôle de premier plan joué par le secteur privé, qui a peu d'équivalents dans d'autres technologies stratégiques. Il s'est toutefois félicité de l'existence de « points de départ » comme les principes directeurs de 2018-2019 sur les systèmes d'armes létaux autonomes, adoptés dans le cadre de la Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques, indiquant qu'il était d'accord avec les très nombreux experts ayant recommandé l'interdiction de leur utilisation sans contrôle humain. Il a également cité d'autres recommandations relatives à l'IA adoptées par l'Organisation des Nations Unies pour l'éducation, la science et la culture (UNESCO) en 2021, ou encore par le Bureau de lutte contre le terrorisme ou l'Union internationale des télécommunications (UIT).

Le Secrétaire général s'est félicité des appels lancés par certains États Membres en faveur de la création d'une nouvelle entité des Nations Unies pour soutenir les efforts collectifs visant à régir l'IA, s'inspirant de modèles tels que l'Agence internationale de l'énergie atomique (AIEA), l'Organisation de l'aviation civile internationale (OACI) ou du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). L'objectif principal de cet organisme serait d'aider les pays à maximiser les avantages de l'IA pour le bien, à atténuer les risques existants et potentiels, et à établir et administrer des mécanismes de surveillance et de gouvernance convenus au niveau international, a-t-il précisé. Les gouvernements manquent cruellement de compétences dans ce domaine, a-t-il ajouté, affirmant qu'il convenait d'y remédier grâce à cette nouvelle entité des Nations Unies qui rassemblerait l'expertise, la mettrait à la disposition de la communauté internationale et pourrait également soutenir la collaboration en matière de recherche et de développement d'outils d'IA afin d'accélérer le développement durable. Il a indiqué avoir convoqué un organe consultatif multipartite de haut niveau pour l'intelligence artificielle, qui présentera un rapport sur les possibilités de gouvernance mondiale de l'IA d'ici à la fin de l'année.

M. Guterres a ajouté que sa prochaine note d'information sur un Nouvel Agenda pour la paix formulerait également des recommandations aux États Membres pour qu'ils élaborent des stratégies nationales conformes au droit international sur l'utilisation responsable de l'IA. La note d'orientation appellera également à la conclusion de négociations d'ici à 2026, sur la création d'un instrument juridiquement contraignant visant à interdire les systèmes d'armes autonomes létaux fonctionnant sans contrôle humain, contraires au droit international humanitaire.

Outre ces recommandations, le Secrétaire général a demandé instamment un accord sur le principe selon lequel le contrôle humain des armes nucléaires est essentiel et ne devrait jamais être supprimé. Il a estimé que le Sommet de l'avenir de 2024 serait l'occasion idéale de prendre des décisions sur bon nombre de ces questions interdépendantes.

Invitant instamment le Conseil de sécurité à jouer un rôle moteur dans le domaine de l'IA et à montrer la voie vers des mesures communes en matière de transparence, de responsabilité et de contrôle, M. Guterres a appelé à travailler ensemble pour développer une IA qui soit capable d'éradiquer la faim et la pauvreté, de guérir le cancer, de stimuler l'action climatique, afin d'atteindre les objectifs de développement durable.

M. JACK CLARK, cofondateur de Anthropic, une entreprise américaine d'intelligence artificielle fondée en 2021 et basée en Californie, a fait un bref tour d'horizon des raisons pour lesquelles l'intelligence artificielle (IA) préoccupe le monde entier. Il a aussi présenté les raisons pour lesquelles les États peuvent profiter de cette technologie. Il a d'abord jugé nécessaire de renforcer les capacités des États pour réguler le développement de cette technologie et en faire une initiative commune et non pas uniquement celle du secteur privé. M. Clark a rappelé qu'il y a un an, l'entreprise britannique DeepMind avait mis au point et lancé un jeu en ligne basé sur l'IA. Cette technologie a montré par la suite des capacités à simuler des avions militaires et même de fabriquer des semi-conducteurs.

En fait, l'IA peut être utilisée dans l'industrie pour réguler les lignes de production et améliorer la sécurité, a expliqué M. Clark. CHATGTP et d'autres systèmes sont le fruit des recherches d'entreprises privées, a rappelé l'intervenant, qui a ajouté qu'il fallait s'attendre à des systèmes encore plus puissants à l'avenir. De ce qui précède, a déclaré M. Clark, ce sera toujours le secteur privé qui continuera de bénéficier de cette technologie.

Le cofondateur de Anthropic a donc proposé deux démarches aux États. Il leur faut d'abord prévenir l'utilisation malveillante de l'IA et établir un principe de responsabilité. Pour ce qui est de la prévention, insistant sur les possibilités d'utilisation à mauvais escient de l'IA, il a invité à réfléchir à la mise en place d'un cadre d'évaluation des risques et à l'établissement du principe de responsabilité pour les entreprises privées. Il a suggéré que l'IA soit considérée comme une main d'œuvre qui peut être utilisée dans différentes tâches.

Insistant sur le risque de voir l'IA utilisée au bénéfice unique de celui ou ceux qui ont les moyens, M. Clark a encouragé les États à trouver les moyens de tester l'utilisation à mauvais escient de cette technologie. Il a cité à cet égard les initiatives de l'Union européenne, de la Chine et des États-Unis pour exhorter les autres États à investir dans un cadre de gestion de risques de l'utilisation de l'IA. Le secteur privé a une grande marge de manœuvre en l'absence de cadre de gestion de risques, de système d'évaluation robuste et vérifiable pour encadrer le monde vers lequel l'IA nous fait avancer, a-t-il affirmé. À défaut d'un cadre, nous mettons notre avenir entre les mains d'une poignée d'acteurs, a-t-il averti.

M. YI ZENG, de l'Institut d'automatisation de l'Académie chinoise des sciences, a estimé que le potentiel de l'intelligence artificielle pour faire avancer le développement durable mondial est tel que les gouvernements devraient examiner les moyens de l'appliquer aux soins de santé, à l'éducation et à l'action climatique. S'agissant de la paix et de la sécurité internationales, l'intelligence artificielle devrait contribuer à identifier la désinformation et les malentendus entre les États plutôt qu'être utilisée à des fins militaires et politiques. Afin qu'elle soit utilisée « pour connecter les cultures plutôt que pour les déconnecter », M. Zeng a créé un moteur d'interactions culturelles activé par l'intelligence artificielle permettant de trouver des points communs et des diversités entre les différents patrimoines culturels mondiaux répertoriés par l'Organisation des Nations Unies pour l'éducation, la science et la culture (UNESCO).

Aujourd'hui, l'intelligence artificielle est un outil de traitement de l'information qui semble intelligent, bien qu'il ne possède aucune compréhension réelle des données qu'il traite, a poursuivi le scientifique. Pour cette raison, nous ne pouvons pas lui faire confiance en tant qu'agent responsable pouvant aider les humains à prendre des décisions, a fait valoir M. Zeng. Prenant l'exemple des systèmes d'armes létaux autonomes, il a souligné que l'intelligence artificielle ne devrait pas être utilisée pour prendre directement des décisions sans contrôle humain efficace et responsable. De même, cette technologie ne saurait être applicable à l'automatisation des fonctions diplomatiques, en particulier les négociations entre différents pays, car elle pourrait exploiter à son compte les faiblesses humaines telles que la tricherie et la méfiance, avec des conséquences potentiellement catastrophiques pour l'humanité. Nous devrions utiliser des technologies génératives pour aider, mais ne jamais leur faire confiance pour remplacer la prise de décision humaine, a insisté M. Zeng.

Devant ce constat, M. Zeng a suggéré au Conseil de sécurité d'envisager la création d'un groupe de travail sur l'intelligence artificielle consacré à la paix et la sécurité internationales et chargé d'examiner les défis qui se font jour à court et long terme. Selon lui, de tels travaux permettraient de parvenir à un consensus scientifique et technique et de fournir un appui aux États Membres. Afin d'assurer la paix et la sécurité mondiales, il incombe selon lui aux Nations Unies de jouer un rôle central dans la mise en place d'un cadre de développement et de gouvernance de l'intelligence artificielle.

(à suivre...)