Le guide de l'ISC offre un cadre complet conçu pour combler le fossé entre les principes de haut niveau et les politiques pratiques et réalisables. Il répond au besoin urgent d’une compréhension commune des opportunités et des risques présentés par les technologies émergentes. Il s’agit d’un document essentiel pour ceux qui travaillent au niveau politique dans notre ère numérique en évolution rapide.
Le cadre explore le potentiel de l’IA et de ses dérivés dans une perspective globale, englobant le bien-être humain et sociétal ainsi que des facteurs externes tels que l’économie, la politique, l’environnement et la sécurité. Certains aspects de la liste de contrôle peuvent être plus pertinents que d’autres, selon le contexte, mais de meilleures décisions semblent plus probables si tous les domaines sont pris en compte, même si certains peuvent être rapidement identifiés comme non pertinents dans des cas particuliers. C’est la valeur inhérente d’une approche de liste de contrôle.
« À une époque marquée par une innovation technologique rapide et des défis mondiaux complexes, le cadre d'analyse complète et multidimensionnelle des impacts potentiels de l'ISC permet aux dirigeants de prendre des décisions éclairées et responsables. Cela garantit qu’à mesure que nous progressons technologiquement, nous le faisons en tenant soigneusement compte des implications éthiques, sociales et économiques ».
Peter Gluckman, président de l'ISC
Bien que des principes de haut niveau aient été promulgués par l'UNESCO, l'OCDE, la Commission européenne et l'ONU, entre autres, et que diverses discussions se poursuivent sur des questions potentielles de gouvernance, de réglementation, d'éthique et de sécurité, il existe un écart important entre ces principes et une cadre de gouvernance ou de réglementation. L'ISC répond à ce besoin à travers son nouveau guide destiné aux décideurs politiques.
Ce guide destiné aux décideurs politiques n’a pas pour but d’interdire un régime réglementaire, mais plutôt de suggérer un cadre analytique adaptatif et évolutif qui pourrait sous-tendre tout processus d’évaluation et de réglementation qui pourrait être développé par les parties prenantes, y compris les gouvernements et le système multilatéral.
« Ce cadre constitue une étape cruciale dans le débat mondial sur l’IA, car il fournit une base à partir de laquelle nous pouvons construire un consensus sur les implications de la technologie, aujourd’hui et à l’avenir ».
Hema Sridhar, ancien conseiller scientifique en chef, ministère de la Défense de Nouvelle-Zélande et aujourd'hui chercheur principal à l'Université d'Auckland, Nouvelle-Zélande.
Depuis octobre 2023, plusieurs initiatives nationales et multilatérales importantes ont été prises pour examiner plus en détail l’éthique et la sécurité de l’IA. Les implications de l’IA sur l’intégrité de certains de nos systèmes critiques, notamment financiers, gouvernementaux, juridiques et éducatifs, ainsi que sur différents systèmes de connaissances (y compris les connaissances scientifiques et autochtones), sont de plus en plus préoccupantes. Le cadre reflète davantage ces aspects.
Les commentaires reçus à ce jour des membres de l'ISC et de la communauté internationale des décideurs politiques se reflètent dans la version révisée du cadre analytique, qui est maintenant publiée comme guide pour les décideurs politiques.
Un guide pour les décideurs politiques : évaluer les technologies en développement rapide, notamment l'IA, les grands modèles de langage et au-delà
Ce document de discussion fournit les grandes lignes d’un cadre initial pour éclairer les multiples discussions mondiales et nationales en cours concernant l’IA.
Téléchargez le cadre à utiliser dans votre organisation
Nous fournissons ici l'outil-cadre sous forme de feuille Excel modifiable à utiliser dans votre organisation. Si vous préférez un format open source, veuillez contacter [email protected].
Introduction
Les technologies émergentes rapidement posent des problèmes difficiles en termes d’utilisation, de gouvernance et de réglementation potentielle. Les débats politiques et publics en cours sur l’intelligence artificielle (IA) et son utilisation ont mis ces questions au centre de l’attention. Des principes généraux pour l'IA ont été annoncés par l'UNESCO, l'OCDE, l'ONU et d'autres, y compris la Déclaration de Bletchley du Royaume-Uni, et des tentatives juridictionnelles émergentes pour réglementer certains aspects de la technologie à travers, par exemple, l'IA de l'Union européenne (UE). Act ou le récent décret exécutif américain sur l’IA.
Bien que l’utilisation de l’IA soit longuement discutée dans ces forums et dans d’autres, au-delà des clivages géopolitiques et dans des pays de tous niveaux de revenus, il subsiste un fossé ontologique entre l’élaboration de principes de haut niveau et leur mise en pratique par le biais de la réglementation, des politiques, de la gouvernance. ou des approches de gestion. Le chemin qui mène du principe à la pratique est mal défini, mais étant donné la nature et la cadence du développement et de l’application de l’IA, la variété des intérêts impliqués et l’éventail des applications possibles, aucune approche ne peut être trop générique ou prescriptive.
Pour ces raisons, la communauté scientifique non gouvernementale continue de jouer un rôle particulier. Le Conseil scientifique international (ISC) – avec ses membres pluralistes issus des sciences sociales et naturelles – a publié en octobre 2023 un document de discussion présentant un cadre analytique préliminaire prenant en compte les risques, les avantages, les menaces et les opportunités associés à l’évolution rapide de la technologie numérique. Bien qu’elle ait été développée pour prendre en compte l’IA, elle est intrinsèquement indépendante de la technologie et peut être appliquée à une gamme de technologies émergentes et disruptives, telles que la biologie synthétique et le quantique. Ce document de discussion sollicitait les commentaires des universitaires et des décideurs politiques. Les retours massifs ont rendu nécessaire la réalisation d’une telle analyse et se sont révélés être une approche précieuse pour aborder les technologies émergentes comme l’IA.
L'objectif de ce cadre est de fournir un outil pour informer toutes les parties prenantes – y compris les gouvernements, les négociateurs commerciaux, les régulateurs, la société civile et l'industrie – de l'évolution de ces technologies pour les aider à définir la manière dont elles pourraient considérer les implications, positives ou négatives, de la technologie elle-même, et plus particulièrement son application particulière. Ce cadre analytique a été élaboré indépendamment des intérêts du gouvernement et de l’industrie. Il est extrêmement pluraliste dans ses perspectives, englobant tous les aspects de la technologie et ses implications, sur la base de consultations et de commentaires approfondis.
Ce document de discussion destiné aux décideurs politiques n’a pas pour but d’interdire un régime réglementaire, mais plutôt de suggérer un cadre analytique adaptatif et évolutif qui pourrait sous-tendre tout processus d’évaluation et de réglementation qui pourrait être développé par les parties prenantes, y compris les gouvernements et le système multilatéral.
Alors que les décideurs à l’échelle mondiale et nationale envisagent des paramètres et des leviers politiques appropriés pour équilibrer les risques et les avantages d’une nouvelle technologie telle que l’IA, le cadre analytique se veut un outil complémentaire pour garantir que l’ensemble des implications potentielles soient correctement prises en compte.
Contexte : pourquoi un cadre analytique ?
L’émergence rapide de technologies avec la complexité et les implications de l’IA suscite de nombreuses affirmations très bénéfiques. Cependant, cela suscite également des craintes de risques importants, du niveau individuel au niveau géostratégique.1 Jusqu’à présent, une grande partie du débat a été considérée dans un sens binaire, dans la mesure où les opinions exprimées publiquement ont tendance à se situer aux extrémités du spectre. Les affirmations faites pour ou contre l’IA sont souvent hyperboliques et – compte tenu de la nature de la technologie – difficiles à évaluer.
Une approche plus pragmatique est nécessaire où l’hyperbole est remplacée par des évaluations calibrées et plus granulaires. La technologie de l’IA continuera d’évoluer et l’histoire montre que pratiquement toutes les technologies ont des utilisations à la fois bénéfiques et nuisibles. La question est donc la suivante : comment pouvons-nous obtenir les résultats bénéfiques de cette technologie, tout en réduisant le risque de conséquences néfastes, dont certaines pourraient avoir une ampleur existentielle ?
L’avenir est toujours incertain, mais il existe suffisamment de voix crédibles et expertes concernant l’IA et l’IA générative pour encourager une approche relativement prudente. En outre, une approche systémique est nécessaire, car l’IA est une classe de technologies largement utilisées et appliquées par de multiples types d’utilisateurs. Cela signifie que le contexte complet doit être pris en compte lors de l’examen des implications de toute utilisation de l’IA pour les individus, la vie sociale, la vie civique, la vie sociétale et dans le contexte mondial.
Contrairement à la plupart des autres technologies, pour les technologies numériques et connexes, le délai entre le développement, la sortie et l'application est extrêmement court, largement déterminé par les intérêts des sociétés ou agences de production. De par sa nature même – et étant donné qu’elle repose sur l’épine dorsale numérique – l’IA aura des applications qui se généraliseront rapidement, comme on l’a déjà vu avec le développement de grands modèles linguistiques. En conséquence, certaines propriétés peuvent n’apparaître qu’après la publication, ce qui signifie qu’il existe un risque de conséquences imprévues, à la fois malveillantes et bienveillantes.
Des dimensions importantes des valeurs sociétales, en particulier dans différentes régions et cultures, influenceront la façon dont toute utilisation est perçue et acceptée. En outre, les intérêts géostratégiques dominent déjà les débats, les intérêts souverains et multilatéraux se croisant continuellement, alimentant ainsi la concurrence et la division.
Jusqu'à présent, une grande partie de la réglementation d'une technologie virtuelle a été largement considérée sous l'angle des « principes » et de la conformité volontaire, bien qu'avec la loi européenne sur l'IA.2 et de la même manière, nous assistons à une évolution vers des réglementations plus exécutoires mais quelque peu étroites. La mise en place d’un système efficace de gouvernance technologique et/ou de réglementation à l’échelle mondiale ou nationale reste un défi et il n’existe pas de solution évidente. Plusieurs niveaux de prise de décision tenant compte des risques seront nécessaires tout au long de la chaîne, de l’inventeur au producteur, en passant par l’utilisateur, le gouvernement et le système multilatéral.
Bien que des principes de haut niveau aient été promulgués par l'UNESCO, l'OCDE, la Commission européenne et l'ONU, entre autres, et que diverses discussions de haut niveau se poursuivent sur des questions potentielles de gouvernance, de réglementation, d'éthique et de sécurité, il existe un écart important entre ces principes. principes et un cadre de gouvernance ou de réglementation. Cela doit être pris en compte.
Comme point de départ, l'ISC envisage de développer une taxonomie de considérations à laquelle tout développeur, régulateur, conseiller politique, consommateur ou décideur pourrait se référer. Compte tenu des vastes implications de ces technologies, une telle taxonomie doit considérer l’ensemble des implications plutôt qu’un cadre étroitement ciblé. La fragmentation mondiale s’accentue en raison de l’influence des intérêts géostratégiques sur la prise de décision, et compte tenu de l’urgence de cette technologie, il est essentiel que des voix indépendantes et neutres défendent avec persistance une approche unifiée et inclusive.
1) Temps de l'Hindoustan. 2023. Le G20 doit mettre en place un panel international sur les changements technologiques.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) La loi européenne sur l’intelligence artificielle. 2023. https://artificialintelligenceact.eu
L’élaboration d’un cadre d’analyse
L'ISC est la principale organisation non gouvernementale mondiale intégrant les sciences naturelles et sociales. Sa portée mondiale et disciplinaire signifie qu'il est bien placé pour générer des conseils indépendants et pertinents à l'échelle mondiale pour éclairer les choix complexes à venir, d'autant plus que les voix actuelles dans ce domaine proviennent en grande partie de l'industrie ou des communautés politiques des grandes puissances technologiques.
Après une période de discussions approfondies, qui comprenait l'examen d'un processus d'évaluation non gouvernemental, l'ISC a conclu que sa contribution la plus utile serait de produire un cadre analytique adaptatif pouvant être utilisé comme base de discours et de prise de décision par tous. parties prenantes, y compris lors de tout processus d’évaluation formel qui émerge.
Le cadre analytique préliminaire, qui a été publié pour discussion et commentaires en octobre 2023, a pris la forme d'une liste de contrôle globale conçue pour être utilisée par les institutions gouvernementales et non gouvernementales. Le cadre a identifié et exploré le potentiel d’une technologie telle que l’IA et ses dérivés dans une perspective large qui englobe le bien-être humain et sociétal, ainsi que des facteurs externes tels que l’économie, la politique, l’environnement et la sécurité. Certains aspects de la liste de contrôle peuvent être plus pertinents que d’autres, selon le contexte, mais de meilleures décisions semblent plus probables si tous les domaines sont pris en compte, même si certains peuvent être rapidement identifiés comme non pertinents dans des cas particuliers. C’est la valeur inhérente d’une approche de liste de contrôle.
Le cadre préliminaire est dérivé de travaux et de réflexions antérieurs, notamment du rapport de l'International Network for Governmental Science Advice (INGSA) sur le bien-être numérique3 et du cadre de l'OCDE pour la classification des systèmes d'IA,4 pour présenter l'ensemble des opportunités, des risques et des impacts potentiels. de l’IA. Ces produits précédents avaient une intention plus restreinte compte tenu de leur époque et de leur contexte ; il est nécessaire de disposer d’un cadre global qui présente l’ensemble des questions à court et à long terme.
Depuis sa publication, le document de travail a reçu un soutien important de la part de nombreux experts et décideurs politiques. Beaucoup ont spécifiquement approuvé la recommandation visant à développer un cadre adaptatif permettant une prise en compte délibérée et proactive des risques et des implications de la technologie et, ce faisant, prenant toujours en compte la totalité des dimensions, de l'individu à la société et aux systèmes.
L’une des principales observations formulées à travers les commentaires a été la reconnaissance du fait que plusieurs des implications prises en compte dans le cadre sont intrinsèquement multiformes et s’étendent à plusieurs catégories. Par exemple, la désinformation pourrait être considérée à la fois sous l’angle individuel et géostratégique ; les conséquences seraient donc vastes.
L'option d'inclure des études de cas ou des exemples pour tester le cadre a également été suggérée. Cela pourrait être utilisé pour élaborer des lignes directrices démontrant comment elles pourraient être utilisées en pratique dans différents contextes. Cependant, cela représenterait une entreprise importante et pourrait limiter la façon dont différents groupes perçoivent l’utilisation de ce cadre. Il est préférable que les décideurs politiques travaillent avec des experts dans des juridictions ou des contextes spécifiques.
Depuis octobre 2023, plusieurs initiatives nationales et multilatérales importantes ont été prises pour examiner plus en détail l’éthique et la sécurité de l’IA. Les implications de l’IA sur l’intégrité de certains de nos systèmes critiques, notamment financiers, gouvernementaux, juridiques et éducatifs, ainsi que sur différents systèmes de connaissances (y compris les connaissances scientifiques et autochtones), sont de plus en plus préoccupantes. Le cadre révisé reflète davantage ces aspects.
Les commentaires reçus à ce jour se reflètent dans la version révisée du cadre analytique, qui est désormais publiée comme guide à l'intention des décideurs politiques.
Bien que le cadre soit présenté dans le contexte de l’IA et des technologies associées, il est immédiatement transférable aux considérations d’autres technologies émergentes rapidement telles que la biologie quantique et synthétique.
3) Gluckman, P. et Allen, K. 2018. Comprendre le bien-être dans le contexte des transformations numériques rapides et associées. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OCDE. 2022. Cadre de l'OCDE pour la classification des systèmes d'IA. Documents de l'OCDE sur l'économie numérique, n° 323,#. Paris, Éditions OCDE.
https://oecd.ai/en/classificatio
Le cadre
Le tableau suivant présente les dimensions d’un cadre analytique putatif. Des exemples sont fournis pour illustrer pourquoi chaque domaine peut être important ; dans son contexte, le cadre nécessiterait une expansion contextuellement pertinente. Il est également important de faire la distinction entre les problèmes génériques qui surviennent lors du développement de plateformes et ceux qui peuvent surgir lors d’applications spécifiques. Aucune des considérations incluses ici ne doit être traitée comme une priorité et, à ce titre, toutes doivent être examinées.
Les problèmes sont globalement regroupés dans les catégories suivantes, comme indiqué ci-dessous :
Le tableau détaille les dimensions qui pourraient devoir être prises en compte lors de l'évaluation d'une nouvelle technologie.
🔴INGSA. 2018. Comprendre le bien-être dans le contexte des transformations numériques rapides et associées.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
🟢 Nouveaux descripteurs (issus d'une consultation approfondie, de commentaires et d'une revue de la littérature)
🟡 Cadre de l'OCDE pour la classification des systèmes d'IA : un outil pour des politiques d'IA efficaces.
https://oecd.ai/en/classification
Critères | Exemples de la façon dont cela peut être reflété dans l'analyse |
🟡Compétence IA des utilisateurs | Dans quelle mesure les utilisateurs susceptibles d'interagir avec le système sont-ils compétents et conscients des propriétés du système ? Comment recevront-ils les informations utilisateur et les mises en garde pertinentes ? |
🟡 Partie prenante impactée | Quelles sont les principales parties prenantes qui seront touchées par le système (individus, communautés, personnes vulnérables, travailleurs du secteur, enfants, décideurs politiques, professionnels, etc.) ? |
🟡 Optionnalité | Les utilisateurs ont-ils la possibilité de se retirer du système ou ont-ils la possibilité de contester ou de corriger le résultat ? |
🟡Risques pour les droits de l'homme et les valeurs démocratiques | Le système a-t-il un impact fondamental sur les droits de l'homme, y compris, mais sans s'y limiter, la vie privée, la liberté d'expression, l'équité, la non-discrimination, etc. ? |
🟡Effets potentiels sur le bien-être des personnes | Les domaines d'impact du système sont-ils liés au bien-être de l'utilisateur individuel (qualité de l'emploi, éducation, interactions sociales, santé mentale, identité, environnement, etc.) ? |
🟡 Potentiel de déplacement de main-d'œuvre humaine | Existe-t-il un potentiel pour que le système automatise des tâches ou des fonctions exécutées par des humains ? Si oui, quelles sont les conséquences en aval ? |
🟡 Potentiel de manipulation d'identité, de valeurs ou de connaissances | Le système est-il conçu ou potentiellement capable de manipuler l'identité ou l'identité de l'utilisateur ? définir des valeurs ou diffuser de la désinformation ? |
🔴 Possibilités d'expression de soi et de réalisation de soi | Existe-t-il un potentiel d’artifice et de doute de soi ? Y a-t-il un risque de faux ou des revendications d'expertise invérifiables ? |
🔴 Mesures de l'estime de soi | Y a-t-il une pression pour représenter un moi idéalisé ? L'automatisation pourrait-elle remplacer un sentiment d'épanouissement personnel ? Y a-t-il des pressions pour concurrencer le système dans le lieu de travail? La réputation individuelle est-elle plus difficile à protéger contre la désinformation ? |
🔴 Confidentialité | Existe-t-il des responsabilités diffuses en matière de protection de la vie privée et existe-t-il des Des hypothèses sont-elles formulées sur la manière dont les données personnelles sont utilisées ? |
🔴Autonomie | Le système d’IA pourrait-il affecter l’autonomie humaine en générant une dépendance excessive les utilisateurs finaux? |
🔴 Développement humain | Y a-t-il un impact sur l’acquisition de compétences clés pour le développement humain, telles que fonctions exécutives ou compétences interpersonnelles, ou changements dans le temps d'attention affectant apprentissage, développement de la personnalité, problèmes de santé mentale, etc. ? |
🔴 Soins de santé personnels | Existe-t-il des allégations d'autodiagnostic ou de solutions de soins de santé personnalisées ? Le cas échéant, sont-ils validés selon les normes réglementaires ? |
🔴 Santé mentale | Y a-t-il un risque accru d’anxiété, de solitude ou d’autres problèmes de santé mentale, ou la technologie peut-elle atténuer de tels impacts ? |
🟢 L'évolution humaine | Les grands modèles linguistiques et l’intelligence artificielle générale pourraient-ils changer la donne ? cours de l'évolution humaine ? |
🟢 Interaction homme-machine | Cette consommation pourrait-elle conduire à une déqualification et à une dépendance au fil du temps pour les individus ? Sont y a-t-il des impacts sur l’interaction humaine ? |
Critères | Exemples de la façon dont cela peut être reflété dans l'analyse |
🔴 Valeurs sociétales | Le système change-t-il fondamentalement la nature de la société, permet-il la normalisation d’idées auparavant considérées comme antisociales ou viole-t-il les valeurs sociétales de la culture dans laquelle il est appliqué ? |
🔴 Interactions sociales | Y a-t-il un effet sur les contacts humains significatifs, y compris les relations émotionnelles ? |
🔴 Santé des populations | Le système risque-t-il de faire progresser ou de miner les intentions en matière de santé de la population ? |
🔴Expression culturelle | Une augmentation de l’appropriation culturelle ou de la discrimination est-elle probable ou plus difficile à gérer ? Le recours au système pour la prise de décision exclut-il ou marginalise-t-il les liens sectaires culturellement pertinents de la société ? |
🔴Éducation publique | Y a-t-il un effet sur les rôles des enseignants ou sur les établissements d’enseignement ? Le système accentue-t-il ou réduit-il la fracture numérique et les inégalités entre étudiants ? La valeur intrinsèque de la connaissance ou de la compréhension critique est-elle avancée ou affaiblie ? |
🟢 Réalités déformées | Les méthodes utilisées pour discerner ce qui est vrai sont-elles toujours applicables ? La perception de la réalité est-elle compromise ? |
Critères | Exemples de la façon dont cela peut être reflété dans l'analyse |
🟡 Secteur industriel | Dans quel secteur industriel le système est-il déployé (finance, agriculture, santé, éducation, défense, etc.) ? |
🟡 Modèle économique | Dans quelle fonction commerciale le système est-il utilisé et à quel titre ? Où le système est-il utilisé (privé, public, à but non lucratif) ? |
🟡 Impacts sur les activités critiques | Une perturbation du fonctionnement ou de l'activité du système affecterait-elle les services essentiels ou les infrastructures critiques ? |
🟡Étendue du déploiement | Comment le système est-il déployé (utilisation restreinte au sein de l’unité ou généralisée à l’échelle nationale/internationale) ? |
🟡 Maturité technique | Quelle est la maturité technique du système ? |
🟢 Interopérabilité | Existe-t-il des cloisonnements, au niveau national ou mondial, qui entravent le libre-échange et ont un impact sur la coopération avec les partenaires ? |
🟢 Souveraineté technologique | Le désir de souveraineté technologique détermine-t-il les comportements, y compris le contrôle de l’ensemble de la chaîne d’approvisionnement de l’IA ? |
🔴 Redistribution des revenus et leviers fiscaux nationaux | Les rôles fondamentaux de l'État souverain pourraient-ils être compromis (par exemple, les banques de réserve) ? La capacité de l'État à répondre aux attentes des citoyens et à leurs implications (sociales, économiques, politiques, etc.) sera-t-elle renforcée ou réduite ? |
🟢 Fracture numérique (fracture IA) | Les inégalités numériques existantes sont-elles exacerbées ou de nouvelles créées ? |
Critères | Exemples de la façon dont cela peut être reflété dans l'analyse |
🔴 Gouvernance et service public | Les mécanismes de gouvernance et le système de gouvernance mondiale pourraient-ils être affectés positivement ou négativement ? |
🔴 Médias d'information | Le discours public est-il susceptible de devenir polarisé et ancré au niveau de la population ? Y aura-t-il un effet sur les niveaux de confiance dans le Quatrième Pouvoir ? Les normes conventionnelles d’éthique et d’intégrité des journalistes seront-elles davantage affectées ? |
🔴 État de droit | Y aura-t-il un effet sur la capacité d'identifier les individus ou les organisations à tenir responsables (par exemple, quel type de responsabilité attribuer à un algorithme en cas de résultats indésirables) ? Y a-t-il une perte de souveraineté créée (politique environnementale, fiscale, sociale, éthique, etc.) ? |
🔴Politique et cohésion sociale | Existe-t-il une possibilité d’opinions politiques plus ancrées et moins de possibilités de parvenir à un consensus ? Existe-t-il une possibilité de marginaliser davantage les groupes ? Les styles politiques contradictoires sont-ils plus ou moins probables ? |
🟢 Licence sociale | Existe-t-il des problèmes de confidentialité, des problèmes de confiance et des préoccupations morales qui doivent être pris en compte pour que les parties prenantes acceptent l'utilisation ? |
🟢 Savoir autochtone | Les connaissances et les données autochtones pourraient-elles être corrompues ou détournées ? Existe-t-il des mesures adéquates pour se protéger contre les fausses déclarations, la désinformation et l’exploitation ? |
🟢 Système scientifique | L’intégrité académique et de recherche est-elle compromise ? Y a-t-il une perte de confiance dans la science ? Existe-t-il des possibilités de mauvaise utilisation, de surutilisation ou d’abus ? Quelle est la conséquence de la pratique de la science ? |
Critères | Exemples de la façon dont cela peut être reflété dans l'analyse |
🟢 Surveillance de précision | Les systèmes sont-ils formés sur des données comportementales et biologiques individuelles et pourraient-ils être utilisés pour exploiter des individus ou des groupes ? |
🟢 Concours numérique | Des acteurs étatiques ou non étatiques (par exemple les grandes entreprises technologiques) pourraient-ils exploiter les systèmes et les données pour comprendre et contrôler les populations et les écosystèmes d'autres pays, ou saper le contrôle juridictionnel ? |
🟢 Compétition géopolitique | Le système pourrait-il attiser la concurrence entre les nations pour exploiter les données individuelles et collectives à des fins économiques, médicales et sécuritaires ? |
🟢 Changement des puissances mondiales | Le statut des États-nations en tant que principaux acteurs géopolitiques du monde est-il menacé ? Les entreprises technologiques exercent-elles un pouvoir autrefois réservé aux États-nations et sont-elles devenues des acteurs indépendants et souverains (ordre mondial technopolaire émergent) ? |
🟢 Désinformation | Le système faciliterait-il la production et la diffusion de désinformation par des acteurs étatiques et non étatiques, avec un impact sur la cohésion sociale, la confiance et la démocratie ? |
🟢 Applications à double usage | Existe-t-il une possibilité d’application à la fois militaire et civile ? |
🟢 Fragmentation de l'ordre mondial | Des silos ou des clusters de réglementation et de conformité pourraient-ils se développer, entravant la coopération, conduire à des incohérences dans l’application et créer des terrains de conflit ? |
Critères | Exemples de la façon dont cela peut être reflété dans l'analyse |
🟢 Consommation d'énergie et de ressources (empreinte carbone) | Le système et les exigences augmentent-ils la consommation d’énergie et de ressources au-delà des gains d’efficacité obtenus grâce à l’application ? |
🟢Source d'énergie | D'où provient l'énergie du système (combustibles renouvelables ou fossiles, etc.) ? |
Critères | Exemples de la façon dont cela peut être reflété dans l'analyse |
🟡 Direction et collecte | Les données et les entrées sont-elles collectées par des humains, des capteurs automatisés ou les deux ? |
🟡 Provenance des données | Les données et les contributions des experts sont-elles fournies, observées, synthétiques ou dérivées ? Existe-t-il des protections en filigrane pour confirmer la provenance ? |
🟡 Caractère dynamique des données | Les données sont-elles dynamiques, statiques, dynamiques mises à jour de temps en temps ou en temps réel ? |
🟡 Droits | Les données sont-elles propriétaires, publiques ou personnelles (liées à des personnes identifiables) ? |
🟡 Identifiabilité et données personnelles | Si elles sont personnelles, les données sont-elles anonymisées ou pseudonymisées ? |
🟡 Structure des données | Les données sont-elles structurées, semi-structurées, structurées de manière complexe ou non structurées ? |
🟡 Format des données | Le format des données et métadonnées est-il standardisé ou non ? |
🟡 Échelle des données | Quelle est l’échelle de l’ensemble de données ? |
🟡 Pertinence et qualité des données | L’ensemble de données est-il adapté à l’objectif ? La taille de l’échantillon est-elle adéquate ? Est-il suffisamment représentatif et complet ? Dans quelle mesure les données sont-elles bruitées ? Est-ce sujet aux erreurs ? |
Critères | Exemples de la façon dont cela peut être reflété dans l'analyse |
🟡 Disponibilité des informations | Existe-t-il des informations disponibles sur le modèle du système ? |
🟡 Type de modèle d'IA | Le modèle est-il symbolique (règles générées par l’homme), statistique (utilise des données) ou hybride ? |
🟡 Droits associés au modèle | Le modèle est-il open source ou propriétaire, géré par vous-même ou par un tiers ? |
🟡 Modèle unique parmi plusieurs | Le système est-il composé d’un seul modèle ou de plusieurs modèles interconnectés ? |
🟡 Génératif ou discriminant | Le modèle est-il génératif, discriminant ou les deux ? |
🟡 Construction de maquettes | Le système apprend-il sur la base de règles écrites par l’homme, à partir de données, via un apprentissage supervisé ou via un apprentissage par renforcement ? |
🟡 Evolution du modèle (dérive de l'IA) | Le modèle évolue-t-il et/ou acquiert-il des capacités en interagissant avec les données du terrain ? |
🟡 Apprentissage fédéré ou central | Le modèle est-il formé de manière centralisée ou sur plusieurs serveurs locaux ou appareils « périphériques » ? |
🟡 Développement/maintenance | Le modèle est-il universel, personnalisable ou adapté aux données de l'acteur de l'IA ? |
🟡 Déterministe ou probabiliste | Le modèle est-il utilisé de manière déterministe ou probabiliste ? |
🟡 Transparence du modèle | Les informations sont-elles disponibles pour les utilisateurs pour leur permettre de comprendre les résultats et les limites du modèle ou les contraintes d'utilisation ? |
🟢 Limitation du calcul | Y a-t-il des limites informatiques au système ? Est-il possible de prédire les sauts de capacité ou les lois d’échelle ? |
Critères | Exemples de la façon dont cela peut être reflété dans l'analyse |
🟡 Tâche(s) effectuée(s) par le système | Quelles tâches le système effectue-t-il (reconnaissance, détection d'événements, prévision, etc.) ? |
🟡 Combiner tâches et actions | Le système combine-t-il plusieurs tâches et actions (systèmes de génération de contenu, systèmes autonomes, systèmes de contrôle, etc.) ? |
🟡 Niveau d'autonomie du système | Dans quelle mesure les actions du système sont-elles autonomes et quel rôle jouent les humains ? |
🟡 Degré d'implication humaine | Existe-t-il une certaine implication humaine pour superviser l’activité globale du système d’IA et la capacité de décider quand et comment utiliser le système d’IA dans n’importe quelle situation ? |
🟡Application principale | Le système appartient-il à un domaine d’application principal tel que les technologies du langage humain, la vision par ordinateur, l’automatisation et/ou l’optimisation ou la robotique ? |
🟡 Évaluation | Existe-t-il des normes ou des méthodes pour évaluer les résultats du système ? |
Comment ce cadre pourrait-il être utilisé ?
Ce cadre pourrait être utilisé de plusieurs manières, notamment :
Une voie à suivre
En résumé, le cadre analytique est fourni comme base d'une boîte à outils qui pourrait être utilisée par les parties prenantes pour examiner de manière exhaustive tout développement significatif des plates-formes ou de leur utilisation, de manière cohérente et systématique. Les dimensions présentées dans ce cadre sont pertinentes depuis l’évaluation technologique jusqu’aux politiques publiques, du développement humain à la sociologie, en passant par les études sur l’avenir et la technologie. Bien que développé pour l’IA, ce cadre analytique a une application beaucoup plus large à toute autre technologie émergente.
6 Conseil consultatif de l’ONU sur l’IA. 2023. Rapport intermédiaire : Gouverner l’IA pour l’humanité. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Remerciements
De nombreuses personnes ont été consultées et ont fourni des commentaires lors de l'élaboration du document de discussion initial et des commentaires après sa publication. Les deux documents ont été rédigés par Sir Peter Gluckman, président de l'ISC, et Hema Sridhar, ancien conseiller scientifique en chef du ministère de la Défense de Nouvelle-Zélande et aujourd'hui chercheur principal à l'Université d'Auckland, en Nouvelle-Zélande.
En particulier, l'ISC Lord Martin Rees, ancien président de la Royal Society et co-fondateur du Centre d'étude des risques existentiels, Université de Cambridge ; Professeur Shivaji Sondhi, professeur de physique, Université d'Oxford ; Professeur K Vijay Raghavan, ancien conseiller scientifique principal du gouvernement indien ; Amandeep Singh Gill, envoyé du secrétaire général de l'ONU pour la technologie ; Seán Ó hÉigeartaigh, directeur exécutif, Centre d'étude des risques existentiels, Université de Cambridge ; Sir David Spiegelhalter, professeur Winton de compréhension publique du risque, Université
de Cambridge; Amanda-June Brawner, conseillère politique principale et Ian Wiggins, directeur des affaires internationales, Royal Society, Royaume-Uni ; Dr Jérôme Duberry, directeur général et Dr Marie-Laure Salles, directrice du Geneva Graduate Institute ; Chor Pharn Lee, Centre pour les futurs stratégiques, Bureau du Premier ministre, Singapour ; Barend Mons et Dr Simon Hodson, du Comité sur les données (CoDATA) ; Professeur Yuko Harayama, ancien directeur exécutif, RIKEN ; Professeur
Rémi Quirion, président, INGSA; Dr Claire Craig, Université d'Oxford et ancienne responsable de la prospective, Bureau gouvernemental des sciences ; Professeur Yoshua Bengio, Conseil consultatif scientifique du secrétaire général de l'ONU et de l'Université de Montréal ; et les nombreux autres qui ont fourni des commentaires à l'ISC sur le document de discussion initial.
Préparer les écosystèmes nationaux de recherche à l’IA : stratégies et progrès en 2024
Ce document de travail du groupe de réflexion de l'ISC, le Center for Science Futures, fournit des informations fondamentales et un accès aux ressources de pays du monde entier, à différentes étapes de l'intégration de l'IA dans leurs écosystèmes de recherche.