Les législateurs européens et américains s'apprêtent à rédiger rapidement un code de conduite sur l'IA
L'Union européenne a utilisé un atelier de discussion transatlantique sur le commerce et la technologie pour s'engager à agir rapidement et à produire un projet de code de conduite pour l'intelligence artificielle, en collaboration avec ses homologues américains et dans l'espoir que les gouvernements d'autres régions, y compris l'Indonésie et l'Inde, voudront être impliqué.
Ce qui est prévu est un ensemble de normes pour l'application de l'IA pour combler le fossé, avant l'adoption d'une législation pour réglementer les utilisations de la technologie dans les pays et régions respectifs du monde.
Il reste à voir si les géants de l'IA accepteront de se conformer à ce qui sera des normes volontaires (non juridiquement contraignantes). Mais les acteurs influents de cet espace peuvent s'attendre à être encouragés à le faire par les législateurs des deux côtés de l'Atlantique – et bientôt, l'UE appelant à ce que le code soit rédigé d'ici quelques semaines. (Et, eh bien, étant donné la clameur croissante du PDG de l'industrie technologique qui crie pour la réglementation de l'IA, il serait assez hypocrite pour les dirigeants dans le domaine de faire entendre leur voix à un code volontaire.)
S'exprimant à l'issue d'une table ronde sur l'IA générative qui s'est tenue lors de la quatrième réunion du Conseil US-EU Trade & Tech (TTC) qui se déroulait en Suède cette semaine - avec le panel entendant des parties prenantes, dont le PDG d'Anthropic Dario Amodei et le président de Microsoft, Brad Smith – la vice-présidente exécutive de l'Union européenne, Margrethe Vestager, qui dirige la concurrence et la stratégie numérique du bloc, a signalé son intention de se mettre au travail.
"Nous serons très encouragés à partir d'ici. Pour produire un projet. Pour inviter des partenaires mondiaux à se joindre à nous. Pour couvrir autant que possible", a-t-elle déclaré. "Et nous en ferons une question d'urgence absolue pour avoir un tel code de conduite d'IA pour une inscription volontaire."
La TTC a été créée en 2021, dans le sillage de la présidence Trump, alors que les législateurs européens et américains cherchaient à rétablir la confiance et à trouver des moyens de coopérer sur les questions de gouvernance technologique et de commerce.
Vestager a décrit l'IA générative comme un "changement sismique" et un "changement de catégorie" qui, selon elle, exige une réponse réglementaire en temps réel.
"Maintenant, la technologie s'accélère à un degré complètement différent de ce que nous avons vu auparavant", a-t-elle déclaré. "Donc, évidemment, quelque chose doit être fait pour tirer le meilleur parti de cette nouvelle technologie… Nous parlons d'une technologie qui se développe au mois, donc ce que nous avons conclu ici à ce TTC, c'est que nous devrions prendre une initiative pour obtenir autant d'autres pays à bord sur un code de conduite d'IA pour que les entreprises s'y inscrivent volontairement."
Alors que Vestager a qualifié la contribution de l'industrie de "très bienvenue", elle a indiqué que - du côté de l'UE au moins - l'intention est que les législateurs élaborent des dispositions de sécurité et que les entreprises acceptent de se joindre à nous et d'appliquer les normes, plutôt que de laisser les entreprises conduire les choses en suggérant un strict minimum sur les normes (et / ou en cherchant à recadrer la sécurité de l'IA pour se concentrer sur les menaces futures existentielles plutôt que sur les dommages existants) et les législateurs avalant l'appât.
"Nous n'oublierons pas qu'il existe d'autres types d'intelligence artificielle, évidemment", a-t-elle poursuivi. "Il y a un certain nombre de choses qui doivent être faites. Mais le fait est que nous devons montrer que la démocratie est à la hauteur parce que les procédures législatives doivent prendre leur temps, c'est la nature de la législation. Mais c'est un moyen pour démocraties pour répondre en temps réel à une question qui est vraiment, vraiment devant nous en ce moment. Et je trouve cela très encourageant de le faire et j'ai hâte de travailler avec autant de personnes que possible en profondeur et très rapidement.
L'UE est en avance sur la courbe réglementaire en matière d'IA puisqu'elle a déjà un projet de législation sur la table. Mais le cadre basé sur les risques présenté par la Commission, en avril 2021, est toujours en train de se frayer un chemin dans la co-législative du bloc – une boucle chez les législateurs du Conseil européen et du Parlement (et pour avoir une idée de la vie de ce processus, les parlementaires ont récemment amendements proposés ciblant l'IA générative) - il n'y a donc aucune perspective immédiate que ces règles strictes s'appliquent à l'IA générative ou à tout autre type d'IA.
Même avec les perspectives les plus optimistes pour l'adoption de la loi sur l'IA par l'UE, Vestager a suggéré aujourd'hui qu'il faudrait deux ou trois ans avant que ces règles strictes ne mordent. D'où l'urgence du bloc pour des mesures palliatives.
Gina Raimondo, secrétaire d'État américaine au Commerce, était également présente à la réunion du TTC, qui a indiqué la volonté de l'administration Biden d'engager une discussion en vue de l'élaboration d'un code de conduite volontaire de l'IA. Bien qu'elle ait gardé ses cartes près de sa poitrine sur le type de normes que les États-Unis pourraient être à l'aise d'imposer à ce qui sont principalement des géants américains de l'IA.
"[IA] arrive à un rythme sans précédent", a observé Raimondo. "Comme d'autres technologies, nous constatons déjà des problèmes de confidentialité des données, d'utilisation abusive, de ce qui se passe lorsque les modèles tombent entre les mains d'acteurs malveillants, de désinformation. Contrairement à d'autres technologies, le rythme de l'innovation est à un rythme effréné, ce qui est différent et un bâton de hockey qui n'existe pas dans d'autres technologies.
"À cet égard, je pense que la TTC pourrait jouer un rôle incroyablement pertinent car il faudra un peu de temps au Congrès américain, au parlement ou à d'autres agences de réglementation pour rattraper son retard. Alors que le risque pour certaines IA est aujourd'hui. Et nous nous engageons donc à faire en sorte que la TTC fournisse un forum pour l'engagement des parties prenantes, l'engagement du secteur privé, l'engagement de nos entreprises, pour déterminer ce que nous pouvons faire ici et maintenant pour atténuer les risques de l'IA, mais aussi pour ne pas étouffer l'innovation. Et c'est un vrai challenge"
"Alors que nous découvrons les avantages de l'IA, j'espère que nous sommes tous très ouverts sur les coûts et que nous analysons si nous devons le faire", a-t-elle également averti. "Je pense que si nous sommes tous honnêtes avec nous-mêmes à propos des autres technologies, y compris les médias sociaux, nous aurions probablement aimé ne pas avoir fait les choses même si nous aurions pu. Vous savez, nous aurions pu, mais nous aurions dû le faire ? Et alors travaillons ensemble pour bien faire les choses, car les enjeux sont beaucoup plus élevés. »
Outre des législateurs de haut niveau, la table ronde a entendu une poignée de groupes de l'industrie et de la société civile, apportant des points de vue sur l'impératif et / ou le défi de réglementer un domaine technologique en évolution rapide.
Amodei d'Anthropic a fait l'éloge de la conversation transatlantique en cours autour de l'élaboration des règles de l'IA. Ce qui signale probablement un soulagement que les États-Unis s'impliquent activement dans l'élaboration de normes qui pourraient autrement être exclusivement dirigées par Bruxelles.
La majeure partie de ses remarques sonnait une note sceptique sur la façon de garantir que les systèmes d'IA sont vraiment sûrs avant leur sortie, ce qui implique que nous n'avons pas encore de techniques pour créer des garde-corps fiables autour de ces outils de changement de forme. Il a également suggéré qu'il devrait y avoir un engagement conjoint des États-Unis et de l'UE pour financer le développement de "normes et d'évaluation" pour l'IA - plutôt que d'appeler à un audit algorithmique ici et maintenant.
"Quand je pense à la vitesse à laquelle cette technologie apporte de nouvelles sources d'énergie dans le monde, combinée à la menace résurgente des autocraties que nous constatons depuis un an, il me semble qu'il est d'autant plus important que nous travailler ensemble pour prévenir les dommages [de l'IA] et défendre nos valeurs démocratiques communes. Et la TTC semble être un forum essentiel pour le faire », a-t-il déclaré au début de son temps imparti avant de prédire que les développements de l'IA continueraient d'arriver à un clip stable et exposant certaines de ses principales préoccupations – notamment en soulignant la «mesure» de la sécurité de l'IA comme un défi.
"Ce que nous allons pouvoir faire d'ici un à quatre ans, ce sont des choses qui semblent impossibles maintenant. C'est, je dirais, s'il y a un fait central à connaître dans le domaine de l'IA, c'est le fait central à connaître Et bien qu'il y ait de nombreuses opportunités positives à venir, je m'inquiète beaucoup des risques - en particulier dans le domaine de la cybersécurité, de la biologie, des choses comme la désinformation, où je pense qu'il y a un potentiel de grande destruction", a-t-il déclaré. "A plus long terme, je m'inquiète même des risques de systèmes véritablement autonomes. C'est un peu plus éloigné.
"En ce qui concerne la mesure, je pense que nous sommes très habitués à - lorsque nous pensons à la réglementation de technologies comme les automobiles ou les avions - nous mesurons la sécurité comme un domaine sécurisé; vous avez un ensemble donné de tests que vous pouvez exécuter pour dire si le système est sûr. L'IA est bien plus un far west que cela. Vous pouvez demander à un système d'IA de faire n'importe quoi en langage naturel et il peut répondre de la manière qu'il choisit de répondre.
"Vous pourriez essayer de demander à un système 10 façons différentes s'il peut mener, disons, une cyberattaque dangereuse et constater qu'il ne le fera pas. Mais vous avez oublié de lui demander une 11e façon qui aurait montré ce comportement dangereux. Une phrase que j'ai comme utiliser est "personne ne sait de quoi un système d'IA est capable jusqu'à ce qu'il soit déployé sur un million de personnes". Et bien sûr, c'est une mauvaise chose, n'est-ce pas ? Nous ne voulons pas déployer ces choses dans ce cowboy-ish Et donc cette difficulté à détecter les capacités dangereuses est un énorme obstacle à leur atténuation.
La contribution semblait destinée à faire pression contre tout test rigoureux des capacités de l'IA inclus dans le prochain code de conduite - en cherchant à lancer la boîte sur la route.
"Cette difficulté à détecter les capacités dangereuses est un énorme obstacle à leur atténuation", a-t-il suggéré, tout en concédant que "certaines sortes de normes ou d'évaluations sont une condition préalable cruciale pour une réglementation efficace de l'IA", mais aussi en brouillé davantage l'eau en disant "des deux côtés du Atlantic a intérêt à développer cette science ».
"Les États-Unis et l'UE ont une longue tradition de collaboration sur [les normes et l'évaluation] que nous pourrions étendre, puis peut-être plus radicalement, un engagement à adopter un éventuel ensemble de normes et d'évaluations communes comme une sorte de matière première pour les règles de la route dans l'IA", a-t-il ajouté, regardant au loin.
Smith de Microsoft a utilisé ses quatre minutes de temps de parole pour exhorter les régulateurs à "faire avancer ensemble les normes d'innovation et de sécurité" - renforçant également le battage médiatique de l'IA en louant les avantages potentiels de l'IA pour "faire du bien au monde" et "sauver la vie des gens". ", par exemple en détectant ou en guérissant le cancer ou en améliorant les capacités d'intervention en cas de catastrophe, tout en admettant que la sécurité doit être ciblée avec l'affirmation que " nous devons être lucides sur les risques ".
Il s'est également félicité de la perspective d'une coopération transatlantique sur les normes d'IA. Mais a pressé les législateurs de viser une coordination internationale plus large sur des choses comme les processus de développement de produits – ce qui, selon lui, aiderait à faire avancer à la fois les normes de sécurité de l'IA et l'innovation.
"Certaines choses bénéficient énormément de la coordination internationale, en particulier en ce qui concerne les processus de développement de produits. Nous n'allons pas faire progresser la sécurité ou l'innovation s'il existe différentes approches, par exemple, de la manière dont notre équipe rouge devrait travailler dans le processus de sécurité des produits pour développer un nouveau modèle d'IA », a-t-il déclaré.
"D'autres choses, il y a plus de place pour la divergence et il y en aura parce que le monde - même les pays qui partagent des valeurs communes - nous aurons des différences. Et il y a des domaines autour des licences ou de l'utilisation où l'on peut gérer cette divergence. Mais en bref , il y a beaucoup de choses que nous allons gagner à apprendre de temps en temps et à mettre en pratique."
Personne d'OpenAI ne parlait lors du panel TTC, mais Vestager a eu une réunion par vidéoconférence avec le PDG Sam Altman dans l'après-midi.
Dans une lecture de la réunion, la Commission a déclaré que les deux hommes avaient partagé des idées sur le code de conduite volontaire de l'IA qui a été lancé à la TTC - avec une discussion sur la manière de lutter contre la désinformation ; les problèmes de transparence, notamment en veillant à ce que les utilisateurs soient informés s'ils communiquent avec l'IA ; comment assurer la vérification (red teaming) et les audits externes ; comment assurer les boucles de surveillance et de rétroaction ; et la question d'assurer la conformité tout en évitant les obstacles pour les startups et les PME.
Dans un tweet ultérieur, Vestager a déclaré que les discussions avec Altman d'OpenAI et Amodei d'Anthropic avaient porté sur des audits externes, des filigranes et des "boucles de rétroaction".
Filigranage, audits externes, boucles de rétroaction - quelques-unes des idées discutées avec @AnthropicAI et @sama @OpenAI pour le #AI #CodeOfConduct lancé aujourd'hui au #TTC à #Luleå @SecRaimondo Au plaisir de discuter avec des partenaires internationaux. pic.twitter.com/wV08KDNs3h
– Margrethe Vestager (@vestager) 31 mai 2023
Ces derniers jours, Altman a ébouriffé Bruxelles avec un lobbying au pied levé dans lequel il a apparemment menacé de retirer son outil de la région si les dispositions de la loi sur l'IA de l'UE visant l'IA générative ne sont pas édulcorées.
Il a ensuite rapidement retiré la menace après que le commissaire au marché intérieur du bloc ait tweeté un dénigrement public à OpenAI, accusant la société de tenter de faire chanter les législateurs. Il sera donc intéressant de voir avec quel enthousiasme (ou non) Altman s'engage avec la substance du Code de conduite pour l'IA.
(Pour sa part, Google a précédemment indiqué qu'il souhaitait travailler avec l'UE sur des normes provisoires en matière d'IA - dans le cadre d'un soi-disant "pacte sur l'IA" qui semble être une initiative de l'UE distincte du code de conduite ; par un Le porte-parole de la Commission, le pacte sur l'IA, s'attache à amener les entreprises à accepter d'accélérer la mise en œuvre des principales dispositions de la loi sur l'IA sur une base volontaire, tandis que le code vise à promouvoir des garde-fous pour l'utilisation de l'IA générative ou "GPAI avancée" (IA à usage général). ) modèles au niveau mondial.)
Alors que les géants de l'IA ont été relativement réticents à se concentrer sur les risques actuels de l'IA et sur la manière dont ils pourraient être maîtrisés, préférant parler de craintes lointaines d'IA "superintelligentes" inexistantes, la réunion du TTC a également entendu le Dr Gemma Galdon-Clavell, fondateur et PDG d'Eticas Consulting – une entreprise qui exécute des audits algorithmiques pour les clients afin d'encourager la responsabilité autour des utilisations de l'IA et de la technologie algorithmique – qui était impatient de former le panel aux techniques de responsabilité de la génération actuelle.
"Je suis convaincue que [l'audit algorithmique] sera le principal outil pour comprendre, quantifier et atténuer les dommages de l'IA", a-t-elle déclaré. "Nous espérons nous-mêmes être la première licorne d'audit qui met les outils [sur la table] qui maximisent les possibilités d'ingénierie tout en tenant compte des droits fondamentaux et des valeurs sociétales."
Elle a décrit la refonte récemment adoptée par l'UE des règles du commerce électronique et du marché, alias la loi sur les services numériques (DSA), comme une législation pionnière à cet égard - en raison de la volonté de la loi d'exiger la transparence des très grandes plateformes en ligne sur la façon dont leurs algorithmes travail, la prédiction des audits algorithmiques deviendra l'outil de sécurité incontournable de l'IA dans les années à venir.
"La bonne nouvelle est que les audits deviennent de manière informelle le consensus sur l'un des moyens potentiels de réglementer l'IA", a-t-elle expliqué. "Nous avons des audits dans le libellé de la DSA, un pionnier absolu en Europe. Nous avons des audits dans la réglementation de la ville de New York sur l'utilisation des systèmes d'embauche d'IA. Le tout récent processus de consultation de la NTIA est axé sur l'audit. La FTC ne cesse de poser des questions sur quels sont les normes et les seuils qui doivent être utilisés dans les audits. Il y a donc un consensus émergent sur le fait que les audits - appelez-les mécanismes d'inspection... validations... le nom n'a pas vraiment d'importance - le fait est que nous avons besoin de mécanismes d'inspection qui nous permettent de répondre aux préoccupations des décideurs politiques, tout en comprenant les technologies qui rendent le changement possible."
"Je suis convaincue que dans quelques années - pas beaucoup d'années, trois, cinq ans - nous serons étonnés qu'il fut un temps où nous avons sorti des systèmes d'IA sans audits. Nous n'allons pas le croire", a-t-elle ajouté, comparant le Far West actuel de la sécurité et de la transparence non réglementées de l'IA au XIXe siècle, lorsqu'un consommateur pouvait entrer dans une pharmacie et acheter de la cocaïne.
Bien qu'elle ait mis en lumière une trajectoire réglementaire qui, selon elle, se dirige vers l'audit, Galdon-Clavell a également critiqué la tendance des décideurs politiques à se verrouiller pour parler de dommages théoriques lointains – ce qu'elle a surnommé des «débats de science-fiction» – qu'elle a embroché comme une distraction de s'attaquer aux méfaits actuels de l'IA, avertissant : "Il y a un coût d'opportunité lorsque nous parlons de science-fiction dans l'impact à longue distance. Qu'advient-il des impacts actuels que nous constatons en ce moment ? Comment protégeons-nous les gens aujourd'hui ? Cette génération de les dommages que nous comprenons et savons déjà se produisent autour de ces systèmes ? »
Elle a également exhorté les législateurs à adopter des lois avec "les dents". "L'industrie doit faire mieux et pour le moment, les incitations à faire mieux ne sont pas là", a-t-elle souligné. "Nos clients viennent chez nous pour être audités parce qu'ils pensent que c'est ce qu'ils doivent faire. Et non parce qu'ils sont forcés par qui que ce soit. Et ceux qui n'auditent pas n'ont aucune incitation à commencer à le faire s'ils ne le souhaitent pas.
"La réglementation qui doit venir doit avoir du mordant. Donc, mon plaidoyer auprès de la TTC serait de commencer à écouter le consensus émergent qui existe déjà. C'est transatlantique, c'est très mondial. Il y a des choses sur la table qu'ils peuvent déjà aidez-nous à protéger dès maintenant — demain, aujourd'hui — la génération actuelle qui subit les effets négatifs de certains de ces nouveaux développements technologiques. »
Une autre conférencière du panel, Alexandra Reeve Givens, présidente et chef de la direction de l'organisation à but non lucratif basée aux États-Unis, axée sur les droits de l'homme, le Center for Democracy and Technology, a également exhorté les décideurs politiques à porter leur attention sur les risques "réels" de l'IA qu'elle dites "se manifestent déjà".
"Nous constatons déjà les préjudices professionnels, de réputation et physiques potentiels lorsque les gens se fient aux résultats de texte générés comme étant précis, ignorant la probabilité d'hallucinations ou de résultats fabriqués", a-t-elle averti. "Il y a le risque que les outils d'IA génératifs amplifient la fraude, car les outils facilitent la génération rapide d'escroqueries personnalisées ou la tromperie des gens en se faisant passer pour une voix familière. Il existe des risques de contrefaçons profondes qui déforment les personnalités publiques d'une manière qui menace les élections, les la sécurité ou l'ordre public général. Et il existe des risques que de fausses images soient utilisées pour harceler, exploiter et extorquer des personnes. Aucun de ces préjudices n'est nouveau, mais ils sont rendus moins chers, plus rapides et plus efficaces grâce à la facilité et à l'accessibilité des outils d'IA générative ."
Elle a également exhorté les législateurs à ne pas se concentrer uniquement sur l'IA générative et à ignorer les dommages générés par les saveurs moins virales de l'IA - qui, selon elle, "ont un impact direct sur les droits, les libertés et l'accès aux opportunités des personnes aujourd'hui" - tels que les outils d'IA utilisés pour déterminer qui obtient un emploi ou reçoit des avantages publics, ou l'utilisation d'outils de surveillance de l'IA par les forces de l'ordre.
"Les décideurs politiques ne peuvent pas perdre de vue ces problèmes fondamentaux, même s'ils étendent leur attention à l'IA générative", a-t-elle déclaré, appelant à ce que toute initiative d'évaluation de l'IA soit tout aussi complète et traite un éventail complet de dommages réels.
"Les décideurs politiques doivent être parfaitement clairs sur le fait que les efforts pour évaluer et gérer les risques liés à l'IA doivent s'attaquer de manière significative à un éventail complet de dommages réels. Ce que je veux dire par là, c'est que les décideurs politiques doivent s'assurer que les audits et les évaluations de l'IA sont rigoureux, complets et échappent aux problèmes de capture. Décideurs politiques doit faire face au danger que les cadres de mesure des risques ne traitent souvent que les dommages qui peuvent être facilement mesurés, ce qui privilégie les dommages économiques et physiques par rapport aux dommages tout aussi importants à la vie privée, à la dignité et au droit de ne pas être stéréotypé ou calomnié. »
"Alors que les décideurs politiques aux États-Unis et dans l'UE se tournent vers les efforts de l'industrie ou les organismes de normalisation à vocation technique pour examiner les questions de mesure et de gestion des risques, ils doivent s'assurer que ces préoccupations fondées sur les droits fondamentaux sont traitées de manière appropriée", a-t-elle ajouté.
Reeve Givens a également appelé à des plans de transparence dans la feuille de route de la TTC, qui appelle à un suivi conjoint des risques émergents d'IA et des incidents de préjudices, à étendre pour lutter contre les asymétries d'information afin d'établir une base commune à partir de laquelle les régulateurs peuvent travailler - et pour les voix de la société civile et les communautés marginalisées qui peuvent être confrontées à des risques et à des dommages disproportionnés en raison des résultats de l'IA soient impliquées dans tout processus d'élaboration de normes.
Ce rapport a été mis à jour avec des détails supplémentaires sur la différence entre l'initiative AI Pact de l'UE et le code de conduite AI
La grande tournée européenne de Sam Altman
Google va travailler avec l'Europe sur un pacte provisoire sur l'IA
L'Europe crée un centre de recherche sur l'IA pour appliquer les règles de responsabilité sur les grandes technologies