Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
Politique

Arrêtez les robots tueurs ! Les lobbyistes soutenus par Musk se battent pour sauver l’Europe de la mauvaise IA – POLITICO


Appuyez sur play pour écouter cet article

Exprimé par l’intelligence artificielle.

Un groupe de pression soutenu par Elon Musk et associé à une idéologie controversée populaire parmi les milliardaires de la technologie se bat pour empêcher les robots tueurs de mettre fin à l’humanité, et il s’est emparé de la loi européenne sur l’intelligence artificielle pour ce faire.

Au cours de l’année écoulée, le Future of Life Institute (FLI) s’est imposé comme une force d’influence sur certains des éléments les plus controversés de la loi sur l’IA. Malgré les liens du groupe avec la Silicon Valley, des géants de la Big Tech comme Google et Microsoft se sont retrouvés du côté des perdants des arguments de FLI.

Dans la bulle de l’UE, l’arrivée d’un groupe dont les actions sont colorées par la peur d’une catastrophe déclenchée par l’IA plutôt que par des préoccupations banales de protection des consommateurs a été reçue comme un vaisseau spatial atterrissant dans le rond-point Schuman. Certains craignent que l’institut n’incarne une inquiétude technologique à propos de menaces à faible probabilité qui pourraient détourner l’attention de problèmes plus immédiats. Mais la plupart conviennent que pendant son séjour à Bruxelles, le FLI a été efficace.

« Ils sont plutôt pragmatiques et ils ont une expertise juridique et technique », a déclaré Kai Zenner, conseiller en politique numérique de l’eurodéputé de centre-droit Axel Voss, qui travaille sur la loi sur l’IA. « Ils sont parfois un peu trop inquiets pour la technologie, mais ils soulèvent beaucoup de bons points. »

Lancé en 2014 par l’universitaire du MIT Max Tegmark et soutenu par des grands noms de la technologie tels que Musk, Jaan Tallinn de Skype et le prodige de la cryptographie Vitalik Buterin, FLI est une organisation à but non lucratif consacrée à la lutte contre les « risques existentiels » – des événements capables d’anéantir ou de condamner l’humanité. Il compte parmi ses conseillers externes d’autres vedettes comme les acteurs Morgan Freeman et Alan Alda et les scientifiques de renom Martin (Lord) Rees et Nick Bostrom.

La principale de ces menaces – et les priorités du FLI – est l’intelligence artificielle qui se déchaîne.

« Nous avons vu des avions s’écraser parce qu’un pilote automatique ne pouvait pas être annulé. Nous avons assisté à une prise d’assaut du Capitole des États-Unis parce qu’un algorithme a été formé pour maximiser l’engagement. Ce sont des défaillances de la sécurité de l’IA aujourd’hui – à mesure que ces systèmes deviennent plus puissants, les dommages pourraient s’aggraver », a déclaré Mark Brakel, directeur de la politique européenne du FLI, dans une interview.

Mais le groupe de pression fait face à deux problèmes de relations publiques. Tout d’abord, Musk, son soutien le plus célèbre, est au centre d’une tempête depuis qu’il a lancé des licenciements massifs sur Twitter en tant que nouveau propriétaire, attirant également l’attention des régulateurs. Les controverses de Musk pourraient rendre les législateurs nerveux à l’idée de parler au FLI. Deuxièmement, les liens du groupe avec un ensemble de croyances connues sous le nom d’altruisme efficace font froncer les sourcils : l’idéologie est confrontée à un jugement et a récemment été accusée d’être la force motrice du scandale autour de l’échange de crypto-monnaie FTX, qui a déclenché un carnage financier.

Comment FLI a percé la bulle

L’arrivée d’un groupe de pression luttant contre l’extinction, l’intelligence artificielle mal alignée et les robots tueurs devait être rafraîchissante pour l’élaboration des politiques bruxelloises autrement somnolente.

Le bureau de Bruxelles du FLI a ouvert ses portes à la mi-2021, alors que les discussions sur la proposition de loi sur l’IA de la Commission européenne commençaient.

« Nous préférerions que l’IA soit développée en Europe, où il y aura des réglementations en place », a déclaré Brakel. « L’espoir est que les gens s’inspirent de l’UE. »

Ancien diplomate, Brakel, d’origine néerlandaise, a rejoint l’institut en mai 2021. Il a choisi de travailler dans la politique de l’IA comme un domaine à la fois percutant et mal desservi. Le chercheur en politique Risto Uuk l’a rejoint deux mois plus tard. Opérateur numérique qualifié – il publie ses analyses et sa newsletter sur le domaine artificialintelligenceact.eu – Uuk avait auparavant effectué des recherches sur l’IA pour la Commission et le Forum économique mondial. Il a rejoint FLI par affinité philosophique : comme Tegmark, Uuk souscrit aux principes de l’altruisme effectif, un système de valeurs prescrivant l’utilisation de preuves tangibles pour décider comment profiter au plus grand nombre de personnes.

Depuis ses débuts à Bruxelles, l’équipe de trois personnes de l’institut (avec l’aide de Tegmark et d’autres, dont le cabinet d’avocats Dentons) a habilement mené des efforts de lobbying sur des questions d’IA peu connues.

Elon Musk est l’un des soutiens les plus importants du Future of Life Institute | Carina Johansen/NTB/AFP via Getty Images

Pièce A : IA à usage général — des logiciels tels que des outils de reconnaissance vocale ou de génération d’images utilisés dans un large éventail de contextes et parfois affectés par des biais et des inexactitudes dangereuses (par exemple, dans des contextes médicaux). L’IA à usage général n’a pas été mentionnée dans la proposition de la Commission, mais a fait son chemin dans le texte final du Conseil de l’UE et est garantie de figurer dans la position du Parlement.

« Nous sommes sortis et avons dit: » Il y a cette nouvelle classe d’IA – des systèmes d’IA à usage général – et la loi sur l’IA ne les considère pas du tout. Vous devriez vous inquiéter à ce sujet », a déclaré Brakel.« Ce n’était sur le radar de personne. Maintenant, ça l’est.

Le groupe joue également sur les craintes européennes de domination technologique par les Etats-Unis et la Chine. « Les systèmes d’IA à usage général sont construits principalement aux États-Unis et en Chine, et cela pourrait nuire à l’innovation en Europe, si vous ne vous assurez pas qu’ils respectent certaines exigences », a déclaré Brakel, ajoutant que cet argument résonnait chez les législateurs de centre-droit avec qui il a rencontré récemment.

Un autre cheval de bataille du FLI est d’interdire l’IA capable de manipuler le comportement des gens. La proposition originale interdit l’IA manipulatrice, mais cela se limite aux techniques « subliminales » – qui, selon Brakel, créeraient des échappatoires.

Mais le co-rapporteur de la loi sur l’IA, le législateur roumain Renew Dragoș Tudorache, fait maintenant pression pour rendre l’interdiction plus complète. « Si cet amendement est adopté, nous serions beaucoup plus satisfaits que nous ne le sommes du texte actuel », a déclaré Brakel.

Si intelligent qu’il a fait planter la crypto

Alors que la contribution du groupe sur les principales dispositions du projet de loi sur l’IA a été bien accueillie, de nombreux membres de l’establishment bruxellois regardent avec méfiance sa vision du monde.

Tegmark et d’autres bailleurs de fonds FLI adhèrent à ce qu’on appelle l’altruisme efficace (ou EA). Un brin d’utilitarisme codifié par le philosophe William MacAskill – dont le travail Musc appelé « un match proche de ma philosophie » – EA dicte qu’il faut améliorer la vie du plus grand nombre de personnes possible, en utilisant une approche rationaliste basée sur des faits. Au niveau de base, cela signifie donner de gros morceaux de son revenu à des organismes de bienfaisance compétents. Un courant plus radical et plus long-termiste d’altruisme efficace exige que l’on s’efforce de minimiser les risques capables de tuer beaucoup de gens – et en particulier les futurs, qui seront largement plus nombreux que les existants. Cela signifie que la prévention de l’essor potentiel d’une IA dont les valeurs entrent en conflit avec le bien-être de l’humanité devrait figurer en tête de liste des préoccupations.

Une vision critique du FLI est qu’il favorise cette interprétation du soi-disant programme d’altruisme efficace, soi-disant indifférent aux maux actuels du monde – tels que le racisme, le sexisme et la faim – et axé sur les menaces de science-fiction pour les personnes à naître. Timnit Gebru, un chercheur en intelligence artificielle dont la sortie acrimonieuse de Google a fait la une des journaux en 2020, a fustigé FLI sur Twitter, exprimant « d’énormes inquiétudes » à ce sujet.

« Ils sont soutenus par des milliardaires, dont Elon Musk, ce qui devrait déjà rendre les gens méfiants », a déclaré Gebru dans une interview. « Tout le domaine autour de la sécurité de l’IA est composé de tant d' »instituts » et d’entreprises dans lesquelles des milliardaires injectent de l’argent. Mais leur concept de sécurité de l’IA n’a rien à voir avec les méfaits actuels envers les groupes marginalisés – ils veulent réorienter toute la conversation pour empêcher cela. apocalypse de l’IA. »

La réputation de l’altruisme efficace a pris un coup ces dernières semaines après la chute de FTX, un échange en faillite qui a perdu au moins 1 milliard de dollars en actifs de crypto-monnaie des clients. Son PDG en disgrâce, Sam Bankman-Fried, était l’un des chouchous d’EA, parlant dans des interviews de son projet de fabriquer des bazillions et de les donner à des œuvres caritatives. Alors que FTX s’effondrait, les commentateurs ont fait valoir que l’idéologie de l’altruisme efficace avait conduit Bankman-Fried à prendre des raccourcis et à rationaliser son imprudence.

Tous les deux MacAskill et Donateur FLI Buterin a défendu EA sur Twitter, affirmant que les actions de Bankman-Fried contrastaient avec les principes de la philosophie. « Dégrader automatiquement tout ce en quoi SBF croyait est une erreur », a écrit Buterin, qui a inventé la blockchain Ethereum et finance la bourse du FLI pour la recherche sur les risques existentiels de l’IA.

Brakel a déclaré que le FLI et l’EA étaient deux choses distinctes, et que le plaidoyer du FLI était axé sur les problèmes actuels, des logiciels biaisés aux armes autonomes, par exemple au niveau des Nations Unies. « Passons-nous beaucoup de temps à réfléchir à ce à quoi ressemblerait le monde dans 400 ans ? Non », a-t-il dit. (Ni Brakel ni la représentante du FLI auprès de l’UE, Claudia Prettner, ne se qualifient d’altruistes efficaces.)

Idéologie californienne

Une autre critique des efforts du FLI pour conjurer l’IA maléfique soutient qu’ils occultent une volonté techno-utopique de développer une IA bienveillante au niveau humain. Lors d’une conférence en 2017, les conseillers du FLI – dont Musk, Tegmark et Tallinn de Skype – ont débattu de la probabilité et de l’opportunité d’une IA plus intelligente que l’humain. La plupart des panélistes ont estimé que la « superintelligence » devait arriver ; la moitié d’entre eux l’ont jugé souhaitable. Le résultat de la conférence était une série de lignes directrices (assez modérées) sur le développement d’une IA bénéfique, que Brakel a citée comme l’un des documents fondamentaux du FLI.

Ce techno-optimisme a conduit Emile P. Torres, un Ph.D. candidat en philosophie qui avait l’habitude de collaborer avec FLI, pour finalement se retourner contre l’organisation. « Aucun d’entre eux ne semble considérer que nous devrions peut-être explorer une sorte de moratoire », a déclaré Torres. Soulever de tels points avec un membre du personnel du FLI, a déclaré Torres, a conduit à une sorte d’excommunication. (Les articles de Torres ont été retirés du site Web de FLI.)

À Bruxelles, l’inquiétude est qu’à l’avenir, le FLI pourrait changer de cap par rapport à son incarnation terre-à-terre actuelle et orienter le débat sur l’IA vers des scénarios lointains. « Lorsque nous avons discuté de l’IA au niveau de l’UE, nous voulions établir une distinction claire entre les systèmes d’IA ennuyeux et concrets et les questions de science-fiction », a déclaré Daniel Leufer, un lobbyiste de l’ONG de défense des droits numériques Access Now. « Lorsque les discussions précédentes de l’UE sur la réglementation de l’IA ont eu lieu, aucune organisation à Bruxelles ne mettait l’accent sur des sujets tels que la superintelligence – c’est bien que le débat n’aille pas dans cette direction. »

Ceux qui considèrent le FLI comme la progéniture du futurisme californien pointent du doigt son conseil d’administration et son porte-monnaie. Outre Musk, Tallinn et Tegmark, les donateurs et conseillers incluent des chercheurs de Google et d’OpenAI, le co-fondateur de Meta Dustin Moskovitz Open Philanthropy, la Berkeley Existential Risk Initiative (qui à son tour a reçu un financement de FTX) et l’acteur Morgan Freeman.

En 2020, la majeure partie du financement mondial de FLI (276 000 $ sur 482 479 $) provenait de la Silicon Valley Community Foundation, une organisation caritative favorisée par les gros bonnets de la technologie comme Mark Zuckerberg ; Les comptes 2021 n’ont pas encore été publiés.

Brakel a nié que le FLI soit à l’aise avec la Silicon Valley, affirmant que le travail de l’organisation sur l’IA à usage général rendait la vie plus difficile pour les entreprises technologiques. Brakel a déclaré qu’il n’avait jamais parlé à Musk. Tegmark, quant à lui, est en contact régulier avec les membres du conseil consultatif scientifique, qui comprend Musk.

De l’avis de Brakel, ce que fait le FLI s’apparente à l’activisme climatique des premiers jours. « Nous voyons actuellement le mois d’octobre le plus chaud de tous les temps. Nous nous en inquiétons aujourd’hui, mais nous nous inquiétons également de l’impact dans 80 ans », a-t-il déclaré le mois dernier. « [There] sont des échecs de sécurité de l’IA aujourd’hui – et à mesure que ces systèmes deviennent plus puissants, les dommages pourraient s’aggraver.




Politico En2Fr

Toutes les actualités du site n'expriment pas le point de vue du site, mais nous transmettons cette actualité automatiquement et la traduisons grâce à une technologie programmatique sur le site et non à partir d'un éditeur humain.
Bouton retour en haut de la page