Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
Technologie

L’IA et vous : les grandes technologies affirment qu’une réglementation de l’IA est nécessaire, Microsoft assume les risques liés aux droits d’auteur


Dans une démarche qui ne devrait surprendre personne, les dirigeants technologiques qui se sont réunis cette semaine lors de réunions à huis clos à Washington, DC, pour discuter de la réglementation de l’IA avec les législateurs et les groupes industriels, ont convenu de la nécessité de lois régissant la technologie de l’IA générative. Mais ils ne parvenaient pas à s’entendre sur la manière d’aborder ces réglementations.

« Le sénateur démocrate Chuck Schumer, qui a qualifié la réunion d' »historique », a déclaré que les participants soutenaient vaguement l’idée de réglementations, mais qu’il y avait peu de consensus sur ce à quoi ressembleraient de telles règles », rapporte The Guardian. signalé. « Schumer a déclaré qu’il avait demandé à tout le monde dans la salle – y compris plus de 60 sénateurs, près de deux douzaines de dirigeants du secteur technologique, de défenseurs et de sceptiques – si le gouvernement devait jouer un rôle dans la surveillance de l’intelligence artificielle, et que » chaque personne a levé la main, même même s’ils avaient des points de vue divergents.

Je suppose que « points de vue divers » est une nouvelle façon de dire « le diable est dans les détails ».

PDG et dirigeants de la technologie présents à ce que Schumer a appelé le Forum d’analyse de l’IA figuraient Sam Altman d’OpenAI, Sundar Pichai de Google, Mark Zuckerberg de Meta, le co-fondateur de Microsoft Bill Gates et le propriétaire de X/Twitter Elon Musk. Parmi les autres personnes présentes dans la salle figuraient Charles Rivkin, PDG de la Motion Picture Association ; l’ancien chef de Google Eric Schmidt ; Tristan Harris, cofondateur du Center for Humane Technology ; Deborah Raji, chercheuse à l’Université de Californie à Berkeley ; Elizabeth Shuler, présidente de l’AFL-CIO ; Randi Weingarten, présidente de la Fédération américaine des enseignants ; Janet Murguía, présidente du groupe latino-américain de défense des droits civiques UnidosUS ; et Maya Wiley, présidente et directrice générale de la Leadership Conference on Civil and Human Rights, a déclaré le Guardian.

« Réguler les risques liés à l’IA, pas les algorithmes d’IA » Le PDG d’IBM, Arvind Krishna, a déclaré dans un communiqué. « Toutes les utilisations de l’IA ne comportent pas le même niveau de risque. Nous devrions réglementer les utilisations finales – quand, où et comment les produits d’IA sont utilisés. Cela contribue à promouvoir à la fois l’innovation et la responsabilité. »

En plus de discuter de la manière dont les élections américaines de 2024 pourraient être protégées contre la désinformation alimentée par l’IA, le groupe a discuté avec 60 sénateurs des deux partis de l’opportunité d’une agence indépendante pour l’IA et de « comment les entreprises pourraient être plus transparentes et comment les États-Unis pourraient garder une longueur d’avance sur la Chine et d’autres pays », a rapporté le Guardian.

L’AFL-CIO a également soulevé la question des droits des travailleurs en raison de l’impact généralisé que l’IA devrait avoir sur l’avenir de tous types d’emplois. Shuler, chef de l’AFL-CIO, dans une déclaration faisant suite à lors du rassemblement, a déclaré que les travailleurs sont nécessaires pour aider à « exploiter l’intelligence artificielle pour créer des salaires plus élevés, de bons emplois syndiqués et un avenir meilleur pour ce pays. … Les intérêts des travailleurs doivent être l’étoile polaire du Congrès. Les travailleurs ne sont pas les victimes » du changement technologique – nous sommes la solution.

Pendant ce temps, d’autres ont appelé à la réunion pour savoir qui n’était pas là et ont noté que les opinions des leaders technologiques qui devraient bénéficier de la technologie genAI devraient être mises en balance avec d’autres points de vue.

« La moitié des personnes présentes dans la salle représentent des industries qui profiteront d’une réglementation laxiste en matière d’IA », a déclaré au Guardian Caitlin Seeley George, directrice des campagnes et directrice générale du groupe de défense des droits numériques Fight for the Future. « Les entreprises technologiques exploitent le jeu de l’IA depuis assez longtemps et nous savons où cela nous mène. »

Dans le même temps, la Maison Blanche a également déclaré cette semaine qu’un total de 15 entreprises technologiques notables ont désormais signé un engagement volontaire pour garantir que les systèmes d’IA sont sûrs et transparents sur leur fonctionnement. En plus des sept entreprises qui ont initialement signé en juillet – OpenAI, Microsoft, Meta, Google, Amazon, Anthropic et Inflection AI – l’administration Biden a déclaré que huit autres entreprises avaient adhéré. Il s’agit d’Adobe, Salesforce, IBM, Nvidia, Palantir, Stability AI, Cohere et Scale AI.

« Le président a été clair : exploitez les avantages de l’IA, gérez les risques et agissez vite, très vite », a déclaré Jeff Zients, chef de cabinet de la Maison Blanche, dans un communiqué. selon Le Washington Post. « Et c’est exactement ce que nous faisons en nous associant avec le secteur privé et en tirant tous les leviers dont nous disposons pour y parvenir. »

Mais cela reste un engagement volontaire et l’opinion est qu’il « ne va pas aussi loin que les dispositions d’une série de projets de loi réglementaires soumis par des membres du Congrès ces dernières semaines – et pourrait être utilisé comme justification pour ralentir plus fort ». -législation avant-gardiste », Axios signalé en juillet.

Voici les autres réalisations en IA qui méritent votre attention.

Google lance le Digital Futures Project pour étudier l’IA

Google a annoncé cette semaine le Projet d’avenir numérique« une initiative qui vise à rassembler un éventail de voix pour promouvoir les efforts visant à comprendre et à relever les opportunités et les défis de l’intelligence artificielle (IA). Grâce à ce projet, nous soutiendrons les chercheurs, organiserons des réunions et favoriserons le débat sur les solutions de politique publique. pour encourager le développement responsable de l’IA. »

La société a également annoncé qu’elle accorderait 20 millions de dollars de subventions aux « principaux groupes de réflexion et institutions universitaires du monde entier pour faciliter le dialogue et l’enquête sur cette technologie importante ». (Cela semble être un gros chiffre jusqu’à ce que vous vous souveniez qu’Alphabet/Google a signalé 18,4 milliards de dollars de bénéfice au deuxième trimestre 2023 seul.)

Google affirme que le premier groupe de subventions a été accordé à l’Aspen Institute, à la Brookings Institution, au Carnegie Endowment for International Peace, au Center for a New American Security, au Center for Strategic and International Studies, à l’Institute for Security and Technology et à la Leadership Conference Education. Fund, MIT Work of the Future, le R Street Institute et SeedAI.

Les subventions mises à part, maîtriser l’IA est un très gros problème pour Google, qui se bat maintenant pour la domination du marché de l’IA contre ChatGPT d’OpenAI et Bing propulsé par ChatGPT de Microsoft. Le PDG d’Alphabet, Sundar Pichai, l’a déclaré à ses 180 000 employés dans une lettre du 5 septembre. célébrant le 25e anniversaire de Google que « l’IA sera le plus grand changement technologique que nous verrons dans notre vie. Il est plus grand que le passage de l’ordinateur de bureau au mobile, et il est peut-être plus grand qu’Internet lui-même. Il s’agit d’un recâblage fondamental de la technologie et d’un incroyable accélérateur de l’ingéniosité humaine.  »

Quand demandé Selon Wired, s’il était trop prudent avec les investissements de Google dans l’IA et aurait dû publier Google Bard avant qu’OpenAI ne publie ChatGPT en octobre 2022, Pichai a essentiellement déclaré qu’il jouait le long jeu. « Le fait est que nous pourrions faire plus une fois que les gens auront vu comment cela fonctionne. Cela n’aura vraiment pas d’importance dans les cinq à dix prochaines années. »

Adobe ajoute l’IA à son ensemble d’outils de création, y compris Photoshop

Firefly, la famille d’outils d’IA générative d’Adobe, n’est plus en phase de test bêta. Cela signifie que « les créatifs ont désormais le feu vert pour l’utiliser pour créer des images dans Photoshop, pour essayer des effets de texte farfelus sur le site Web Firefly, pour recolorer des images dans Illustrator et pour embellir des affiches et des vidéos réalisées avec Adobe Express », rapporte CNET. Stephen Shankland.

Adobe inclura des crédits pour utiliser Firefly en quantités variables selon le Plan d’abonnement Creative Cloud pour lequel vous payez. Shankland a indiqué que si vous disposez de l’abonnement complet à Creative Cloud, qui vous donne accès à tous les logiciels Adobe pour 55 $ par mois, vous pouvez produire jusqu’à 1 000 créations d’IA par mois. Si vous disposez d’un abonnement à une seule application pour utiliser Photoshop ou Premiere Pro à 21 $ par mois, cela représente 500 créations IA par mois. Les abonnements à Adobe Express, une application mobile polyvalente coûtant 10 $ par mois, incluent 250 utilisations de Firefly.

Mais attention : Adobe augmentera ses prix d’abonnement d’environ 9 à 10 % en novembre, citant l’ajout de Firefly et d’autres fonctionnalités d’IA, ainsi que de nouveaux outils et applications. Alors oui, tout ce plaisir de l’IA a un prix.

Microsoft propose d’aider les développeurs d’IA à protéger les droits d’auteur

Les problèmes de droit d’auteur et de propriété intellectuelle reviennent souvent lorsqu’on parle d’IA, car la loi évolue toujours autour de la question de savoir qui possède les résultats générés par l’IA et si les chatbots IA ont supprimé du contenu protégé par le droit d’auteur sur Internet sans l’autorisation des propriétaires.

Cela a conduit Microsoft à déclarer que les développeurs qui paient pour utiliser ses services commerciaux d’IA « Copilot » pour créer des produits d’IA se verront offrir une protection contre les poursuites judiciaires, l’entreprise les défendant devant les tribunaux et payant des règlements. Microsoft a déclaré qu’il offre cette protection parce que c’est l’entreprise, et non ses clients, qui doit trouver la bonne façon de répondre aux préoccupations des propriétaires de droits d’auteur et de propriété intellectuelle à mesure que le monde de l’IA évolue. Microsoft a également déclaré qu’il « incorporait des filtres et d’autres technologies conçus pour réduire la probabilité que les Copilots renvoient du contenu contrefait ».

 » Alors que les clients demandent s’ils peuvent utiliser les services Copilot de Microsoft et les résultats qu’ils génèrent sans se soucier des réclamations liées aux droits d’auteur, nous leur fournissons une réponse simple : oui, vous pouvez, et si vous êtes contesté pour des raisons de droits d’auteur, nous assumerons la responsabilité des éventuelles risques juridiques impliqués », a écrit la société dans un communiqué. article de blog.

« Ce nouvel engagement étend notre soutien existant en matière d’indemnisation en matière de propriété intellectuelle aux services commerciaux Copilot et s’appuie sur notre précédent Engagements des clients IA« , indique le message.  » Plus précisément, si un tiers poursuit un client commercial pour violation du droit d’auteur pour avoir utilisé les Copilots de Microsoft ou le résultat qu’ils génèrent, nous défendrons le client et paierons le montant de tout jugement ou règlement défavorable résultant du procès. , à condition que le client utilise les garde-fous et les filtres de contenu que nous avons intégrés à nos produits. »

Les étudiants se connectent à ChatGPT, trouvent un ami sur Character.ai

Après une énorme augmentation du trafic lorsque OpenAI a publié ChatGPT en octobre dernier, le trafic vers le chatbot a chuté au cours des derniers mois alors que des chatbots IA rivaux, notamment Google Bard et Microsoft Bing, sont entrés en scène. Mais maintenant que les vacances d’été sont terminées, les étudiants semblent générer une légère augmentation du trafic pour ChatGPT, selon estimations publiées par Similarweb, une société de données et d’analyses numériques.

« ChatGPT continue de se classer parmi les plus grands sites Web du monde, attirant 1,4 milliard de visites dans le monde en août, contre 1,2 milliard pour le moteur de recherche Bing de Microsoft, par exemple. De zéro avant son lancement fin novembre, chat.openai.com a atteint 266 millions de visiteurs en décembre, a encore augmenté de 131 % le mois suivant et a culminé à 1,8 milliard de visites en mai. Similarweb classe openai.com au 28e rang mondial, principalement grâce à ChatGPT. »

Mais l’un des sites d’IA qui attire encore plus de visiteurs est son rival ChatGPT. Caractère.ai, qui invite les utilisateurs à personnaliser leurs chatbots en tant que personnalités célèbres ou personnages fictifs et à leur faire répondre avec cette voix. Fondamentalement, vous pouvez avoir une conversation avec un chatbot se faisant passer pour une personne célèbre comme Cristiano Ronaldo, Taylor Swift, Albert Einstein ou Lady Gaga ou un personnage fictif comme Super Mario, Tony Soprano ou Abraham Lincoln.

« Se connecter avec le marché des jeunes est un moyen fiable de trouver un large public, et selon cette mesure, le concurrent de ChatGPT, Character AI, a un avantage », a déclaré Similarweb. « Le personnage.ai Le site rassemble près de 60 % de son audience sur la tranche d’âge 18-24 ans, un chiffre qui a bien résisté tout au long de l’été. Character.AI est également devenu les utilisateurs du site Web en utilisateurs de son application mobile dans une plus grande mesure que ChatGPT, qui est également désormais disponible sous forme d’application.

La raison « peut être simplement parce que Character AI est un compagnon ludique, pas seulement une aide aux devoirs », a déclaré le cabinet de recherche.

Terme de la semaine en IA : sécurité de l’IA

Avec toutes les discussions autour de la réglementation de l’IA et de la manière dont la technologie devrait être « sûre », j’ai pensé qu’il valait la peine de partager quelques exemples de la façon dont la sécurité de l’IA est caractérisée.

La première est une explication simple de CNBC Glossaire de l’IA : Comment parler de l’IA comme un initié:

« Sécurité de l’IA :  » Décrit la crainte à long terme que l’IA progresse si soudainement qu’une IA super intelligente puisse nuire, voire éliminer l’humanité. « 

La seconde vient d’un livre blanc de la Maison Blanche intitulé « Garantir une IA sûre, sécurisée et digne de confiance » Cela décrit les engagements volontaires signés par ces 15 entreprises technologiques qui visent à garantir que leurs systèmes ne nuisent pas aux personnes.

« Sécurité: Les entreprises ont le devoir de s’assurer que leurs produits sont sûrs avant de les présenter au public. Cela signifie tester la sécurité et les capacités de leurs systèmes d’IA, les soumettre à des tests externes, évaluer leurs risques potentiels biologiques, de cybersécurité et sociétaux, et rendre publics les résultats de ces évaluations. »

Note de l’éditeur : CNET utilise un moteur d’IA pour créer certaines histoires. Pour en savoir plus, consultez cet article.



Tech smsm

francaisenouvelles

The website manager responsible for technical and software work, the electronic newspaper, responsible for coordinating journalists, correspondents and administrative work at the company's headquarters.
Bouton retour en haut de la page