Sign in
Download Opera News App

 

 

L'intelligence Artificielle en péril en Europe

L'Europe cherche à limiter l'utilisation de l'IA dans la société

L'utilisation de la reconnaissance faciale pour la surveillance, ou des algorithmes qui manipulent le comportement humain, sera interdite en vertu de la proposition de règlement de l'UE sur l'intelligence artificielle.

Les propositions de grande envergure, qui ont été divulguées avant leur publication officielle, promettaient également de nouvelles règles strictes pour ce qu'ils jugent l'IA à haut risque.

Cela inclut les algorithmes utilisés par la police et lors du recrutement.

Les experts ont déclaré que les règles étaient vagues et contenaient des lacunes.

L'utilisation de l'IA dans l'armée est exemptée, de même que les systèmes utilisés par les autorités pour protéger la sécurité publique.

La liste suggérée des systèmes d'IA interdits comprend:

ceux conçus ou utilisés d'une manière qui manipule le comportement humain, les opinions ou les décisions ... amenant une personne à se comporter, à se forger une opinion ou à prendre une décision à son détriment

Systèmes d'IA utilisés pour une surveillance aveugle appliquée de manière généralisée

Systèmes d'IA utilisés pour le scoring social

ceux qui exploitent des informations ou des prédictions et une personne ou un groupe de personnes afin de cibler leurs vulnérabilités

L'analyste politique européen Daniel Leufer a tweeté que les définitions étaient très ouvertes à l'interprétation.

"Comment déterminer ce qui est au détriment de quelqu'un ? Et qui évalue cela?" il a écrit.

Pour l'IA jugée à haut risque, les États membres devraient appliquer beaucoup plus de surveillance, y compris la nécessité de nommer des organismes d'évaluation pour tester, certifier et inspecter ces systèmes.

Et toutes les entreprises qui développent des services interdits, ou ne fournissent pas d'informations correctes à leur sujet, pourraient faire face à des amendes pouvant atteindre 4% de leurs revenus mondiaux, similaires à des amendes pour violations du RGPD.

Les exemples d'IA à haut risque comprennent:

les systèmes qui établissent la priorité dans la répartition des services d'urgence

les systèmes déterminant l'accès ou l'affectation des personnes aux établissements d'enseignement

les algorithmes de recrutement

ceux qui évaluent la solvabilité

ceux pour faire des évaluations individuelles des risques

les algorithmes de prédiction de la criminalité

M. Leufer a ajouté que les propositions devraient "être étendues pour inclure tous les systèmes d'IA du secteur public, quel que soit leur niveau de risque attribué".

"C'est parce que les gens n'ont généralement pas le choix d'interagir ou non avec un système d'IA dans le secteur public."

En plus d'exiger que les nouveaux systèmes d'IA aient une surveillance humaine, la CE propose également que les systèmes d'IA à haut risque aient un soi-disant interrupteur d'arrêt, qui pourrait être un bouton d'arrêt ou une autre procédure pour éteindre instantanément le système si nécessaire.

"Les fournisseurs d'IA seront extrêmement concentrés sur ces propositions, car cela nécessitera un changement fondamental dans la façon dont l'IA est conçue", a déclaré Herbert Swaniker, avocat chez Clifford Chance.

Sloppy et dangereux

Pendant ce temps, Michael Veale, professeur en droits numériques et réglementation à l'University College London, a mis en évidence une clause qui obligera les organisations à divulguer lorsqu'elles utilisent des deepfakes, une utilisation particulièrement controversée de l'IA pour créer de faux humains ou pour manipuler des images et des vidéos de personnes réelles. .


Il a également déclaré à la BBC que la législation était principalement "destinée aux vendeurs et aux consultants vendant - souvent absurde - la technologie de l'IA aux écoles, aux hôpitaux, à la police et aux employeurs".

Mais il a ajouté que les entreprises de technologie qui utilisaient l'IA "pour manipuler les utilisateurs" pourraient également devoir changer leurs pratiques.

Avec cette législation, la CE a dû marcher sur une corde raide entre s'assurer que l'IA est utilisée pour ce qu'elle appelle "un outil ... dans le but ultime d'améliorer le bien-être humain" et s'assurer qu'elle n'empêche pas les pays de l'UE de rivaliser avec les États-Unis et la Chine sur les innovations technologiques.

Et il a reconnu que l'IA informait déjà de nombreux aspects de nos vies.

Le Centre européen pour le droit des organismes sans but lucratif, qui avait contribué au Livre blanc de la Commission européenne sur l'IA, a déclaré à la BBC qu'il y avait "beaucoup d'imprécision et de lacunes" dans la législation proposée.

«L'approche de l'UE en matière de définition binaire du risque élevé par rapport au risque faible est au mieux bâclée et au pire dangereuse, car elle manque de contexte et de nuances nécessaires pour l'écosystème complexe d'IA déjà existant aujourd'hui.

«Premièrement, la commission devrait considérer les risques des systèmes d’IA dans un cadre fondé sur les droits - comme des risques qu’ils posent pour les droits de l’homme, l’état de droit et la démocratie.

"Deuxièmement, la commission devrait rejeter une structure simplifiée à faible risque et envisager une approche par niveaux sur les niveaux de risque d'IA."

Les détails pourraient à nouveau changer avant que les règles ne soient officiellement dévoilées la semaine prochaine. Et il est peu probable qu'il devienne loi avant plusieurs années.

Content created and supplied by: Delmas46 (via Opera News )

europe

COMMENTAIRES

Chargez pour lire plus de commentaires