Intelligence artificielle : le recours à la surveillance de masse pourrait s'intensifier en Europe

En décembre dernier, l'UE a conclu un premier accord sur l'intelligence artificielle qui limiterait son utilisation à des contextes très spécifiques et sous autorisation judiciaire. Une attaque terroriste ou la recherche de personnes enlevées en font partie.

Mais pour les organisations de la société civile, des lacunes subsistent.

"Ils ont mis en place des conditions très larges dans lesquelles la police peut utiliser ces systèmes. Ce que nous craignons, c'est que cela ait un effet de légitimation. Ces systèmes que, jusqu'à présent, nous avons pu contester et dire que nous ne voulions pas de cela dans une société démocratique, deviendront plus difficiles à repousser. Et nous pourrions voir d'autres pays dans le monde dire : "Eh bien, l'UE a approuvé ces technologies", explique Ella Jakubowska, Reclaim Your Face.

Alors que le Parlement européen souhaitait une interdiction, des pays comme la France ont fait pression pour une série d'exceptions qui permettraient une utilisation plus étendue. Et ont même annoncé l'utilisation de l'IA pour contrôler les activités suspectes pendant les Jeux olympiques.

Les organisations de défense des droits numériques dénoncent le fait que la nouvelle législation européenne n'exclut pas totalement la surveillance massive.

"Nous pouvons nous attendre à une augmentation potentielle de l'utilisation des systèmes de reconnaissance faciale dans nos espaces publics, en particulier lorsque ces systèmes sont utilisés en direct. L'idée est donc que lorsque vous vous promenez dans un espace public, que vous allez dans les magasins, à l'école, chez le médecin, à une manifestation, les forces de l'ordre pourraient avoir davantage de pouvoirs pour utiliser cette technologie de reconnaissance faciale en direct afin de vous suivre dans le temps et l'espace, où que vous alliez. ", ajoute Ella Jakubowska, "Reclaim Your Face.

Mais pour certains députés, la loi proposée est un bon équilibre entre la sécurité et les droits civils.

"Je pense que c'est un très bon moyen de trouver un équilibre entre l'intégrité et la sécurité. Si nous avions interdit cette technique, deux choses se seraient produites. D'abord, pour les sociétés. Pourquoi l'intégrité d'un terroriste serait-elle plus importante que la sécurité de nos citoyens ? Et deuxièmement, cette technique continuerait à être développée par d'autres pays et en particulier par la Chine", estime Arba Kokalari, députée européenne PPE, Suède.

Ce vendredi, les pays de l'UE voteront le texte final de la loi. Certains d'entre eux sont encore indécis. En cas d'échec, l'UE devra reprendre la négociation de la loi sur l'IA.