A plus d’un titre, l’intelligence artificielle est une technologie de rupture du fait des nombreuses opportunités de progrès sociétaux qu’elle offre, mais aussi du fait qu’elle peut parfois poser question au niveau éthique. Au sein des instances dirigeantes de l’Union européenne (UE), l’intelligence artificielle (ou IA) figure aujourd’hui, comme la gestion des données, parmi les grandes priorités qui permettront de réussir collectivement la transition vers une économie plus numérique et résiliente. Son importance est donc stratégique et ses nombreuses applications nécessitent d’être bien encadrées.

Par Guillaume De Landtsheer, Directeur Général de NetApp France

 

Le 21 avril dernier à Bruxelles, la Commission européenne a fait un pas supplémentaire dans cette voie en présentant sa proposition pour une nouvelle réglementation de l’IA au sein des Etats membres de l’UE.

A l’avant-garde de la réglementation en matière d’IA

Aussi novatrice et ambitieuse que le domaine qu’elle aborde, cette proposition de réglementation constitue la première ébauche de cadre juridique du genre aussi bien à l’échelle européenne que mondiale. Elle est le fruit de nombreuses réflexions, entamées dès 2017 au sein de groupements d’experts, sur la définition à donner à la responsabilité civile ou à la propriété intellectuelle de l’IA, ou bien encore sur le cadre juridique à lui apporter pour un respect sans discrimination des droits humains fondamentaux. Publié en février dernier, le Livre blanc sur l’IA de l’INRIA en est un bon écho.

Cette proposition de réglementation entend établir à terme une législation commune pour l’UE afin d’éviter certaines dérives éthiques et de construire une intelligence artificielle de confiance, capable de garantir « la sécurité et les droits fondamentaux des personnes et des entreprises, tout en renforçant l’adoption, l’investissement et l’innovation » dans ses multiples domaines. Ou, en d’autres termes, la recherche d’un juste équilibre entre croissance et régulation qui rassemblera toutes les conditions propices au développement de l’IA dans l’écosystème technologique européen.

Pour l’heure, cette proposition de réglementation n’en est qu’à ses débuts et doit maintenant être étudiée et débattue au sein du Parlement européen et des Etats membres. La route est donc encore longue avant qu’elle n’entre en vigueur mais la dynamique, elle, est bien lancée.

Pour une intelligence artificielle de confiance

Au même titre que le RGPD, cette réglementation européenne de l’IA s’appliquera aussi bien pour les entreprises ou organisations diverses basées en Europe que pour celles travaillant avec elle. Tous les systèmes d’intelligence artificielle s’y référant devront ainsi être testés et évalués avant d’être mis sur le marché, de même qu’ils devront obtenir une certification associée selon leur niveau de risque établi.

Ces quatre niveaux de risques sont au cœur du nouveau projet de réglementation européenne, avec en cas de non-respect de lourdes sanctions financières pour les contrevenants. Pour éviter autant que possible les biais algorithmiques, tous les systèmes basés sur une IA devront répondre à des critères très stricts de sécurité, de robustesse, de transparence, d’efficacité et de non-discrimination : ceux aux risques jugés « minimes » (jeux vidéo, filtres anti-spam, etc.) qui resteront en libre usage comme ceux aux risques « limités » (chatbots) où davantage de transparence sur la présence d’une IA sera nécessaire, de même que ceux aux risques « élevés » pour toutes les infrastructures critiques (énergies, transports, éducation, médecine, services publics, etc.), et ceux aux applications « inacceptables » telles que les manipulations de personnes privant du libre-arbitre, les notations sociales ou la biométrie à distance généralisée.

Selon une étude récente d’Eurostat, l’organisme statistique rattaché à la Commission européenne, seulement 7 % des entreprises d’au moins 10 salariés en Europe utilisent aujourd’hui les systèmes d’intelligence artificielle les plus fréquents, contre 6 % en France ou 23 % en Irlande et 19 % à Malte. La démocratisation de ce type de technologie est donc encore balbutiante mais l’engouement suscité par son incroyable potentiel conduit d’ores et déjà à bien réfléchir à ses fondations. Le cadre législatif qui se dessine en est une bien sûr, l’adoption de solides infrastructures de stockage en est une autre.

Le socle indispensable de solides infrastructures de stockage

Qu’ils soient basés sur du machine learning pour définir des tendances à grande échelle, ou sur du deep learning pour des modèles d’actions grâce à une perception automatique des choses, les systèmes d’intelligence artificielle ont ce point commun de devoir gérer et consommer beaucoup de données. Pour répondre efficacement aux nombreuses exigences demandées, les solutions développées par des acteurs de l’IA doivent donc pouvoir bénéficier d’une simplification d’exécution ainsi que d’un cheminement clair et dégagé du parcours effectué par leurs myriades de données. Soit, au fond, la garantie d’une élimination des goulots d’étranglement et d’une visibilité renforcée pour tout type de donnée, structurée ou non, de la périphérie jusqu’au cloud en passant par le cœur du data center.

Que ce soit pour une agriculture de précision capable de réagir de façon proactive à ses besoins nutritionnels ou pour une assistance au corps médical capable d’offrir des thérapies plus rapides et personnalisées dans le traitement des cancers, les briques de l’IA se posent d’abord autour de la question du stockage des données.

 

Tribune publiée le 08 juin 2021 sur La Tribune.