Rechercher

Comment la Suisse doit-elle réglementer l’intelligence artificielle ?

L’intelligence artificielle comporte des risques sociétaux, éthiques et liés à la protection des données. De nombreux pays songent actuellement à d’éventuelles réglementations. La Suisse procède de manière différenciée.
La diffusion croissante de l’intelligence artificielle lui vaut d’être de plus en plus observée. Un bus autonome à Sion. (Image: Keystone)

L’intelligence artificielle (IA) intervient dans toujours plus de domaines : elle aide une doctoresse à diagnostiquer des maladies, dit au paysan quand il doit traire une vache et suggère de nouvelles chansons à une mélomane. Depuis une décennie, les progrès du traitement des données et la disponibilité croissante de ces dernières sont des facteurs clés de l’essor foudroyant de cette technologie, qui combine ingénieusement données, algorithmes et puissance de calcul.

Dans le sillage de l’irrésistible numérisation de la société, de l’économie et de l’État, l’IA – et notamment l’apprentissage automatique – s’avère être une technologie novatrice clé, dotée d’un immense potentiel pour améliorer l’efficacité de l’utilisation des ressources existantes et stimuler la croissance.

De l’observation à la réglementation


La diffusion croissante de l’IA lui vaut d’être de plus en plus observée par des institutions comme l’Organisation de coopération et de développement économiques (OCDE), le Conseil de l’Europe ou l’Union européenne (UE)[1]. Les risques qui y sont liés sont apparus plus clairement : intrusion dans la sphère privée, processus décisionnels opaques et moralement discutables, emploi à des fins criminelles, discrimination en fonction de l’origine ou du genre, etc. Pour prévenir ces dangers, des États et des organisations internationales ont édicté ces dernières années des directives non contraignantes concernant le traitement juridique de l’IA. L’OCDE a ainsi publié en 2019 des recommandations sur l’IA, suivies une année plus tard par l’UE et son « Livre blanc »[2]. Sous l’égide de la Suisse, le Conseil de l’Europe a en outre rédigé des recommandations concernant l’effet de l’IA sur les droits de l’homme[3] et s’est penché dans une étude de faisabilité sur les instruments juridiques se rapportant à l’IA[4]. En Suisse, le Conseil fédéral a adopté en 2020 les lignes directrices en la matière pour la Confédération[5].

La Commission européenne a ensuite publié en avril 2021 un projet de réglementation complète concernant l’IA[6]. Ce projet se rattache par sa conception au Règlement général sur la protection des données (RGPD) de l’UE et entend soumettre les services publics et les particuliers à des obligations dans le monde entier selon le principe du lieu où se tient le marché. Il mise sur des devoirs détaillés de transparence et de redevabilité, et prévoit des sanctions draconiennes en cas d’infraction.

À cela s’ajoutent de nouvelles réglementations de la protection des données, qui concernent toujours l’IA lorsqu’il s’agit du traitement de données personnelles. Le Conseil de l’Europe a ainsi mis à jour sa Convention sur la protection des données en 2018 et l’UE a adapté le RGPD aux besoins de l’ère numérique. En Suisse, le Parlement a approuvé en septembre 2020 la révision de la loi fédérale sur la protection des données (LPD), qui s’inspire sur le fond du RGPD. La LPD entrera probablement en vigueur l’année prochaine.

Un appel à la transparence


Les différents projets de réglementation lancés dans le monde présentent de nombreuses similitudes : ils entendent dans les grandes lignes garantir la robustesse technique et la sécurité, assurer le respect des droits de l’homme et l’interdiction des discriminations, et maintenir la transparence. Quiconque développe et utilise l’IA devra rendre des comptes. Autrement dit, il s’agira de prendre les mesures nécessaires pour minimiser ou exclure les risques concomitants et fournir la preuve que ces mesures ont été adoptées et sont efficaces. Dans certaines réglementations proposées, les responsables encourent des sanctions s’ils ne respectent pas les prescriptions.

Ce sont certes là des critères utiles. Ils sont compréhensibles pour la société et susceptibles de renforcer la confiance tant dans le progrès technique que dans le contrôle de la mutation structurelle induite par la numérisation. Les principes des exigences faites aux industries qui exploitent les données ne sont d’ailleurs pas nouveaux. Les réglementations actuelles concernant la protection spécifique des données personnelles, à commencer par le RGPD européen, imposent déjà ces exigences aux exploitants de données. Même la convention du Conseil de l’Europe sur la protection des données s’est expressément préoccupée du traitement automatisé des données personnelles dès sa création en 1981.

Le problème réside cependant dans le fait que l’IA est une technologie fondamentale utilisée dans de nombreux domaines, avec une intensité et une utilité variables. Autrement dit, une réglementation parfaitement uniforme se heurtera tôt ou tard à des limites. C’est ce que montre la mise en œuvre complexe du RGPD européen, de nombreuses questions de détail restant encore sans réponse trois ans après son entrée en vigueur. Une réglementation détaillée de l’IA englobant les nouveaux traitements de toutes sortes de données (y compris les données de machines) susciterait sans doute encore davantage de questions.

Le projet de règlement européen entend certes introduire une forte uniformisation, mais veut surmonter ces obstacles par une approche axée sur le risque. À cet effet, il énumère de façon exhaustive les champs d’application et les secteurs dans lesquels la Commission européenne envisage chaque fois un risque accru. La Commission signale ainsi parallèlement qu’elle considère le périmètre de régulation comme variable en ampleur et dans le temps.

À l’opposé, le Conseil de l’Europe est nettement plus sur la retenue. Dans son étude de faisabilité, il recommande une combinaison d’éléments complémentaires contraignants et non contraignants de « droit mou » (« soft law »). Les éléments légalement contraignants ne devraient pas être conçus de façon trop étroite pour ne pas freiner l’innovation[7].

Rester vigilant


Du point de vue suisse, il s’agit de privilégier l’approche du Conseil de l’Europe. Avec ses entreprises novatrices et ses vastes activités de recherche, la place industrielle helvétique est idéalement positionnée pour intégrer l’IA dans de nouveaux produits et services. L’IA passera automatiquement dans la ligne de mire, dès lors que les exploitants de données devront prochainement appliquer la loi révisée et détaillée sur la protection des données. Les délibérations des Chambres fédérales montrent que le législateur a expressément songé à l’IA dans les dispositions concernant le traitement automatisé de données personnelles pour évaluer, analyser ou prédire certains aspects individuels comme la santé, le lieu de séjour et les préférences (« profiling »)[8]. La question se pose même de savoir si, dans le champ d’application de l’IA qui équivaut largement au traitement des données personnelles, la nouvelle réglementation sur la protection des données ne suffirait pas déjà entièrement. Elle pourrait si nécessaire être complétée de façon ciblée par des recommandations adaptées.

Pour les autres domaines n’impliquant que des données matérielles (comme les véhicules, les trains et les navires autonomes, l’exploitation optimisée et sans surveillance de machines, le secteur agricole ou la recherche de produits thérapeutiques à partir de données anonymisées), il sera plus judicieux d’attendre le développement des normes et des attentes internationales – ne serait-ce que pour éviter de corseter trop tôt les entreprises exportatrices par une réglementation susceptible de ne pas durer. La mise en œuvre des stratégies faîtières du Conseil fédéral « Suisse numérique » et « Stratégie de politique extérieure numérique » forme le cadre idéal pour des ajustements ponctuels appropriés. Sur le plan international, la Suisse s’engage en outre activement en faveur de la poursuite de l’aménagement des attentes reconnues concernant le recours productif et éthiquement défendable à l’IA.

  1. Observatoire des politiques de l’IA de l’OCDE, Comité ad hoc du Conseil de l’Europe sur l’IA (Cahai), Observatoire de l’IA de la Commission européenne[]
  2. Commission européenne (2020), OCDE (2019). []
  3. Conseil de l’Europe (2020a). []
  4. Conseil de l’Europe (2020b et 2020c). []
  5. Conseil fédéral (2020). []
  6. Commission européenne (2021). []
  7. Conseil de l’Europe (2020c), chiffre 177. []
  8. Art. 5f et 5g LPD rév. (2020). []

Bibliographie

Proposition de citation: Jacques Beglinger (2021). Comment la Suisse doit-elle réglementer l’intelligence artificielle . La Vie économique, 02 juillet.