Les initiatives d'encadrement des algorithmes... par les textes (Partie 2)
- Elisa Sobczyk

- 9 mars 2021
- 3 min de lecture
Comme vu dans la Partie 1 de cet article, on constate quelques initiatives d'encadrement des algorithmes dans la pratique.
Mais y-a-t'il une volonté de les encadrer par les textes ?
Évolution dans les textes

Depuis quelques années, les effets des algorithmes sur l’économie et la société font objet de plusieurs rapports. Ainsi le sujet a été traité par le rapport conjoint de l'Autorité de la concurrence française et allemande (2016). Après avoir défini et étudié les différents types d’algorithmes, les deux autorités ont appréhendé les risques concurrentiels. Puis, en 2017, l’OCDE a spécifiquement analysé les cas où les algorithmes sont à l’origine de collusions, c’est-à-dire la situation dans laquelle les entreprises souhaitant renforcer leur position sur le marché, récompensent les concurrents qui confortent cette position, et sanctionnent ceux qui s’en écartent.
Du côté français, la Loi du 7 octobre 2016 pour une République numérique, a souhaité rendre les données publiques accessibles et transparentes et notamment les algorithmes publics, de plus en plus fréquents dans les décisions administratives (calcul d'impôt, affectation des élèves dans les établissements scolaires...). Cela signifie que toute personne destinataire d'une décision fondée sur un traitement algorithmique peut demander à l'administration les règles et caractéristiques du traitement (sauf exceptions). Les administrations peuvent aussi publier les informations relatives aux algorithmes utilisés en ligne, sur le site d'Etalab.

Du côté européen, le Règlement général sur la protection des données a demandé quelques garanties relatives aux décisions individuelles automatisées, que la CNIL définit comme « une décision prise à l’égard d’une personne, par le biais d’algorithmes appliqués à ses données personnelles, sans qu’aucun être humain n’intervienne dans le processus ».
De plus, la présidente de la Commission européenne a présenté, le 19 février 2020, la nouvelle stratégie de l’Union européenne, résumée dans un livre blanc sur l’intelligence artificielle et l’utilisation des données. Ce texte donne une base de réflexion pour une future réglementation encadrant l’Intelligence artificielle (IA), et vise notamment les applications à haut risque dans les secteurs risqués. Or l'IA peut être considérée comme un algorithme.
Il s’agit donc plutôt d’une proposition de futures obligations faites aux entreprises (BtoB). Ces dernières s'appliqueraient sur l'ensemble du cycle de vie d'un système contenant de l'intelligence artificielle (du développeur au fournisseur). Le livre blanc s'attache à mieux protéger les données utilisées pour l'apprentissage des algorithmes, mais aussi à assurer une meilleure transparence, accessibilité des algorithmes et une bonne information des utilisateurs. Les systèmes doivent aussi être plus robustes et résister aux attaques et tentatives de manipulation des données. Enfin, l'Homme doit pouvoir superviser certaines phases du cycle de vie du système IA : avant une prise de décision, notamment si elle a des conséquences sur les droits des personnes, mais aussi la capacité d’intervenir en temps réel (véhicule autonome...).
L’utilisation des algorithmes dans le cadre d’identification biométrique à distance fait également débat. C'est par exemple le cas de l’utilisation de caméras à reconnaissance faciale.
Ainsi, la Commission européenne tend à mettre en place une réglementation européenne qui pose des critères de conformité d’objets ou applications qui utilisent de l’intelligence artificielle (et donc par extension aux algorithmes). Pour cela, elle souhaite agir a priori : les outils feraient l’objet de contrôle de conformité par des autorités compétentes avant leur entrée sur le marché européen ; mais aussi a posteriori en sanctionnant les systèmes non conformes.
Enfin, la Commission a récemment dévoilé le projet du futur règlement européenne Digital Services Act (DSA). Parmi les obligations envisagées figurent, par exemple, celle d’assurer la transparence sur les algorithmes utilisés pour proposer les recommandations. Toutefois, nous n'avons pour le moment peu de détails sur ces obligations.
Pour plus d'informations sur le DSA, lire "Premier pas de la Commission dans la rédaction des futurs Règlements sur le marché numérique".



Commentaires