Régulation de l’IA pour un respect des données des personnes et conserver nos valeurs africaines
mardi 18 février 2025
Personnellement, je pense que l’IA n’évolue pas dans un vide juridique complet. Le droit actuel en vigueur au Sénégal comprend de nombreux éléments applicables aux systèmes d’IA. Toutefois, la capacité des règles existantes à offrir une réponse adaptée à certains enjeux émergents soulève des interrogations et nécessite des actions sur le plan de la gouvernance.
Plusieurs défis doivent être relevés pour y parvenir. En voici quelques-uns parmi les plus importants.
1- Le faible niveau de connaissance du public et des autorités à propos de l’IA, de ses usages et des enjeux qui y sont associés ;
2- Le tissu économique sénégalais, principalement formé de PME, de TPE et du secteur informel disposant de ressources limitées pour intégrer de nouvelles exigences dans un domaine complexe, et qui comprend des entreprises vulnérables aux avancées de l’IA, notamment dans le domaine de la culture ;
3- L’IA n’a pas de frontières sectorielles : elle n’est liée à aucun domaine d’application en particulier, et il est impossible d’en prévoir tous les usages futurs ;
4- L’IA ne connaît pas de frontières géographiques : cela soulève des questions complexes liées à la détermination de la responsabilité et de la protection des renseignements personnels. L’encadrement juridique est aussi en pleine effervescence, à cela s’ajoute une concurrence normative entre les États ;
5- La culture de l’innovation dans l’industrie numérique, qui se caractérise par l’introduction accélérée d’innovations dans un contexte de faible règlementation, où l’on tolère que les lacunes soient corrigées après coup. Cette dynamique et cette culture particulières distinguent l’industrie numérique des autres industries innovantes.
Partant de ces constats, il me semble que nous devrons dans les prochains mois prendre des orientations qui visent à guider les actions futures sur la gouvernance de l’IA et ces actions doivent d’abord se baser sur certains principes et valeurs communes : en priorité, le respect des droits de la personne, des libertés individuelles et des valeurs culturelles et sociales doit figurer au premier plan des préoccupations. Par ailleurs, le contrôle démocratique de l’encadrement de l’IA doit aussi permettre d’assurer la participation de la société sénégalaise aux débats, et ce, en continu. Il faut par ailleurs tenter d’exercer une forme d’autonomie stratégique, d’autres diront de « souveraineté numérique », en étant conscient que la propriété des SIA et le contrôle des données constituent des enjeux importants. En effet, les SIA colligent des masses importantes de données et le principe de consentement n’est respecté que de manière imparfaite. Il faut enfin veiller à l’adéquation des modèles d’IA aux réalités du Sénégal (si possible) pour que les avantages attendus des SIA se concrétisent. Sous ce rapport, pour être une réussite, il nous faudra :
1- Assurer la cohérence globale de l’encadrement avec le droit existant et à venir des SIA, que ce soit sur le plan national et continental ;
2- Assurer l’agilité et la pérennité du cadre règlementaire afin de suivre l’évolution rapide du domaine, ce qui nécessitera d’innover à la fois sur le plan du contenu de la législation et des normes et sur le plan institutionnel ;
3- Créer un climat de confiance, en faisant en sorte que le cadre de gouvernance soit à la hauteur des défis sociaux que soulève l’IA. Concrètement, il nous faudra adopter une approche par les risques qui encadre les usages et non la technologie, en raison de la très grande polyvalence de l’IA. Certains usages qui posent des risques très graves pourraient être proscrits, tandis que les usages anodins ne feraient pas l’objet de contrôles particuliers. Il existerait alors une gamme de contrôles intermédiaires entre ces deux extrêmes. L’approche par les risques est flexible et propice à l’innovation dans l’industrie, tout en assurant la protection du public.
Un encadrement centré uniquement sur les usages pourrait toutefois se révéler insuffisant pour certaines IA génératives et systèmes de grande capacité, nécessitant possiblement un encadrement ciblé appliqué aux technologies elles-mêmes. Il serait souhaitable d’adopter une loi cadre sur l’intelligence artificielle afin d’offrir une sécurité juridique aux entreprises privées, et aux personnes et dans laquelle seront précisées les grandes orientations sur les instruments de gouvernance sectoriels ainsi que les instances de régulation autonomes.
C’est pourquoi, je pense que la gouvernance et la régulation de l’IA doit reposer sur une panoplie d’outils, et pas seulement sur les lois et les règlements. Il serait pertinent de donner un rôle aux normes et aux organismes de normalisation qui développent actuellement des outils propres à l’IA aussi bien à l’échelle nationale qu’internationale.
Conclusion
Notre cartographie des acteurs et initiatives au Sénégal et en Afrique, ne nous offre pas une grille de lecture pour comprendre les enjeux de l’IA, relativement sur les questions de l’éthique, de la normalisation et de la certification. Nous remarquons, que de plus en plus d’acteurs se lancent dans la mise en place de normes ou de processus de certification pour l’éthique de l’IA, alors que le concept même d’une norme technique pour l’éthique fait débat et si nous dressons un panorama de leurs activités, nous remarquons que beaucoup de tensions peuvent émerger entre eux. Cet écosystème des systèmes d’IA est aujourd’hui caractérisé par une rivalité de gouvernance opposant d’un côté les normes européennes, et de l’autre les normes internationales. L’émergence de cadres normatifs permet de multiplier certes les garde-fous, mais attention de ne pas dévoyer l’éthique en diffusant des critères d’évaluation manquant toute de légitimité.
Il est essentiel de garder à l’esprit que l’éthique est intrinsèquement contextuelle et, dans une certaine mesure, subjective. Une certification ne pourra garantir le respect absolu de principes éthiques et de droits individuels. La question de savoir qui est responsable du développement de ces cadres d’évaluation est importante, car ils façonneront le développement des futurs systèmes, avec parfois un impact mondial. Afin de ne pas donner aux utilisateurs et aux citoyens la fausse impression que leurs droits sont nécessairement préservés, par exemple grâce au marquage CE, les limites de cette certification doivent toujours être mises en avant.
Même si le marquage CEtémoigne d’une certaine démarche de qualité, pour identifier et réduire les biais par exemple, cette démarche ne change rien en ce qui concerne la responsabilité de l’opérateur pour une décision algorithmique discriminatoire. Ainsi, la certification ne fonctionnera que si elle est accompagnée d’un régime de responsabilité et de procédures de recours en cas de préjudice. Enfin, notons que si les initiatives visant à normaliser et à certifier l’éthique cherchent à prévenir les dérives potentielles, les mesures de protection précises qu’elles définiront restent encore indéterminées. En effet, la plupart des normes dans ce domaine ne sont pas encore développées, et celles qui le sont, ne sont pas encore opérationnelles. Enfin, l’interconnexion entre les instances de normalisation techniques et les instances étudiant le respect par l’IA des droits fondamentaux me semble indispensable.
Isaac I. Sissokho
Docteur en Droit
(Source : Social Net Link, 18 février 2025)