Considérées comme de véritables ‘’boîtes noires’’, c’est à dire en s’appuyant sur des algorithmes opaques, les prises de décisions automatisées peuvent favoriser les situations de discrimination[3]. Les biais liés à une IA peuvent apparaître à différentes étapes du développement et de l’utilisation d’un algorithme, et leurs origines sont multiples[4]. En plus de perpétuer les stéréotypes existants, les algorithmes peuvent conduire à de nouvelles formes de discrimination, souvent fondées sur la couleur de peau ou l’apparence physique. Une enquête sur le logiciel a révélé sa partialité à l’égard des Afro-Américains[10] : COMPAS prédisait à tort que les délinquants afro-américains ont un risque plus élevé de récidiver. L’analyse d'impact requise par le RGPD pour certains traitements de données à risque pourrait être utilisée dans ces situations.
Source: Les Echos February 08, 2024 09:02 UTC