L’algorithme a-t-il un genre ? F´ed´eralisme,discriminations automatis´ees : pour une´epist´emologie f´eministe du droit administratif
L’adoption acc´el´er´ee de systemes d´ecisionnels automatis´es par les administrations publiques se pare trop souvent d’une aura de rationalit´e technique et de neutralit´e objective. Cette communication, qui s’inscrit r´esolument dans l’axe des ´epist´emologies critiques du num´erique, entend d´econstruire cette fausse neutralit´e (cette ” vision de nulle part ” critiqu´ee par Donna Haraway)a travers le prisme des droits des femmes. Nous postulons que l’automatisation
croissante des services publics, singulierement dans les domaines sensibles de l’aide sociale et de la sant´e, tenda institutionnaliser des formes de surveillance genr´ee affectant disproportionnellement les femmes.
Notre cadre d’analyse articule le droit public et le droit de la non-discrimination avec les
apports th´eoriques du Data Feminism et des Feminist Science and Technology Studies. En
mobilisant ces corpus, nous entendons d´emontrer que les bases de donn´ees alimentant les algorithmes publics ne sont pas neutres, mais refletent des historiques de gouvernance marqu´es par le patriarcat. En l’absence de garde-fous rigoureux, l’IA menace de transformer ces pr´ejug´es historiques en v´erit´es statistiques, p´erennisant par exemple la stigmatisation des meres monoparentales. L’enjeu d´epasse ici l’erreur administrative pour toucher a la violation syst´emique du droita l’´egalit´e.
La sp´ecificit´e de notre recherche r´eside dans l’´etude de l’intersection entre cette critique
f´eministe et la structure institutionnelle de l’Etat f´ed´eral. Nous explorons comment la frag- ´
mentation des comp´etences, inh´erente au f´ed´eralisme, impacte la lutte contre les discriminations algorithmiques. La r´epartition des pouvoirs g´enere-t-elle des zones d’ombre, des interstices ou la protection f´ed´erale abstraite ´echoue face `a une mise en œuvre locale automatis´ee ?
