Big Data : la Maison Blanche met en garde contre les biais de l’Intelligence Artificielle

L’administration Obama publie un rapport qui examine les problèmes et défis posés par la transition vers un monde de plus en plus automatisé et soumis aux décisions dictées par les données. Question centrale : comment gérer des prises de décisions algorithmiques qui fonctionnent le plus souvent sans surveillance humaine afin de garantir aux clients et aux citoyens un traitement sans discrimination.

« Les techniques du Big data ont le potentiel d’améliorer notre capacité à détecter et prévenir la discrimination » mentionne le rapport. « Mais si ces technologies ne sont pas mises en place avec précaution, elles peuvent également perpétuer, exacerber ou masquer des discriminations préjudiciables ».

« Il est souvent admis que les techniques de Big Data sont impartiales grâce à l’échelle des données et l’utilisation de systèmes algorithmiques » explique le rapport. « Toutefois, c’est une erreur d’assumer qu’elles sont objectives simplement parce qu’elle sont pilotées par les données ». Surtout, le traitement automatisé des données masque les erreurs et les biais dans les données ou dans l’élaboration des algorithmes souligne le rapport.

Accès au crédit et recrutement en entreprise

Dans le domaine de l’accès au crédit, le rapport mentionne que de nombreux américains ne peuvent emprunter à un taux compétitif du fait d’un historique de crédit pas assez signifiant. « L’utilisation du Big Data dans les prêts peut augmenter l’accès au crédit pour ceux qui sont le plus mal desservis financièrement » relève le document. Et ce via le croisement de bases de données par exemple (factures téléphoniques, domiciliation, cursus scolaire, avis d’imposition, mais aussi données issues des réseaux sociaux et historiques d’achat en ligne).

Une étude du Policy and Economic Research Council citée dans l’étude mentionne que les historiques des factures d’électricité, d’eau et de télécommunications étaient incluses dans l’étude des dossiers de prêts bancaires, plus de 70% des dossiers écartés habituellement pourraient être pris en compte. Mais une autre étude, de la FTC cette fois, mentionne que 21% des consommateurs lui reportent au moins une erreur factuelle sur leurs relevés bancaires. Elargir les sources de données pour noter les dossiers de crédit en utilisant en plus des historiques de remboursement des données issues de réseaux sociaux ou de relevés GPS « augmenterait la présence d’erreurs dans les données factuelles » collectées conclut le rapport de la Maison Blanche.

Autre exemple cité dans le rapport, celui des outils RH d’aide à la décision en matière de recrutement. Si le constat que les techniques classiques de recrutement mettent de côté des candidats qui possèdent pourtant les qualités pour postuler sur un emploi est partagé, l’utilisation de l’analyse de données pour ce faire n’est pas la garantie d’un meilleur traitement.

De la même manière qu’un recruteur va examiner des CV au regard de ses propres biais, les systèmes d’aide à la décision RH peuvent aussi comporter des éléments de discrimination. Le rapport mentionne la corrélation trouvée après analyse de données par un cabinet de recherche entre la distance domicile / travail et la durée dans un emploi. « Si les systèmes algorithmiques étaient entraînés à faire confiance à cet indicateur sans autre considération, ils pourraient être discriminant envers des candidats qui, même s’ils sont par ailleurs qualifiés, habitent dans des zones plus éloignées que d’autres candidats » détaille le rapport qui couvre également deux autres cas d’étude, dans les secteurs de l’éducation et de la justice pénale.

En conclusion du rapport, la Maison Blanche souhaite mettre en place un cadre éthique pour la conception d’Intelligence Artificielle.

Guillaume Serries

Par Guillaume Serri

http://www.zdnet.fr/actualites/big-data-la-maison-blanche-met-en-garde-contre-les-biais-de-l-intelligence-artificielle-39836578.htm

Publicités