Surmonter les préjugés dans un monde de fausses informations

Les « data », le « Big Data », les « data sciences » : à l’ère de l’information, les données font l’objet de nombreuses convoitises. Politiciens, entreprises, organisations à but non lucratif, blogueurs, journalistes, tout le monde se les arrachent, comme on s’arrachait les fameux produits de consommation il n’y a encore pas si longtemps.

L’enjeu concerne à présent de plus en plus leur fiabilité. Certes, on arrive maintenant à retraiter des volumes gigantesques de données, mais qu’en faire, si ce sont de fausses informations ?

Les fausses informations se cachent partout

En tant que Business Analysts, nous consommons, transformons, interprétons les fameuses « data ». Le prérequis pour fournir des recommandations de qualité, est donc de travailler sur une matière première fiable, exhaustive, non ambiguë.

Or, il n’est vraiment pas simple de passer outre les préjugés, biais cognitifs et autres données truquées. Un homme / une femme averti(e) en valant deux, je vous propose dans l’article de cette semaine de lire la perspective hyper intéressante de Rajshree Agarwal.

(article de Rajshree Agarwal traduit de l’anglais par bestofbusinessanalyst.fr)

Quand il s’agit de recruter de nouveaux talents, il est parfois plus approprié de faire appel à une machine qu’à un être humain. Si les robots sont en effet utiles pour les tâches répétitives ou dangereuses, ils peuvent en effet aussi être efficaces pour éviter les préjugés.

>> Lire aussi : Comment automatiser vos tâches à faible valeur ajoutée grâce à la RPA

L’intelligence artificielle a ses limites

L’Intelligence Artificielle (IA) surpasse déjà les juges humains quand il s’agit d’accorder ou non la mise en liberté sous caution, tout simplement parce que ceux-ci ont tendance à surinterpréter le comportement des accusés, et qu’ils évaluent mal les risques de fuite. De même, les algorithmes d’aide à l’embauche sont plus efficaces que les recruteurs pour la sélection des CV, car les « humains des ressources humaines » ont une large tendance à favoriser les candidatures dites « classiques ».

Malheureusement, l’IA a aussi ses angles morts. Les ordinateurs s’en fichent peut-être de la race ou du genre ; en revanche, ils s’appuient sur des données qui reflètent les corrélations basées sur les actions humaines passées. Certains préjugés sont donc de facto intégrés dans les données.

Par exemple, les personnes qui recherchent des noms à consonance noire dans Google (voir l’article du Boston Globes), voient la page de résultats afficher également plus de publicités offrant des services de vérification des antécédents criminels. Et les mots-clés comme “avoir un teint lumineux” produisent surtout des images de femmes à la peau claire. “Vous ne verrez pas une seule photo d’homme dans les premières pages de la recherche internet”, explique Deb Raji, chercheuse à l’AI Now Institute de l’université de New York.

Les fausses informations sont parfois discriminatoires

Amazon et IBM ont initialement rejeté l’article de Deb Raji sur les préjugés intégrés aux logiciels de reconnaissance faciale, qu’elle a co-écrit en 2018 avec Joy Buolamwini du MIT. Mais, à la suite du meurtre de George Floyd à Minneapolis, les deux entreprises ont quand même annoncé mettre en pause l’utilisation de leurs produits par les services de police…

Depuis lors, les protestations nationales se sont focalisées sur les préjugés raciaux, mais il n’en reste pas moins vrai que n’importe quelle supposition erronée basée sur les ‘data’ peut conduire à des erreurs coûteuses, que ce soit dans ou en dehors d’un contexte sociétal.

La bonne nouvelle pour les dirigeants qui doivent piloter leurs entreprises dans un environnement mondialisé envahi de fausses informations, est que les outils d’aide à la décision peuvent surmonter les biais cognitifs et les préjugés, si on les utilise consciemment et à bon escient.

Les données statistiques sont biaisées

La première chose à comprendre est que les algorithmes qui font des prédictions et qui facilitent les décisions basées sur des modèles existants, sont eux-mêmes façonnés par le comportement humain. Les statistiques de la criminalité, les chiffres des inscriptions dans les universités, les tendances du marché etc… ne tombent pas du ciel sous une forme neutre. Elles sont biaisées dès le départ. Tous ces chiffres reflètent des milliers voire des millions de décisions individuelles, agrégées entre elles pour montrer les tendances.

Pris isolément, les faits en eux-mêmes ne constituent pas un problème.

Les biais apparaissent — généralement par accident — lorsque l’on combine les informations dans un ordre particulier et que l’on en tire des conclusions. Certains détails sont omis, tandis que d’autres sont, à l’inverse, mis en évidence. Et certaines questions ne sont jamais posées.

Les gens ont tendance à voir ce qu’ils cherchent.

Les décideurs « intelligents » ne rejettent cependant pas les « data » simplement parce qu’elles risquent d’être biaisées. Ils choisissent plutôt d’interagir soigneusement avec les informations qui leur sont soumises, car ils savent qu’il n’y a pas que des généralités, il y a aussi des cas particuliers. Et avant tout, ils s’efforcent d’éliminer consciemment les / leurs biais cognitifs.

>> Lire aussi: L’effet de récence (et ses répercussions sur vos contributeurs)

Prendre des décisions en se basant sur les meilleures données disponibles signifie s’engager à être le plus objectif possible, et à accepter de changer d’opinion ou de décision si les conclusions s’avèrent finalement fausses. Se laisser ronger par la culpabilité ou s’auto-flageller pour s’être trompé en se basant sur des données biaisées est contre-productif.

Certaines personnes ont cependant des objectifs cachés

Bien que la partialité résultant des biais cognitifs soit heureusement le plus souvent involontaire, mes coauteurs et moi-même explorons un scénario différent dans nos nouvelles recherches. 

En effet, dans de nombreuses situations, des personnes retiennent ou déforment intentionnellement des données pour truquer les résultats en leur faveur.

Cela se produit dans de nombreuses situations de la vie courante, qu’elles soient économiques et commerciales. Par exemple, lorsqu’un assuré dépose une demande d’indemnisation à son assurance, avec une déclaration « grossie » en sa faveur. Ou tout simplement dans le cas de candidats à un recrutement qui arrangent leur CV pour avoir plus de chances. Même s’ils ne mentent pas sur toute la ligne, toutes ces personnes mettent l’accent sur les détails positifs tout en cachant intentionnellement leurs points faibles.

Les rédacteurs de contenu web font exactement la même chose en optimisant ainsi leur visibilité auprès des moteurs de recherche. Ils essaient en quelque sorte de tromper les algorithmes de Google pour générer du trafic vers leurs sites.

Les brevets en proie au trucage de données

Enfin, nous avons également mis en évidence dans notre étude que les dossiers de candidature soumis à l’Office américain des brevets et des marques, étaient également incités à truquer leurs données.

En effet, sans considération aucune de la pertinence du contenu à breveter, le but des demandeurs est de démontrer la nouveauté et la nature “non évidente” de l’invention, afin d’obtenir le précieux sésame. De nombreux demandeurs insèrent donc dans leur dossier de fausses informations, omettent de citer leurs sources ou encore, attribuent de nouvelles significations à des mots existants afin de dissimuler la faiblesse de leur dossier de dépôt de brevet.

Faire diversion fonctionne également très bien, la plupart du temps en raison de ce que l’on appelle le “biais de saillance” : il s’agit tout simplement de la tendance naturelle des êtres humains à se focaliser sur des informations jugées plus importantes, tout en négligeant ou en minimisant les informations estimées moins importantes.

Les machines peuvent aider, mais elles ne peuvent pas tout faire toutes seules

Les biais introduits dans les données créent des problèmes, certes.

Il en va de même pour les hypothèses et décisions fondées sur des biais de saillance, en particulier lorsque des personnes manipulent intentionnellement leurs données.

Ces deux défis – analyser des données statistiques biaisées ET des données volontairement truquées – rendent la tâche encore plus difficile aux examinateurs des demandes de dépôt de brevets que nous avons interrogés pour notre étude.

>> Lire aussi: Pourquoi les “data” sont-elles aussi importantes pour les dirigeants ?

Heureusement, l’Intelligence Artificielle peut venir à leur rescousse. Sa puissance de calcul, associée à son immunisation à l’ennui et à la fatigue, lui permet de traiter les incohérences de manière fulgurante et avec une précision stupéfiante.

Mais, pour contourner sa force de frappe, les humains sont également pleins de ressources… Ainsi, certains envoient désormais des données truquées intentionnellement, juste pour tromper les algorithmes de l’IA.

Pour surmonter les prédictions biaisées, l’intelligence artificielle doit donc également apprendre à traiter certaines informations comme des informations contradictoires. Ces programmes doivent surmonter la première loi de l’informatique : “Garbage in, garbage out”.

En d’autres termes, les données peu fiables collectées en entrée doivent être transformées en données fiables en sortie de flux.

Et, en général, cela nécessite une assistance humaine…

L’alliance des humains et des machines

Les meilleurs résultats sont obtenus lorsque les hommes et les machines travaillent ensemble, comme des alliés. Ces équipes « cyborg », qui complètent leurs forces et leurs faiblesses respectives, acquièrent un avantage compétitif dans la collaboration.

Ainsi, les personnes qui savent travailler efficacement avec les machines pour détecter et éliminer les préjugés ont tendance à accroître leur propre expertise (la notion d’expertise fait référence aux compétences et à l’expérience accumulées dans un domaine spécifique).

>> Lire aussi: Est-ce que l’Intelligence Artificielle peut remplacer les managers ?

Par exemple, les examinateurs de brevets d’inventions mécaniques ont besoin d’une formation théorique en ingénierie. Mais ils doivent également avoir une expérience du monde réel pour passer au crible les inventions existantes et passées, identifier les astuces employées dans les dossiers de dépôts de brevet pour faire valoir une soi-disant invention, et apprendre à les contrecarrer.

Le machine learning a encore des choses à apprendre

Notre étude montre que l’utilisation du machine learning conduit parfois à faire des prédictions pires que les anciennes technologies lorsqu’ils sont associés à des humains mal formés, car ceux-ci prennent les données d’entrée biaisées et truquées au pied de la lettre.

Alors bien sûr, toutes les personnes qui manifestent et protestent dans la rue ne se soucient guère des préjugés de l’Office des Brevets. De nombreuses entreprises n’ont pas faire face à des cas d’urgence sociale. Mais les mêmes principes s’appliquent lorsque l’on est confronté à de grands problèmes sociétaux comme le racisme.

Les algorithmes peuvent évoluer rapidement, mais ils ont besoin de personnes ayant les bonnes compétences pour s’assurer qu’ils vont dans la bonne direction.

Les préjugés ne disparaîtront pas, mais les décideurs qui restent vigilants peuvent se consoler en se fondant sur au moins une vérité objective : les machines peuvent apprendre, et les humains aussi.

Picture of Rajshree Agarwal

Rajshree Agarwal

I provide leadership insights for strategy, innovation and leading purposeful lives. I am the Rudolph Lamone Chair of Strategy and Entrepreneurship and the Director of the Ed Snider Center for Enterprise and Markets at the University of Maryland.

Cet article vous a plu? Partagez-le et suivez-moi sur les réseaux sociaux!

0 0 votes
Évaluation de l'article
Picture of Alice Svadchii

Alice Svadchii

Formatrice, coach, conférencière et productrice de contenus enthousiaste !

Cet article vous a plu? Partagez-le et suivez-nous sur les réseaux sociaux!

Découvrez des articles similaires

0
Would love your thoughts, please comment.x