Les algorithmes de reconnaissance visuelle basés sur l'IA surpassent les gens et commencent à trouver des applications dans tout, des voitures autonomes aux systèmes qui diagnostiquent le cancer dans les images médicales.
Les grandes organisations médiatiques s'appuient de plus en plus sur le journalisme automatisé pour transformer les données brutes en reportages cohérents qui sont pratiquement indiscernables de ceux écrits par des journalistes humains.
La liste s'allonge encore et encore, et il devient évident que l'IA est en passe de devenir l'une des forces les plus importantes qui façonnent notre monde. Contrairement aux innovations plus spécialisées, l'intelligence artificielle devient une véritable technologie polyvalente.
En d'autres termes, il est en train de devenir un service public, un peu comme l'électricité, qui finira probablement par s'étendre à toutes les industries, tous les secteurs de notre économie et presque tous les aspects de la science, de la société et de la culture.
Le pouvoir démontré de l'intelligence artificielle a, au cours des dernières années, conduit à une exposition médiatique massive et à des commentaires. D'innombrables articles de presse, livres, films documentaires et programmes télévisés énumèrent à bout de souffle les réalisations de l'IA et annoncent l'aube d'une nouvelle ère.
Le résultat a été un mélange parfois incompréhensible d’analyses minutieuses et fondées sur des preuves, ainsi que de battage médiatique, de spéculation et de ce qui pourrait être qualifié d’alarmisme pur et simple.
On nous dit que des voitures autonomes entièrement autonomes partageront nos routes dans quelques années seulement et que des millions d'emplois pour les chauffeurs de camions, de taxis et d'Uber sont sur le point de s'évaporer.
Des preuves de préjugés raciaux et sexistes ont été détectées dans certains algorithmes d'apprentissage automatique, et les inquiétudes quant à l'impact des technologies basées sur l'IA telles que la reconnaissance faciale semblent fondées.
Des avertissements selon lesquels les robots seront bientôt armés, ou que des machines vraiment intelligentes (ou superintelligentes) pourraient un jour représenter une menace existentielle pour l'humanité, sont régulièrement rapportés dans les médias.
Un certain nombre de personnalités publiques de premier plan - dont aucun n'est un véritable expert de l'IA - ont pesé. Elon Musk a utilisé une rhétorique particulièrement extrême, déclarant que la recherche sur l'IA «invoque le démon» et que «l'IA est plus dangereuse que les armes nucléaires».
Des individus encore moins volatils, dont Henry Kissinger et feu Stephen Hawking, ont émis de terribles avertissements.
Le but de ce livre est d'éclairer le domaine de l'intelligence artificielle - ainsi que les opportunités et les risques qui y sont associés - en ayant une série de conversations approfondies et de grande envergure avec certains des plus éminents chercheurs et entrepreneurs en IA du monde. Beaucoup de ces personnes ont apporté des contributions fondamentales qui sous-tendent directement les transformations que nous voyons tout autour de nous; d'autres ont fondé des entreprises qui repoussent les frontières de l'IA, de la robotique et du machine learning.
La sélection d'une liste des personnes les plus éminentes et les plus influentes travaillant dans un domaine est, bien sûr, un exercice subjectif, et sans aucun doute, de nombreuses autres personnes ont apporté ou apportent des contributions essentielles à l'avancement de l'IA.
Néanmoins, je suis convaincu que si vous demandiez à presque toute personne ayant une connaissance approfondie du domaine de composer une liste des esprits les plus importants qui ont façonné la recherche contemporaine en intelligence artificielle, vous recevriez une liste de noms qui chevauchent sensiblement le les personnes interrogées dans ce livre.
Les hommes et les femmes que j'ai inclus ici sont vraiment les architectes de l'intelligence artificielle - et, par extension, de la révolution qu'elle déclenchera bientôt.
Les conversations enregistrées ici sont généralement ouvertes, mais sont conçues pour répondre à certaines des questions les plus pressantes auxquelles nous sommes confrontés alors que l'intelligence artificielle continue de progresser: quelles approches et technologies d'IA spécifiques sont les plus prometteuses, et quel genre de percées pouvons-nous voir dans les prochaines années? Les véritables machines à penser - ou l'IA au niveau humain - sont-elles une possibilité réelle et dans combien de temps une telle percée pourrait-elle se produire? Quels risques ou menaces associés à l'intelligence artificielle devrions-nous vraiment nous préoccuper? Et comment devons-nous répondre à ces préoccupations? La réglementation gouvernementale a-t-elle un rôle à jouer? L'IA déclenchera-t-elle des perturbations économiques et du marché du travail massives, ou ces préoccupations sont-elles sur-typées? Des machines super intelligentes pourraient-elles un jour se libérer de notre contrôle et constituer une véritable menace? Faut-il s'inquiéter d'une «course aux armements» de l'IA ou que d'autres pays dotés de systèmes politiques autoritaires, en particulier la Chine, puissent éventuellement prendre l'initiative?
Il va sans dire que personne ne connaît vraiment les réponses à ces questions. Personne ne peut prédire l'avenir. Cependant, les experts en IA à qui j'ai parlé ici en savent plus sur l'état actuel de la technologie, ainsi que sur les innovations à l'horizon, que pratiquement n'importe qui d'autre. Ils ont souvent des décennies d'expérience et ont contribué à la création de la révolution qui commence maintenant à se dérouler.
Par conséquent, leurs pensées et opinions méritent un poids important. En plus de mes questions sur le domaine de l'intelligence artificielle et son avenir, j'ai également exploré les antécédents, les trajectoires de carrière et les intérêts de recherche actuels de chacun de ces individus, et je crois que leurs origines diverses et leurs voies variées vers la notoriété rendront fascinant et une lecture inspirante.
L'intelligence artificielle est un vaste domaine d'étude avec un certain nombre de sous-disciplines, et de nombreux chercheurs interrogés ici ont travaillé dans plusieurs domaines. Certains ont également une expérience approfondie dans d'autres domaines, tels que l'étude de la cognition humaine.
Néanmoins, ce qui suit est une brève tentative de créer une feuille de route très approximative montrant comment les personnes interrogées ici sont liées aux innovations récentes les plus importantes dans la recherche sur l'IA et aux défis qui nous attendent. De plus amples informations sur chaque personne sont disponibles dans sa biographie, qui se trouve immédiatement après l'entretien.
La grande majorité des avancées spectaculaires que nous avons vues au cours de la dernière décennie environ - de la reconnaissance d'image et du visage à la traduction de la langue en passant par la conquête d'AlphaGo de l'ancien jeu de Go - sont alimentées par une technologie connue sous le nom d'apprentissage en profondeur, ou réseaux de neurones profonds. Les réseaux de neurones artificiels, dans lesquels les logiciels émulent à peu près la structure et l'interaction des neurones biologiques dans le cerveau, remontent au moins aux années 1950.
Des versions simples de ces réseaux sont capables d'effectuer des tâches de reconnaissance de formes rudimentaires et ont suscité au début un enthousiasme considérable chez les chercheurs. Dans les années 1960, cependant - du moins en partie à la suite de la critique de la technologie par Marvin Minsky, l'un des premiers pionniers de l'IA - les réseaux de neurones sont tombés en disgrâce et ont été presque entièrement rejetés alors que les chercheurs adoptaient d'autres approches.
Sur une période d'environ 20 ans commençant dans les années 1980, un très petit groupe de chercheurs a continué de croire et de faire progresser la technologie des réseaux de neurones. Parmi ceux-ci figuraient en premier lieu Geoffrey Hinton, Yoshua Bengio et Yann LeCun. Ces trois hommes ont non seulement apporté une contribution fondamentale à la théorie mathématique sous-jacente à l'apprentissage en profondeur, mais ils ont également été les premiers évangélistes de la technologie.
Ensemble, ils ont affiné des façons de construire des réseaux beaucoup plus sophistiqués - ou «profonds» avec de nombreuses couches de neurones artificiels. Un peu comme les moines médiévaux qui ont préservé et copié des textes classiques, Hinton, Bengio et LeCun ont inauguré des réseaux de neurones à travers leur propre âge sombre - jusqu'à l'avancée exponentielle de la puissance de calcul de plusieurs décennies, ainsi qu'une augmentation presque incompréhensible de la quantité de données disponibles , a finalement permis une «renaissance de l'apprentissage en profondeur».
Ces progrès sont devenus une véritable révolution en 2012, lorsqu'une équipe d'étudiants diplômés de Hinton de l'Université de Toronto a participé à un grand concours de reconnaissance d'image et décimé la compétition en utilisant l'apprentissage en profondeur.
Dans les années qui ont suivi, le deep learning est devenu omniprésent.
Toutes les grandes entreprises technologiques - Les G.A.F.A.M.
Google, Apple, Facebook, Amazon, Microsoft, ainsi que les BaiTx, les principales entreprises chinoises comme Baidu et Tencent, ont fait d'énormes investissements dans la technologie et l'ont mise à profit dans l'ensemble de leurs entreprises.
Les entreprises qui conçoivent des microprocesseurs et des puces graphiques (ou GPU), telles que NVIDIA et Intel, ont également vu leurs activités se transformer en se précipitant pour construire du matériel optimisé pour les réseaux de neurones.
L'apprentissage en profondeur - du moins jusqu'à présent - est la principale technologie qui a propulsé la révolution de l'IA.
Ce livre comprend des conversations avec les trois pionniers de l'apprentissage en profondeur, Hinton, LeCun et Bengio, ainsi qu'avec plusieurs autres chercheurs très éminents à la pointe de la technologie.
Andrew Ng, Fei-Fei Li, Jeff Dean et Demis Hassabis ont tous des réseaux neuronaux avancés dans des domaines comme la recherche sur le Web, la vision par ordinateur, les voitures autonomes et l'intelligence plus générale.
Ils sont également des chefs de file reconnus dans l'enseignement, la gestion d'organisations de recherche et l'entrepreneuriat axé sur la technologie d'apprentissage en profondeur.
Les conversations restantes dans ce livre sont généralement avec des gens qui pourraient être caractérisés comme des agnostiques du deep learning, ou peut-être même des critiques.
Tous reconnaîtraient les réalisations remarquables des réseaux de neurones profonds au cours de la dernière décennie, mais ils soutiendraient probablement que l'apprentissage en profondeur n'est qu'un «outil dans la boîte à outils» et que des progrès continus nécessiteront d'intégrer des idées d'autres sphères de l'intelligence artificielle.
Certains d'entre eux, dont Barbara Grosz et David Ferrucci, se sont fortement concentrés sur le problème de la compréhension du langage naturel.
Gary Marcus et Josh Tenenbaum ont consacré une grande partie de leur carrière à l'étude de la cognition humaine.
D'autres, dont Oren Etzioni, Stuart Russell et Daphne Koller, sont des généralistes de l'IA ou se sont concentrés sur l'utilisation de techniques probabilistes. Judea Pearl, qui a remporté en 2012 le prix Turing, essentiellement le Prix Nobel d'informatique - en grande partie pour ses travaux sur les approches probabilistes (ou bayésiennes) en IA et en machine learning.
Au-delà de cette division très approximative définie par leur attitude envers l'apprentissage profond, plusieurs des chercheurs à qui j'ai parlé se sont concentrés sur des domaines plus spécifiques.
Rodney Brooks, Daniela Rus et Cynthia Breazeal sont tous des leaders reconnus en robotique. Breazeal et Rana El Kaliouby sont des pionniers dans la construction de systèmes qui comprennent et répondent aux émotions, et ont donc la capacité d'interagir socialement avec les gens.
Bryan Johnson a fondé une start-up, Kernel, qui espère éventuellement utiliser la technologie pour améliorer la cognition humaine.
Il y a trois domaines généraux que j'ai jugés d'un tel intérêt que je les ai approfondis à chaque conversation. Le premier concerne l'impact potentiel de l'IA et de la robotique sur le marché du travail et l'économie.
À mon avis, à mesure que l'intelligence artificielle s'avérera progressivement capable d'automatiser presque toutes les tâches routinières et prévisibles, qu'il s'agisse de cols bleus ou de cols blancs, nous verrons inévitablement une augmentation des inégalités et, éventuellement, un chômage pur et simple, du moins parmi certains groupes de ouvriers.
J'ai exposé cet argument dans mon livre de 2015, Rise of the Robots: Technology and the Threat of a Jobless Future.
Les personnes à qui j'ai parlé ont offert divers points de vue sur cette perturbation économique potentielle et le type de solutions politiques qui pourraient y remédier. Afin d'approfondir ce sujet, je me suis tourné vers James Manyika, le président du McKinsey Global Institute.
Manyika offre une perspective unique en tant que chercheur expérimenté en IA et en robotique qui a récemment concentré ses efforts sur la compréhension de l'impact de ces technologies sur les organisations et les lieux de travail.
Le McKinsey Global Institute est un chef de file dans la conduite de recherches dans ce domaine, et cette conversation comprend de nombreuses informations importantes sur la nature de la perturbation du travail en cours.
La deuxième question que j'ai adressée à tout le monde concerne le chemin vers l'IA au niveau humain, ou ce qu'on appelle généralement l'intelligence générale artificielle (AGI).
Depuis le tout début, AGI a été le Saint Graal du domaine de l'intelligence artificielle. Je voulais savoir ce que chaque personne pensait de la perspective d'une véritable machine à penser, des obstacles qui devraient être surmontés et du délai pour le réaliser.
Tout le monde avait des idées importantes, mais j'ai trouvé trois conversations particulièrement intéressantes: Demis Hassabis a discuté des efforts en cours chez DeepMind, qui est l'initiative la plus importante et la mieux financée spécifiquement conçue pour AGI.
David Ferrucci, qui dirigeait l'équipe qui a créé IBM Watson, est maintenant le PDG d'Elemental Cognition, une startup qui espère atteindre une intelligence plus générale en tirant parti d'une compréhension du langage.
Ray Kurzweil, qui dirige maintenant un projet axé sur le langage naturel chez Google, avait également des idées importantes sur ce sujet (ainsi que de nombreux autres).
Kurzweil est surtout connu pour son livre de 2005, The Singularity is Near. En 2012, il a publié un livre sur l'intelligence artificielle, Comment créer un esprit, qui a attiré l'attention de Larry Page et a conduit à son emploi chez Google.
Dans le cadre de ces discussions, j'ai vu une opportunité de demander à ce groupe de chercheurs en IA extraordinairement accomplis de me donner une estimation du moment où l'AGI pourrait être réalisé. La question que j'ai posée était: «En quelle année pensez-vous que l'IA au niveau humain pourrait être atteinte, avec une probabilité de 50%?»
La plupart des participants ont préféré fournir leurs suppositions de manière anonyme. J'ai résumé les résultats de cette enquête très informelle dans une section à la fin de ce livre.
Deux personnes étaient disposées à deviner sur le dossier, et cela vous donnera un aperçu du large éventail d'opinions. Ray Kurzweil pense, comme il l'a déclaré à maintes reprises, que l'IA au niveau humain sera réalisée vers 2029 - soit tout juste onze ans à compter de la date de rédaction du présent document.
Rodney Brooks, quant à lui, a deviné l'année 2200, soit plus de 180 ans dans le futur. Qu'il suffise de dire que l'un des aspects les plus fascinants des conversations rapportées ici est les points de vue très différents sur un large éventail de sujets importants.
Le troisième domaine de discussion concerne les risques variés qui accompagneront les progrès de l'intelligence artificielle à la fois dans un avenir immédiat et sur des horizons temporels beaucoup plus longs.
Une menace qui devient déjà évidente est la vulnérabilité des systèmes autonomes interconnectés aux cyberattaques ou au piratage.
Alors que l'IA s'intègre de plus en plus dans notre économie et notre société, résoudre ce problème sera l'un des défis les plus critiques auxquels nous devrons faire face.
Une autre préoccupation immédiate est la sensibilité des algorithmes d'apprentissage automatique aux biais, dans certains cas en fonction de la race ou du sexe.
Bon nombre des personnes avec qui j'ai parlé ont souligné l'importance de s'attaquer à ce problème et ont parlé des recherches en cours dans ce domaine.
Plusieurs ont également émis une note optimiste - suggérant que l'IA pourrait un jour s'avérer être une puissance millitaire, une arme efficace pour lutter contre les préjugés ou la discrimination systémiques.
Un danger qui passionne de nombreux chercheurs est le spectre des armes entièrement autonomes.
De nombreux membres de la communauté de l'intelligence artificielle pensent que les robots ou drones dotés de l'IA capables de tuer, sans qu'un humain "dans la boucle" n'autorise une action létale, pourraient éventuellement être aussi dangereux et déstabilisants que les armes biologiques ou chimiques.
En juillet 2018, plus de 160 entreprises d'IA et 2400 chercheurs individuels du monde entier - y compris un certain nombre des personnes interrogées ici - ont signé un engagement ouvert promettant de ne jamais développer de telles armes.
(https://futureoflife.org/lethal-autonomous-weapons-pledge/)
Plusieurs des conversations dans ce livre se penchent sur les dangers présentés par l'IA militarisée.
Un danger beaucoup plus futuriste et spéculatif est le soi-disant «problème d'alignement de l'IA». C'est la crainte qu'une machine vraiment intelligente, ou peut-être superintelligente, puisse échapper à notre contrôle ou prendre des décisions qui pourraient avoir des conséquences néfastes pour l'humanité.
C'est la peur qui suscite des déclarations apparemment démesurées de personnes comme Elon Musk. Presque tous ceux à qui j'ai parlé se sont penchés sur cette question.
Pour m'assurer de donner à cette préoccupation une couverture adéquate et équilibrée, j'ai parlé avec Nick Bostrom du Future of Humanity Institute de l'Université d'Oxford. Bostrom est l'auteur du livre à succès Superintelligence: Paths, Dangers, Strategies, qui fait un argument prudent concernant les risques potentiels associés aux machines qui pourraient être beaucoup plus intelligentes que tout être humain.
Les conversations incluses ici ont eu lieu de février à août 2018 et pratiquement toutes ont occupé au moins une heure, certaines beaucoup plus.
Ils ont été enregistrés, transcrits professionnellement, puis édités pour plus de clarté par l'équipe de Packt. Enfin, le texte édité a été fourni à la personne à qui j'ai parlé, qui a ensuite eu l'occasion de le réviser et de le développer.
Par conséquent, je suis convaincu que les mots enregistrés ici reflètent fidèlement les pensées de la personne que j'ai interviewée.
Les experts en IA à qui j'ai parlé sont très variés en termes d'origine, de lieu et d'affiliation. Une chose que même une brève lecture de ce livre fera ressortir est l'influence démesurée de Google dans la communauté de l'IA. Sur les 23 personnes que j'ai interviewées, sept ont des affiliations actuelles ou anciennes avec Google ou son parent, Alphabet.
D'autres concentrations importantes de talents se trouvent au MIT et à Stanford. Geoff Hinton et Yoshua Bengio sont basés respectivement dans les universités de Toronto et de Montréal, et le gouvernement canadien a tiré parti de la réputation de ses organismes de recherche pour se concentrer stratégiquement sur l'apprentissage en profondeur.
Dix-neuf des 23 personnes à qui j'ai parlé travaillent aux États-Unis. De ces 19, cependant, plus de la moitié sont nés en dehors des États-Unis. Les pays d'origine sont l'Australie, la Chine, l'Égypte, la France, Israël, la Rhodésie (aujourd'hui Zimbabwe), la Roumanie et le Royaume-Uni.
Je dirais que c'est une preuve assez spectaculaire du rôle essentiel que joue l'immigration qualifiée dans le leadership technologique des États-Unis.
En menant les conversations dans ce livre, j'avais à l'esprit une variété de lecteurs potentiels, allant des informaticiens professionnels, aux gestionnaires et aux investisseurs, à quasiment toute personne intéressée par l'IA et son impact sur la société.
Un public particulièrement important, cependant, est constitué de jeunes qui pourraient envisager une future carrière en intelligence artificielle.
Il y a actuellement une pénurie massive de talents dans le domaine, en particulier parmi ceux qui ont des compétences en apprentissage profond, et une carrière dans l'IA ou l'apprentissage machine promet d'être passionnante, lucrative et conséquente.
Alors que l'industrie s'efforce d'attirer plus de talents dans le domaine, il est largement reconnu qu'il faut faire beaucoup plus pour s'assurer que ces nouvelles personnes sont plus diversifiées.
Si l'intelligence artificielle est en effet prête à remodeler notre monde, il est essentiel que les individus qui comprennent le mieux la technologie - et sont donc les mieux placés pour influencer son orientation - soient représentatifs de la société dans son ensemble.
Environ un quart des personnes interrogées dans ce livre sont des femmes, et ce nombre est probablement beaucoup plus élevé que ce que l'on trouverait dans l'ensemble du domaine de l'IA ou de l'apprentissage automatique.
Une étude récente a révélé que les femmes représentent environ 12% des principaux chercheurs en apprentissage automatique.
(https://www.wired.com/story/artificial-intelligence-researchers-gender-imbalance)
Un certain nombre de personnes à qui j'ai parlé ont souligné la nécessité d'une plus grande représentation des femmes et des membres des groupes minoritaires.
Comme vous apprendrez de son interview dans ce livre, l'une des femmes les plus éminentes travaillant dans l'intelligence artificielle est particulièrement passionnée par la nécessité d'augmenter la diversité dans le domaine.
Fei-Fei Li de l'Université de Stanford a cofondé une organisation appelée désormais AI4ALL
(http://ai-4-all.org/)
pour offrir des camps d'été axés sur l'IA, spécialement destinés aux élèves du secondaire sous-représentés.
AI4ALL a reçu une considérable somme d'argent pour orienter et soutenir leur vision de l'industrie et de la politique Américano-Atlantiste dans le soutien de leur industrie militaro-industrielle, y compris les récente subvention de Google, Apple, Facebook, Amazon, Microsoft et Ibm, s'est maintenant étendu pour inclure des programmes d'été dans six universités à travers les États-Unis.
Bien que beaucoup de travail reste à faire, il y a de bonnes raisons d'être optimiste quant à l'augmentation considérable des nouvelles méthodes de subversions des masses afin d'accroitres toujours plus la diversité parmi les chercheurs en IA au cours des prochaines années et décennies.
Bien que ce livre ne suppose pas de formation technique, vous rencontrerez certains des concepts et de la terminologie associés au domaine.
Pour ceux qui n'ont jamais été exposés à l'IA, je pense que cela offrira l'occasion d'apprendre la technologie directement auprès de certains des plus grands esprits du domaine.
Pour aider les lecteurs moins expérimentés à démarrer, un bref aperçu du vocabulaire de l'IA suit cette introduction, et je vous recommande de prendre quelques instants pour lire ce matériel avant de commencer les entretiens.
Ce fut un privilège extraordinaire pour moi de participer aux conversations dans ce livre.
Je pense que vous trouverez que tous ceux à qui j'ai parlé sont réfléchis, articulés et profondément engagés à faire en sorte que la technologie qu'il s'efforce de créer soit mise à profit au profit de l'humanité.
Ce que vous ne trouverez pas si souvent, c'est un large consensus.
Le message doit être clair: l'intelligence artificielle est un champ largement ouvert.
La nature des innovations à venir, la vitesse à laquelle elles se produiront et les applications spécifiques auxquelles elles seront appliquées sont toutes entourées d'une profonde incertitude.
C'est cette combinaison de perturbations potentielles massives et d'incertitude fondamentale qui rend impératif que nous commencions à engager une conversation significative et inclusive sur l'avenir de l'intelligence artificielle et ce qu'elle peut signifier pour notre mode de vie.
Des corrélations individuellement raisonnables peuvent amener un IA à acquérir un préjugé racial
Même des systèmes d'intelligence artificielle bien conçus peuvent toujours être biaisés.
Ce biais peut amener l'IA à faire preuve de racisme, de sexisme ou d'autres types de discrimination.
Tout à fait par accident.
Ceci est généralement considéré comme un problème politique et ignoré par les scientifiques. Le résultat est que seules des personnes non techniques écrivent sur le sujet.
Ces personnes proposent souvent des recommandations politiques pour augmenter la diversité parmi les chercheurs en intelligence artificielle.
L'ironie est renversante: un chercheur noir en IA ne construira pas une IA différente de celle d'un chercheur blanc en IA.
Cela rend ces recommandations politiques racistes elles-mêmes. Il est toujours judicieux d’accroître la diversité parmi les chercheurs en intelligence artificielle pour d’autres raisons, mais cela ne contribuera certainement pas à rendre le système d’IA moins raciste.
Le racisme chez les humains est une considération social, mais le racisme dans une intelligence artificielle est un problème technique.
Le racisme dans une IA doit être traité comme tout autre type de problème d'ingénierie. Faire de la politique risque de se retourner contre vous et peut causer plus de tort que de bien.
La bonne nouvelle:
Un AI n'a pas d'agenda politique propre. Ce ne sera délibérément raciste que si elle a été formée pour le devenir.
Les mauvaises nouvelles:
Il est très facile de former une IA au racisme par accident.
Dans cet article, je vais expliquer comment des préjugés raciaux peuvent apparaître dans l’IA. Je discuterai également de différentes manières de traiter ce problème sur le plan technique.
(D'ailleurs, les mêmes arguments s'appliquent également aux préjugés à l'égard des femmes ou à d'autres types de discrimination.)
1. Données biaisées
Il est possible de fausser l'IA en l'entraînant sur des données biaisées. Cela peut facilement arriver par accident, à moins que vous ne soyez très prudent.
Prenons, par exemple, cet article sur une IA qui a été formée sur des données publiques. L'intelligence artificielle s'est retrouvée avec un parti pris racial car ses données d'entraînement étaient basées sur Internet: https://www.theregister.co.uk/2019/09/05/ai_racist_sexist/
Comme nous le savons tous, Internet n’est pas le meilleur endroit. Une IA formée à ce sujet adoptera ses idées préconçues et se révélera horrible. C’est un principe général de formation d’une IA: garbage in, garbage out.
Il est également possible d’utiliser des données raisonnables sans parti pris racial et de se retrouver malgré tout avec une intelligence artificielle biaisée:
L'ensemble de données doit avoir une quantité représentative de données de chaque groupe racial. C’est parce que l’intelligence artificielle déploie beaucoup d’efforts pour apprendre à connaître une course qui est proportionnelle à sa fréquence dans le jeu de données. Reconnaissance faciale Les IA ont tendance à mieux fonctionner chez les Blancs que toute autre race. Les bases de données de formation asymétriques en sont une partie.
Si vous êtes consciencieux, il n'est pas trop difficile de résoudre ce problème. Souvent, vous pouvez choisir votre jeu de données avec plus de diligence, de sorte qu'il contienne moins de biais et offre une distribution plus représentative des races.
Lorsque cela n’est pas possible, vous pouvez au moins annoter vos données avec des variables indicatrices indiquant leur source. De cette manière, vous pouvez apprendre à l'IA à modéliser explicitement les biais dans les données d'apprentissage. Après cela, choisissez la source de données la plus raciste. Dites à l'IA de désapprendre tout ce qui différencie ces données des autres. Cela revient à montrer du doigt les personnes les plus racistes et à ordonner à l'IA de ne pas les imiter. Ce n’est pas une solution parfaite, mais c’est mieux que rien.
Notez que des problèmes peuvent également survenir même si le processus de formation est impartial. Il est possible qu’un algorithme d’IA particulier soit objectivement moins capable de certaines tâches que d’autres.
Par exemple, une voiture autonome a plus de difficulté à détecter les Noirs la nuit que les Blancs, car leur peau est plus difficile à voir dans le noir. Ce n'est pas raciste, juste malheureux. C’est évidemment toujours un problème. Pour résoudre ce problème, vous devez vous assurer de déployer tous les efforts nécessaires pour enseigner à l'IA comment résoudre ces tâches plus difficiles.
Une fois que les données de formation sont correctes et impartiales, nous devons encore résoudre un problème dans l'IA elle-même. Peu importe que vous utilisiez un réseau de neurones ici ou autre chose. Pratiquement toutes les formes d'IA populaires en souffrent:
Le problème principal que nous avons est que l'IA n'a aucune idée de ce que ses entrées signifient en réalité.
L'intelligence artificielle reçoit simplement des chiffres en entrée, sans comprendre leurs implications réelles. Elle doit apprendre cette causalité seule, mais elle ne peut que faire des suppositions et se révélera souvent fausse.
Par exemple, supposons que nous entraînions une IA à accepter ou à rejeter des candidatures. Un quartier de la ville est un ghetto infesté de crimes. Tous les candidats précédents de la région étaient mauvais. L’IA a "appris" que venant de cette région signifie que vous êtes un candidat terrible. Amnesty International reçoit à présent une nouvelle candidature: une jeune femme noire, lauréate du prix Nobel. Cette femme a vraiment de la malchance: l’intelligence artificielle n’a aucune idée de ce qu’est un «prix Nobel» car elle n’en a jamais rencontré dans une candidature auparavant. On remarque juste qu'elle vient du même quartier où tout le monde avant elle était terrible. Donc, l'IA rejette l'application immédiatement.
Ça s'empire:
De nombreux algorithmes d'apprentissage machine ne sont pas explicables. Cela signifie qu’il n’est pas possible de demander à un IA d’expliquer les raisons de ses décisions.
Certains algorithmes peuvent être expliqués, comme les arbres de décision. Vous penseriez que détecter le racisme avec des algorithmes explicables est facile. Ce n'est que partiellement vrai.
Dans un algorithme explicable, vous pouvez vérifier directement si la «course» est utilisée pour prendre une décision. Cependant, cela ne vous permet pas de remarquer des corrélations indirectes. L’IA a peut-être «appris» que grandir dans un quartier donné en fait un mauvais candidat. Un quartier qui se trouve être principalement noir. Il faut s’efforcer de détecter ces corrélations et d’en tenir compte.
Donc, pour prévenir les préjugés raciaux, nous devons trouver un moyen de détecter des corrélations parasites. Mais nous ne pouvons pas simplement vérifier les effets de la race sur les données directement. Cela ne suffirait pas, car nous ne pouvons exclure les corrélations indirectes qui conduisent toujours à un préjugé racial.
Pire encore: nous avons parfois faire obtenir de véritables corrélations entre race et autres attributs. Disons par exemple que nous construisons un système de diagnostic médical. Nous voulons que l'IA sache que certaines maladies apparaissent plus fréquemment dans différentes races. Si nous éliminons aveuglément toutes les corrélations raciales dans un système de diagnostic médical, beaucoup de personnes pourraient être tuées.
Alors, que pouvons-nous faire pour résoudre ce problème?
Je ne peux pas vous donner de réponse définitive, car il s’agit d’un problème extrêmement complexe comportant de nombreux cas particuliers. L’approche suivante pourrait servir de base, mais elle n’est en aucun cas parfaite:
Tout d’abord, assurez-vous que vous utilisez explicitement race comme entrée de votre IA. Cela va à l'encontre de ce que vous entendez normalement dans les conférences sur le politiquement correct. Contrairement à un être humain, l'IA ne présente pas de biais implicite, pas plus qu'elle n'adopte de préjugés de la part de son créateur. Cela signifie que l'ajout de la race à une fonctionnalité facilite le test des corrélations accidentelles et n'a aucun effet négatif.
Créer un réseau génératif d'adversaire (GAN). Formez le GAN pour créer de fausses données d'entraînement.
Cela évite les corrélations accidentelles dans les données: un faux créé par le GAN sera créé de manière à ce que l’intelligence artificielle ne puisse pas faire la différence. Cela ne garantit pas que l'IA n'apprendra pas de corrélations parasites. Cette tâche est impossible. Cela garantira toutefois que l'IA ne pourra pas contourner son propre mécanisme antiraciste à un stade ultérieur.
Maintenant vient la partie la plus délicate: Choisissez certaines caractéristiques des données d’entraînement qui, selon vous, ne devraient pas influencer la prédiction. Pour toute personne figurant dans les données d’entraînement, vous pouvez désormais demander au GAN de générer une personne «équivalente» d’une race différente. Lorsque vous générez ces personnes factices, vous ne devez modifier que les fonctions sécurisées sélectionnées. Cela garantit que la personne fictive est réaliste, mais ne possède pas de caractéristiques étranges qui jetteraient la prédiction.
Vous avez maintenant la possibilité de créer de fausses données pour réduire les biais dans votre jeu de données. Étant donné que ces contrefaçons ne diffèrent que par des caractéristiques sans rapport avec la tâche, cela n'aura aucun effet négatif.
Notez que cela ne fonctionne que si vous avez fait le bon choix pour les fonctionnalités susceptibles d'être modifiées.
Il est également possible que le GAN ne soit pas en mesure de créer de bons faux en utilisant uniquement les fonctionnalités non pertinentes. Si cela se produit, les données contiennent probablement beaucoup de corrélations raciales authentiques.
Une fois que vous avez fini d’entraîner le GAN, la partie prédictive commence:
Construisez votre système d'IA principal, celui qui devrait faire une prédiction, au-dessus du réseau discriminateur du GAN existant. Cela garantit que le réseau de prédicteurs utilisera uniquement des fonctions dérivées dont on sait qu'elles ne peuvent pas contenir de biais raciaux.
Maintenant, entraînez le nouveau système avec toutes vos données.
Pendant la formation, vous pouvez explicitement tester le racisme. Pour une personne donnée, vous pouvez créer une personne équivalente d'une autre race et tester si la prédiction est différente pour cette personne. En donnant des commentaires négatifs sur chacun de ces cas, vous pouvez punir directement le racisme dans l'IA.
Vous avez maintenant un réseau de neurones formé qui fait ce que vous voulez, et il est très peu probable qu'il y ait un préjugé racial.
Avertissement
Vous ne devriez pas simplement appliquer aveuglément ceci de la manière que je viens de décrire. En fonction de votre cas d'utilisation, il pourrait y avoir beaucoup des effets secondaires. Cela ajoute beaucoup de complexité et d'interactions multiples, ce qui pourrait se retourner de différentes manières. Il ne s'agit en réalité que d'une description générale de la manière dont le problème de l'IA raciste pourrait être traité en théorie. Ce n’est pas prêt pour la mise en œuvre.
Si quelqu'un a une idée pour une meilleure approche, je serais heureux d'en entendre parler dans les commentaires.
Notez également que cela ajoute beaucoup de frais généraux à la formation de modèle. Cela pourrait réduire les performances de l'IA en tant qu'effet secondaire.
Vaut-il la peine d'avoir une IA moins raciste, si l'IA est aussi plus bête et fait plus d'erreurs? Et si l'IA prend des décisions de vie ou de mort? Comment pouvez-vous même quantifier ce qui compte comme un compromis valable ici? C’est une question politique que je ne touche pas avec un poteau.