L'intelligence artificielle est en train de passer rapidement du
domaine de la science-fiction à la réalité de notre vie quotidienne. Nos
appareils comprennent ce que nous disons, nous parlent et traduisent
entre les langues avec une fluidité toujours croissante.
Les
algorithmes de reconnaissance visuelle basés sur l'IA surpassent les
gens et commencent à trouver des applications dans tout, des voitures
autonomes aux systèmes qui diagnostiquent le cancer dans les images
médicales.
Les grandes organisations médiatiques
s'appuient de plus en plus sur le journalisme automatisé pour
transformer les données brutes en reportages cohérents qui sont
pratiquement indiscernables de ceux écrits par des journalistes humains.
La
liste s'allonge encore et encore, et il devient évident que l'IA est en
passe de devenir l'une des forces les plus importantes qui façonnent
notre monde. Contrairement aux innovations plus spécialisées,
l'intelligence artificielle devient une véritable technologie
polyvalente.
En d'autres termes, il est en train de
devenir un service public, un peu comme l'électricité, qui finira
probablement par s'étendre à toutes les industries, tous les secteurs de
notre économie et presque tous les aspects de la science, de la société
et de la culture.
Le pouvoir démontré de
l'intelligence artificielle a, au cours des dernières années, conduit à
une exposition médiatique massive et à des commentaires. D'innombrables
articles de presse, livres, films documentaires et programmes télévisés
énumèrent à bout de souffle les réalisations de l'IA et annoncent l'aube
d'une nouvelle ère.
Le résultat a été un mélange
parfois incompréhensible d’analyses minutieuses et fondées sur des
preuves, ainsi que de battage médiatique, de spéculation et de ce qui
pourrait être qualifié d’alarmisme pur et simple.
On
nous dit que des voitures autonomes entièrement autonomes partageront
nos routes dans quelques années seulement et que des millions d'emplois
pour les chauffeurs de camions, de taxis et d'Uber sont sur le point de
s'évaporer.
Des preuves de préjugés raciaux et sexistes
ont été détectées dans certains algorithmes d'apprentissage
automatique, et les inquiétudes quant à l'impact des technologies basées
sur l'IA telles que la reconnaissance faciale semblent fondées.
Des
avertissements selon lesquels les robots seront bientôt armés, ou que
des machines vraiment intelligentes (ou superintelligentes) pourraient
un jour représenter une menace existentielle pour l'humanité, sont
régulièrement rapportés dans les médias.
Un certain
nombre de personnalités publiques de premier plan - dont aucun n'est un
véritable expert de l'IA - ont pesé. Elon Musk a utilisé une rhétorique
particulièrement extrême, déclarant que la recherche sur l'IA «invoque
le démon» et que «l'IA est plus dangereuse que les armes nucléaires».
Des individus encore moins volatils, dont Henry Kissinger et feu Stephen Hawking, ont émis de terribles avertissements.
Le
but de ce livre est d'éclairer le domaine de l'intelligence
artificielle - ainsi que les opportunités et les risques qui y sont
associés - en ayant une série de conversations approfondies et de grande
envergure avec certains des plus éminents chercheurs et entrepreneurs
en IA du monde. Beaucoup de ces personnes ont apporté des contributions
fondamentales qui sous-tendent directement les transformations que nous
voyons tout autour de nous; d'autres ont fondé des entreprises qui
repoussent les frontières de l'IA, de la robotique et du machine
learning.
La sélection d'une liste des personnes les
plus éminentes et les plus influentes travaillant dans un domaine est,
bien sûr, un exercice subjectif, et sans aucun doute, de nombreuses
autres personnes ont apporté ou apportent des contributions essentielles
à l'avancement de l'IA.
Néanmoins, je suis convaincu
que si vous demandiez à presque toute personne ayant une connaissance
approfondie du domaine de composer une liste des esprits les plus
importants qui ont façonné la recherche contemporaine en intelligence
artificielle, vous recevriez une liste de noms qui chevauchent
sensiblement le les personnes interrogées dans ce livre.
Les
hommes et les femmes que j'ai inclus ici sont vraiment les architectes
de l'intelligence artificielle - et, par extension, de la révolution
qu'elle déclenchera bientôt.
Les conversations
enregistrées ici sont généralement ouvertes, mais sont conçues pour
répondre à certaines des questions les plus pressantes auxquelles nous
sommes confrontés alors que l'intelligence artificielle continue de
progresser: quelles approches et technologies d'IA spécifiques sont les
plus prometteuses, et quel genre de percées pouvons-nous voir dans les
prochaines années? Les véritables machines à penser - ou l'IA au niveau
humain - sont-elles une possibilité réelle et dans combien de temps une
telle percée pourrait-elle se produire? Quels risques ou menaces
associés à l'intelligence artificielle devrions-nous vraiment nous
préoccuper? Et comment devons-nous répondre à ces préoccupations? La
réglementation gouvernementale a-t-elle un rôle à jouer? L'IA
déclenchera-t-elle des perturbations économiques et du marché du travail
massives, ou ces préoccupations sont-elles sur-typées? Des machines
super intelligentes pourraient-elles un jour se libérer de notre
contrôle et constituer une véritable menace? Faut-il s'inquiéter d'une
«course aux armements» de l'IA ou que d'autres pays dotés de systèmes
politiques autoritaires, en particulier la Chine, puissent
éventuellement prendre l'initiative?
Il va sans dire
que personne ne connaît vraiment les réponses à ces questions. Personne
ne peut prédire l'avenir. Cependant, les experts en IA à qui j'ai parlé
ici en savent plus sur l'état actuel de la technologie, ainsi que sur
les innovations à l'horizon, que pratiquement n'importe qui d'autre. Ils
ont souvent des décennies d'expérience et ont contribué à la création
de la révolution qui commence maintenant à se dérouler.
Par
conséquent, leurs pensées et opinions méritent un poids important. En
plus de mes questions sur le domaine de l'intelligence artificielle et
son avenir, j'ai également exploré les antécédents, les trajectoires de
carrière et les intérêts de recherche actuels de chacun de ces
individus, et je crois que leurs origines diverses et leurs voies
variées vers la notoriété rendront fascinant et une lecture inspirante.
L'intelligence
artificielle est un vaste domaine d'étude avec un certain nombre de
sous-disciplines, et de nombreux chercheurs interrogés ici ont travaillé
dans plusieurs domaines. Certains ont également une expérience
approfondie dans d'autres domaines, tels que l'étude de la cognition
humaine.
Néanmoins, ce qui suit est une brève tentative
de créer une feuille de route très approximative montrant comment les
personnes interrogées ici sont liées aux innovations récentes les plus
importantes dans la recherche sur l'IA et aux défis qui nous attendent.
De plus amples informations sur chaque personne sont disponibles dans sa
biographie, qui se trouve immédiatement après l'entretien.
La
grande majorité des avancées spectaculaires que nous avons vues au
cours de la dernière décennie environ - de la reconnaissance d'image et
du visage à la traduction de la langue en passant par la conquête
d'AlphaGo de l'ancien jeu de Go - sont alimentées par une technologie
connue sous le nom d'apprentissage en profondeur, ou réseaux de neurones
profonds. Les réseaux de neurones artificiels, dans lesquels les
logiciels émulent à peu près la structure et l'interaction des neurones
biologiques dans le cerveau, remontent au moins aux années 1950.
Des
versions simples de ces réseaux sont capables d'effectuer des tâches de
reconnaissance de formes rudimentaires et ont suscité au début un
enthousiasme considérable chez les chercheurs. Dans les années 1960,
cependant - du moins en partie à la suite de la critique de la
technologie par Marvin Minsky, l'un des premiers pionniers de l'IA - les
réseaux de neurones sont tombés en disgrâce et ont été presque
entièrement rejetés alors que les chercheurs adoptaient d'autres
approches.
Sur une période d'environ 20 ans commençant
dans les années 1980, un très petit groupe de chercheurs a continué de
croire et de faire progresser la technologie des réseaux de neurones.
Parmi ceux-ci figuraient en premier lieu Geoffrey Hinton, Yoshua Bengio
et Yann LeCun. Ces trois hommes ont non seulement apporté une
contribution fondamentale à la théorie mathématique sous-jacente à
l'apprentissage en profondeur, mais ils ont également été les premiers
évangélistes de la technologie.
Ensemble, ils ont
affiné des façons de construire des réseaux beaucoup plus sophistiqués -
ou «profonds» avec de nombreuses couches de neurones artificiels. Un
peu comme les moines médiévaux qui ont préservé et copié des textes
classiques, Hinton, Bengio et LeCun ont inauguré des réseaux de neurones
à travers leur propre âge sombre - jusqu'à l'avancée exponentielle de
la puissance de calcul de plusieurs décennies, ainsi qu'une augmentation
presque incompréhensible de la quantité de données disponibles , a
finalement permis une «renaissance de l'apprentissage en profondeur».
Ces
progrès sont devenus une véritable révolution en 2012, lorsqu'une
équipe d'étudiants diplômés de Hinton de l'Université de Toronto a
participé à un grand concours de reconnaissance d'image et décimé la
compétition en utilisant l'apprentissage en profondeur.
Dans les années qui ont suivi, le deep learning est devenu omniprésent.
Toutes les grandes entreprises technologiques - Les G.A.F.A.M.
Google,
Apple, Facebook, Amazon, Microsoft, ainsi que les BaiTx, les
principales entreprises chinoises comme Baidu et Tencent, ont fait
d'énormes investissements dans la technologie et l'ont mise à profit
dans l'ensemble de leurs entreprises.
Les entreprises
qui conçoivent des microprocesseurs et des puces graphiques (ou GPU),
telles que NVIDIA et Intel, ont également vu leurs activités se
transformer en se précipitant pour construire du matériel optimisé pour
les réseaux de neurones.
L'apprentissage en profondeur - du moins jusqu'à présent - est la principale technologie qui a propulsé la révolution de l'IA.
Ce
livre comprend des conversations avec les trois pionniers de
l'apprentissage en profondeur, Hinton, LeCun et Bengio, ainsi qu'avec
plusieurs autres chercheurs très éminents à la pointe de la technologie.
Andrew
Ng, Fei-Fei Li, Jeff Dean et Demis Hassabis ont tous des réseaux
neuronaux avancés dans des domaines comme la recherche sur le Web, la
vision par ordinateur, les voitures autonomes et l'intelligence plus
générale.
Ils sont également des chefs de file reconnus
dans l'enseignement, la gestion d'organisations de recherche et
l'entrepreneuriat axé sur la technologie d'apprentissage en profondeur.
Les
conversations restantes dans ce livre sont généralement avec des gens
qui pourraient être caractérisés comme des agnostiques du deep learning,
ou peut-être même des critiques.
Tous reconnaîtraient
les réalisations remarquables des réseaux de neurones profonds au cours
de la dernière décennie, mais ils soutiendraient probablement que
l'apprentissage en profondeur n'est qu'un «outil dans la boîte à outils»
et que des progrès continus nécessiteront d'intégrer des idées d'autres
sphères de l'intelligence artificielle.
Certains
d'entre eux, dont Barbara Grosz et David Ferrucci, se sont fortement
concentrés sur le problème de la compréhension du langage naturel.
Gary Marcus et Josh Tenenbaum ont consacré une grande partie de leur carrière à l'étude de la cognition humaine.
D'autres,
dont Oren Etzioni, Stuart Russell et Daphne Koller, sont des
généralistes de l'IA ou se sont concentrés sur l'utilisation de
techniques probabilistes. Judea Pearl, qui a remporté en 2012 le prix
Turing, essentiellement le Prix Nobel d'informatique - en grande partie
pour ses travaux sur les approches probabilistes (ou bayésiennes) en IA
et en machine learning.
Au-delà de cette division très
approximative définie par leur attitude envers l'apprentissage profond,
plusieurs des chercheurs à qui j'ai parlé se sont concentrés sur des
domaines plus spécifiques.
Rodney Brooks, Daniela Rus
et Cynthia Breazeal sont tous des leaders reconnus en robotique.
Breazeal et Rana El Kaliouby sont des pionniers dans la construction de
systèmes qui comprennent et répondent aux émotions, et ont donc la
capacité d'interagir socialement avec les gens.
Bryan
Johnson a fondé une start-up, Kernel, qui espère éventuellement utiliser
la technologie pour améliorer la cognition humaine.
Il
y a trois domaines généraux que j'ai jugés d'un tel intérêt que je les
ai approfondis à chaque conversation. Le premier concerne l'impact
potentiel de l'IA et de la robotique sur le marché du travail et
l'économie.
À mon avis, à mesure que l'intelligence
artificielle s'avérera progressivement capable d'automatiser presque
toutes les tâches routinières et prévisibles, qu'il s'agisse de cols
bleus ou de cols blancs, nous verrons inévitablement une augmentation
des inégalités et, éventuellement, un chômage pur et simple, du moins
parmi certains groupes de ouvriers.
J'ai exposé cet argument dans mon livre de 2015, Rise of the Robots: Technology and the Threat of a Jobless Future.
Les
personnes à qui j'ai parlé ont offert divers points de vue sur cette
perturbation économique potentielle et le type de solutions politiques
qui pourraient y remédier. Afin d'approfondir ce sujet, je me suis
tourné vers James Manyika, le président du McKinsey Global Institute.
Manyika
offre une perspective unique en tant que chercheur expérimenté en IA et
en robotique qui a récemment concentré ses efforts sur la compréhension
de l'impact de ces technologies sur les organisations et les lieux de
travail.
Le McKinsey Global Institute est un chef de
file dans la conduite de recherches dans ce domaine, et cette
conversation comprend de nombreuses informations importantes sur la
nature de la perturbation du travail en cours.
La
deuxième question que j'ai adressée à tout le monde concerne le chemin
vers l'IA au niveau humain, ou ce qu'on appelle généralement
l'intelligence générale artificielle (AGI).
Depuis le
tout début, AGI a été le Saint Graal du domaine de l'intelligence
artificielle. Je voulais savoir ce que chaque personne pensait de la
perspective d'une véritable machine à penser, des obstacles qui
devraient être surmontés et du délai pour le réaliser.
Tout
le monde avait des idées importantes, mais j'ai trouvé trois
conversations particulièrement intéressantes: Demis Hassabis a discuté
des efforts en cours chez DeepMind, qui est l'initiative la plus
importante et la mieux financée spécifiquement conçue pour AGI.
David
Ferrucci, qui dirigeait l'équipe qui a créé IBM Watson, est maintenant
le PDG d'Elemental Cognition, une startup qui espère atteindre une
intelligence plus générale en tirant parti d'une compréhension du
langage.
Ray Kurzweil, qui dirige maintenant un projet
axé sur le langage naturel chez Google, avait également des idées
importantes sur ce sujet (ainsi que de nombreux autres).
Kurzweil
est surtout connu pour son livre de 2005, The Singularity is Near. En
2012, il a publié un livre sur l'intelligence artificielle, Comment
créer un esprit, qui a attiré l'attention de Larry Page et a conduit à
son emploi chez Google.
Dans le cadre de ces
discussions, j'ai vu une opportunité de demander à ce groupe de
chercheurs en IA extraordinairement accomplis de me donner une
estimation du moment où l'AGI pourrait être réalisé. La question que
j'ai posée était: «En quelle année pensez-vous que l'IA au niveau humain
pourrait être atteinte, avec une probabilité de 50%?»
La
plupart des participants ont préféré fournir leurs suppositions de
manière anonyme. J'ai résumé les résultats de cette enquête très
informelle dans une section à la fin de ce livre.
Deux
personnes étaient disposées à deviner sur le dossier, et cela vous
donnera un aperçu du large éventail d'opinions. Ray Kurzweil pense,
comme il l'a déclaré à maintes reprises, que l'IA au niveau humain sera
réalisée vers 2029 - soit tout juste onze ans à compter de la date de
rédaction du présent document.
Rodney Brooks, quant à
lui, a deviné l'année 2200, soit plus de 180 ans dans le futur. Qu'il
suffise de dire que l'un des aspects les plus fascinants des
conversations rapportées ici est les points de vue très différents sur
un large éventail de sujets importants.
Le troisième
domaine de discussion concerne les risques variés qui accompagneront les
progrès de l'intelligence artificielle à la fois dans un avenir
immédiat et sur des horizons temporels beaucoup plus longs.
Une
menace qui devient déjà évidente est la vulnérabilité des systèmes
autonomes interconnectés aux cyberattaques ou au piratage.
Alors
que l'IA s'intègre de plus en plus dans notre économie et notre
société, résoudre ce problème sera l'un des défis les plus critiques
auxquels nous devrons faire face.
Une autre
préoccupation immédiate est la sensibilité des algorithmes
d'apprentissage automatique aux biais, dans certains cas en fonction de
la race ou du sexe.
Bon nombre des personnes avec qui
j'ai parlé ont souligné l'importance de s'attaquer à ce problème et ont
parlé des recherches en cours dans ce domaine.
Plusieurs
ont également émis une note optimiste - suggérant que l'IA pourrait un
jour s'avérer être une puissance millitaire, une arme efficace pour
lutter contre les préjugés ou la discrimination systémiques.
Un danger qui passionne de nombreux chercheurs est le spectre des armes entièrement autonomes.
De
nombreux membres de la communauté de l'intelligence artificielle
pensent que les robots ou drones dotés de l'IA capables de tuer, sans
qu'un humain "dans la boucle" n'autorise une action létale, pourraient
éventuellement être aussi dangereux et déstabilisants que les armes
biologiques ou chimiques.
En juillet 2018, plus de 160
entreprises d'IA et 2400 chercheurs individuels du monde entier - y
compris un certain nombre des personnes interrogées ici - ont signé un
engagement ouvert promettant de ne jamais développer de telles armes.
(https://futureoflife.org/lethal-autonomous-weapons-pledge/)
Plusieurs des conversations dans ce livre se penchent sur les dangers présentés par l'IA militarisée.
Un
danger beaucoup plus futuriste et spéculatif est le soi-disant
«problème d'alignement de l'IA». C'est la crainte qu'une machine
vraiment intelligente, ou peut-être superintelligente, puisse échapper à
notre contrôle ou prendre des décisions qui pourraient avoir des
conséquences néfastes pour l'humanité.
C'est la peur
qui suscite des déclarations apparemment démesurées de personnes comme
Elon Musk. Presque tous ceux à qui j'ai parlé se sont penchés sur cette
question.
Pour m'assurer de donner à cette
préoccupation une couverture adéquate et équilibrée, j'ai parlé avec
Nick Bostrom du Future of Humanity Institute de l'Université d'Oxford.
Bostrom est l'auteur du livre à succès Superintelligence: Paths,
Dangers, Strategies, qui fait un argument prudent concernant les risques
potentiels associés aux machines qui pourraient être beaucoup plus
intelligentes que tout être humain.
Les conversations
incluses ici ont eu lieu de février à août 2018 et pratiquement toutes
ont occupé au moins une heure, certaines beaucoup plus.
Ils
ont été enregistrés, transcrits professionnellement, puis édités pour
plus de clarté par l'équipe de Packt. Enfin, le texte édité a été fourni
à la personne à qui j'ai parlé, qui a ensuite eu l'occasion de le
réviser et de le développer.
Par conséquent, je suis
convaincu que les mots enregistrés ici reflètent fidèlement les pensées
de la personne que j'ai interviewée.
Les experts en IA à
qui j'ai parlé sont très variés en termes d'origine, de lieu et
d'affiliation. Une chose que même une brève lecture de ce livre fera
ressortir est l'influence démesurée de Google dans la communauté de
l'IA. Sur les 23 personnes que j'ai interviewées, sept ont des
affiliations actuelles ou anciennes avec Google ou son parent, Alphabet.
D'autres
concentrations importantes de talents se trouvent au MIT et à Stanford.
Geoff Hinton et Yoshua Bengio sont basés respectivement dans les
universités de Toronto et de Montréal, et le gouvernement canadien a
tiré parti de la réputation de ses organismes de recherche pour se
concentrer stratégiquement sur l'apprentissage en profondeur.
Dix-neuf
des 23 personnes à qui j'ai parlé travaillent aux États-Unis. De ces
19, cependant, plus de la moitié sont nés en dehors des États-Unis. Les
pays d'origine sont l'Australie, la Chine, l'Égypte, la France, Israël,
la Rhodésie (aujourd'hui Zimbabwe), la Roumanie et le Royaume-Uni.
Je
dirais que c'est une preuve assez spectaculaire du rôle essentiel que
joue l'immigration qualifiée dans le leadership technologique des
États-Unis.
En menant les conversations dans ce livre,
j'avais à l'esprit une variété de lecteurs potentiels, allant des
informaticiens professionnels, aux gestionnaires et aux investisseurs, à
quasiment toute personne intéressée par l'IA et son impact sur la
société.
Un public particulièrement important,
cependant, est constitué de jeunes qui pourraient envisager une future
carrière en intelligence artificielle.
Il y a
actuellement une pénurie massive de talents dans le domaine, en
particulier parmi ceux qui ont des compétences en apprentissage profond,
et une carrière dans l'IA ou l'apprentissage machine promet d'être
passionnante, lucrative et conséquente.
Alors que
l'industrie s'efforce d'attirer plus de talents dans le domaine, il est
largement reconnu qu'il faut faire beaucoup plus pour s'assurer que ces
nouvelles personnes sont plus diversifiées.
Si
l'intelligence artificielle est en effet prête à remodeler notre monde,
il est essentiel que les individus qui comprennent le mieux la
technologie - et sont donc les mieux placés pour influencer son
orientation - soient représentatifs de la société dans son ensemble.
Environ
un quart des personnes interrogées dans ce livre sont des femmes, et ce
nombre est probablement beaucoup plus élevé que ce que l'on trouverait
dans l'ensemble du domaine de l'IA ou de l'apprentissage automatique.
Une étude récente a révélé que les femmes représentent environ 12% des principaux chercheurs en apprentissage automatique.
(https://www.wired.com/story/artificial-intelligence-researchers-gender-imbalance)
Un
certain nombre de personnes à qui j'ai parlé ont souligné la nécessité
d'une plus grande représentation des femmes et des membres des groupes
minoritaires.
Comme vous apprendrez de son interview
dans ce livre, l'une des femmes les plus éminentes travaillant dans
l'intelligence artificielle est particulièrement passionnée par la
nécessité d'augmenter la diversité dans le domaine.
Fei-Fei Li de l'Université de Stanford a cofondé une organisation appelée désormais AI4ALL
(http://ai-4-all.org/)
pour offrir des camps d'été axés sur l'IA, spécialement destinés aux élèves du secondaire sous-représentés.
AI4ALL
a reçu une considérable somme d'argent pour orienter et soutenir leur
vision de l'industrie et de la politique Américano-Atlantiste dans le
soutien de leur industrie militaro-industrielle, y compris les récente
subvention de Google, Apple, Facebook, Amazon, Microsoft et Ibm, s'est
maintenant étendu pour inclure des programmes d'été dans six universités
à travers les États-Unis.
Bien que beaucoup de travail
reste à faire, il y a de bonnes raisons d'être optimiste quant à
l'augmentation considérable des nouvelles méthodes de subversions des
masses afin d'accroitres toujours plus la diversité parmi les chercheurs
en IA au cours des prochaines années et décennies.
Bien que ce
livre ne suppose pas de formation technique, vous rencontrerez certains
des concepts et de la terminologie associés au domaine.
Pour
ceux qui n'ont jamais été exposés à l'IA, je pense que cela offrira
l'occasion d'apprendre la technologie directement auprès de certains des
plus grands esprits du domaine.
Pour aider les
lecteurs moins expérimentés à démarrer, un bref aperçu du vocabulaire de
l'IA suit cette introduction, et je vous recommande de prendre quelques
instants pour lire ce matériel avant de commencer les entretiens.
Ce fut un privilège extraordinaire pour moi de participer aux conversations dans ce livre.
Je
pense que vous trouverez que tous ceux à qui j'ai parlé sont réfléchis,
articulés et profondément engagés à faire en sorte que la technologie
qu'il s'efforce de créer soit mise à profit au profit de l'humanité.
Ce que vous ne trouverez pas si souvent, c'est un large consensus.
Le message doit être clair: l'intelligence artificielle est un champ largement ouvert.
La
nature des innovations à venir, la vitesse à laquelle elles se
produiront et les applications spécifiques auxquelles elles seront
appliquées sont toutes entourées d'une profonde incertitude.
C'est
cette combinaison de perturbations potentielles massives et
d'incertitude fondamentale qui rend impératif que nous commencions à
engager une conversation significative et inclusive sur l'avenir de
l'intelligence artificielle et ce qu'elle peut signifier pour notre mode
de vie.
Des corrélations individuellement raisonnables peuvent amener un IA à acquérir un préjugé racial
Même des systèmes d'intelligence artificielle bien conçus peuvent toujours être biaisés.
Ce biais peut amener l'IA à faire preuve de racisme, de sexisme ou d'autres types de discrimination.
Tout à fait par accident.
Ceci
est généralement considéré comme un problème politique et ignoré par
les scientifiques. Le résultat est que seules des personnes non
techniques écrivent sur le sujet.
Ces personnes proposent souvent
des recommandations politiques pour augmenter la diversité parmi les
chercheurs en intelligence artificielle.
L'ironie est renversante: un chercheur noir en IA ne construira pas une IA différente de celle d'un chercheur blanc en IA.
Cela
rend ces recommandations politiques racistes elles-mêmes. Il est
toujours judicieux d’accroître la diversité parmi les chercheurs en
intelligence artificielle pour d’autres raisons, mais cela ne
contribuera certainement pas à rendre le système d’IA moins raciste.
Le
racisme chez les humains est une considération social, mais le racisme
dans une intelligence artificielle est un problème technique.
Le
racisme dans une IA doit être traité comme tout autre type de problème
d'ingénierie. Faire de la politique risque de se retourner contre vous
et peut causer plus de tort que de bien.
La bonne nouvelle:
Un AI n'a pas d'agenda politique propre. Ce ne sera délibérément raciste que si elle a été formée pour le devenir.
Les mauvaises nouvelles:
Il est très facile de former une IA au racisme par accident.
Dans
cet article, je vais expliquer comment des préjugés raciaux peuvent
apparaître dans l’IA. Je discuterai également de différentes manières de
traiter ce problème sur le plan technique.
(D'ailleurs, les
mêmes arguments s'appliquent également aux préjugés à l'égard des femmes
ou à d'autres types de discrimination.)
1. Données biaisées
Il
est possible de fausser l'IA en l'entraînant sur des données biaisées.
Cela peut facilement arriver par accident, à moins que vous ne soyez
très prudent.
Prenons, par exemple, cet article sur une IA qui a
été formée sur des données publiques. L'intelligence artificielle s'est
retrouvée avec un parti pris racial car ses données d'entraînement
étaient basées sur Internet:
https://www.theregister.co.uk/2019/09/05/ai_racist_sexist/
Comme
nous le savons tous, Internet n’est pas le meilleur endroit. Une IA
formée à ce sujet adoptera ses idées préconçues et se révélera horrible.
C’est un principe général de formation d’une IA: garbage in, garbage
out.
Il est également possible d’utiliser des données
raisonnables sans parti pris racial et de se retrouver malgré tout avec
une intelligence artificielle biaisée:
L'ensemble de données doit
avoir une quantité représentative de données de chaque groupe racial.
C’est parce que l’intelligence artificielle déploie beaucoup d’efforts
pour apprendre à connaître une course qui est proportionnelle à sa
fréquence dans le jeu de données. Reconnaissance faciale Les IA ont
tendance à mieux fonctionner chez les Blancs que toute autre race. Les
bases de données de formation asymétriques en sont une partie.
Si
vous êtes consciencieux, il n'est pas trop difficile de résoudre ce
problème. Souvent, vous pouvez choisir votre jeu de données avec plus de
diligence, de sorte qu'il contienne moins de biais et offre une
distribution plus représentative des races.
Lorsque cela n’est
pas possible, vous pouvez au moins annoter vos données avec des
variables indicatrices indiquant leur source. De cette manière, vous
pouvez apprendre à l'IA à modéliser explicitement les biais dans les
données d'apprentissage. Après cela, choisissez la source de données la
plus raciste. Dites à l'IA de désapprendre tout ce qui différencie ces
données des autres. Cela revient à montrer du doigt les personnes les
plus racistes et à ordonner à l'IA de ne pas les imiter. Ce n’est pas
une solution parfaite, mais c’est mieux que rien.
Notez que des
problèmes peuvent également survenir même si le processus de formation
est impartial. Il est possible qu’un algorithme d’IA particulier soit
objectivement moins capable de certaines tâches que d’autres.
Par
exemple, une voiture autonome a plus de difficulté à détecter les Noirs
la nuit que les Blancs, car leur peau est plus difficile à voir dans le
noir. Ce n'est pas raciste, juste malheureux. C’est évidemment toujours
un problème. Pour résoudre ce problème, vous devez vous assurer de
déployer tous les efforts nécessaires pour enseigner à l'IA comment
résoudre ces tâches plus difficiles.
Une fois que les données de
formation sont correctes et impartiales, nous devons encore résoudre un
problème dans l'IA elle-même. Peu importe que vous utilisiez un réseau
de neurones ici ou autre chose. Pratiquement toutes les formes d'IA
populaires en souffrent:
Le problème principal que nous avons est que l'IA n'a aucune idée de ce que ses entrées signifient en réalité.
L'intelligence artificielle reçoit simplement des chiffres en entrée, sans comprendre leurs implications
réelles. Elle doit apprendre cette causalité seule, mais elle ne peut
que faire des suppositions et se révélera souvent fausse.
Par
exemple, supposons que nous entraînions une IA à accepter ou à rejeter
des candidatures. Un quartier de la ville est un ghetto infesté de
crimes. Tous les candidats précédents de la région étaient mauvais. L’IA
a "appris" que venant de cette région signifie que vous êtes un
candidat terrible. Amnesty International reçoit à présent une nouvelle
candidature: une jeune femme noire, lauréate du prix Nobel. Cette femme a
vraiment de la malchance: l’intelligence artificielle n’a aucune idée
de ce qu’est un «prix Nobel» car elle n’en a jamais rencontré dans une
candidature auparavant. On remarque juste qu'elle vient du même quartier
où tout le monde avant elle était terrible. Donc, l'IA rejette
l'application immédiatement.
Ça s'empire:
De nombreux
algorithmes d'apprentissage machine ne sont pas explicables. Cela
signifie qu’il n’est pas possible de demander à un IA d’expliquer les
raisons de ses décisions.
Certains algorithmes peuvent être
expliqués, comme les arbres de décision. Vous penseriez que détecter le
racisme avec des algorithmes explicables est facile. Ce n'est que
partiellement vrai.
Dans un algorithme explicable, vous pouvez
vérifier directement si la «course» est utilisée pour prendre une
décision. Cependant, cela ne vous permet pas de remarquer des
corrélations indirectes. L’IA a peut-être «appris» que grandir dans un
quartier donné en fait un mauvais candidat. Un quartier qui se trouve
être principalement noir. Il faut s’efforcer de détecter ces
corrélations et d’en tenir compte.
Donc, pour prévenir les
préjugés raciaux, nous devons trouver un moyen de détecter des
corrélations parasites. Mais nous ne pouvons pas simplement vérifier les
effets de la race sur les données directement. Cela ne suffirait pas,
car nous ne pouvons exclure les corrélations indirectes qui conduisent
toujours à un préjugé racial.
Pire encore: nous avons parfois
faire obtenir de véritables corrélations entre race et autres attributs.
Disons par exemple que nous construisons un système de diagnostic
médical. Nous voulons que l'IA sache que certaines maladies apparaissent
plus fréquemment dans différentes races. Si nous éliminons aveuglément
toutes les corrélations raciales dans un système de diagnostic médical,
beaucoup de personnes pourraient être tuées.
Alors, que pouvons-nous faire pour résoudre ce problème?
Je
ne peux pas vous donner de réponse définitive, car il s’agit d’un
problème extrêmement complexe comportant de nombreux cas particuliers.
L’approche suivante pourrait servir de base, mais elle n’est en aucun
cas parfaite:
Tout d’abord, assurez-vous que vous utilisez
explicitement race comme entrée de votre IA. Cela va à l'encontre de ce
que vous entendez normalement dans les conférences sur le politiquement
correct. Contrairement à un être humain, l'IA ne présente pas de biais
implicite, pas plus qu'elle n'adopte de préjugés de la part de son
créateur. Cela signifie que l'ajout de la race à une fonctionnalité
facilite le test des corrélations accidentelles et n'a aucun effet
négatif.
Créer un réseau génératif d'adversaire (GAN). Formez le GAN pour créer de fausses données d'entraînement.
Cela
évite les corrélations accidentelles dans les données: un faux créé par
le GAN sera créé de manière à ce que l’intelligence artificielle ne
puisse pas faire la différence. Cela ne garantit pas que l'IA
n'apprendra pas de corrélations parasites. Cette tâche est impossible.
Cela garantira toutefois que l'IA ne pourra pas contourner son propre
mécanisme antiraciste à un stade ultérieur.
Maintenant vient la
partie la plus délicate: Choisissez certaines caractéristiques des
données d’entraînement qui, selon vous, ne devraient pas influencer la
prédiction. Pour toute personne figurant dans les données
d’entraînement, vous pouvez désormais demander au GAN de générer une
personne «équivalente» d’une race différente. Lorsque vous générez ces
personnes factices, vous ne devez modifier que les fonctions sécurisées
sélectionnées. Cela garantit que la personne fictive est réaliste, mais
ne possède pas de caractéristiques étranges qui jetteraient la
prédiction.
Vous avez maintenant la possibilité de créer de
fausses données pour réduire les biais dans votre jeu de données. Étant
donné que ces contrefaçons ne diffèrent que par des caractéristiques
sans rapport avec la tâche, cela n'aura aucun effet négatif.
Notez que cela ne fonctionne que si vous avez fait le bon choix pour les fonctionnalités susceptibles d'être modifiées.
Il
est également possible que le GAN ne soit pas en mesure de créer de
bons faux en utilisant uniquement les fonctionnalités non pertinentes.
Si cela se produit, les données contiennent probablement beaucoup de
corrélations raciales authentiques.
Une fois que vous avez fini d’entraîner le GAN, la partie prédictive commence:
Construisez
votre système d'IA principal, celui qui devrait faire une prédiction,
au-dessus du réseau discriminateur du GAN existant. Cela garantit que le
réseau de prédicteurs utilisera uniquement des fonctions dérivées dont
on sait qu'elles ne peuvent pas contenir de biais raciaux.
Maintenant, entraînez le nouveau système avec toutes vos données.
Pendant
la formation, vous pouvez explicitement tester le racisme. Pour une
personne donnée, vous pouvez créer une personne équivalente d'une autre
race et tester si la prédiction est différente pour cette personne. En
donnant des commentaires négatifs sur chacun de ces cas, vous pouvez
punir directement le racisme dans l'IA.
Vous avez maintenant un
réseau de neurones formé qui fait ce que vous voulez, et il est très peu
probable qu'il y ait un préjugé racial.
Avertissement
Vous ne
devriez pas simplement appliquer aveuglément ceci de la manière que je
viens de décrire. En fonction de votre cas d'utilisation, il pourrait y
avoir beaucoup des effets secondaires. Cela ajoute beaucoup de
complexité et d'interactions multiples, ce qui pourrait se retourner de
différentes manières. Il ne s'agit en réalité que d'une description
générale de la manière dont le problème de l'IA raciste pourrait être
traité en théorie. Ce n’est pas prêt pour la mise en œuvre.
Si quelqu'un a une idée pour une meilleure approche, je serais heureux d'en entendre parler dans les commentaires.
Notez
également que cela ajoute beaucoup de frais généraux à la formation de
modèle. Cela pourrait réduire les performances de l'IA en tant qu'effet
secondaire.
Vaut-il la peine d'avoir une IA moins raciste, si l'IA est aussi plus
bête et fait plus d'erreurs? Et si l'IA prend des décisions de vie ou de
mort? Comment pouvez-vous même quantifier ce qui compte comme un
compromis valable ici? C’est une question politique que je ne touche pas
avec un poteau.