La croissance de l’intelligence artificielle (l’IA) et du transhumanisme, ces dernières années, reflète à la fois le désir qu’entretient l’humain en regard de son perfectionnement et sa volonté de mieux comprendre le monde qui l’entoure. Face à ce développement rapide, deux questions touchant au coeur de l’étude de la connaissance (l’épistémologie) surgissent : en quoi l’IA pourrait-elle théoriquement aider l’humain dans sa quête de la connaissance ? Et en quoi pourrait-elle nous aider à répondre aux questions concernant ce que nous pouvons réellement connaître ?
À travers les arguments philosophiques avancés notamment par Francis Bacon, Nelson Goodman, Bertrand Russel, Frank Jackson, David Hume et T. S. Gendler, nous verrons qu’une symbiose entre les intelligences artificielles et la méthode épistémologique d’induction pourrait nous permettre d’atteindre une connaissance, certes imparfaite, mais beaucoup plus fiable. De plus, l’absence potentielle de biais implicites dans la programmation de l’IA permettrait d’atteindre une impartialité éthique dans ses jugements en regard de la justice sociale.
L’induction numérique
Précisons tout d’abord qu’il ne s’agira pas, dans cet article, de nous demander si nous pouvons connaître quelque chose de manière certaine. Il s’agira plutôt d’analyser une méthode plus moderne de recherche de la connaissance en nous appuyant sur des innovations potentielles dans le domaine de l’IA. Cette méthode nous permettra non pas de prétendre à la connaissance absolue et finale, mais de nous en approcher le plus possible. Car, comme le disait le philosophe britannique Francis Bacon dans son Novum Organum, ceux qui croient avoir découvert la vérité finale sur les lois de la nature et ceux qui pensent que rien ne peut être connu sont tous deux dans l’erreur. Leurs attitudes radicales et leur zèle leur empêchent de voir les véritables nuances.
Pour Bacon, notre seul espoir réside non pas dans l’un de ces deux extrêmes, mais « dans une vraie induction ». Selon lui, il n’y a que deux façons d’atteindre la vérité et la connaissance de quelque chose. La première – la déduction – part d’axiomes généraux, puis, procède par inférences logiques jusqu’à atteindre une conclusion immuable qui est la conséquence nécessaire des ces principes. La deuxième – l’induction – part aussi des sens et du particulier, mais monte graduellement, par l’observation de phénomènes spécifiques, pour en arriver finalement à l’établissement de règles générales. Cette deuxième méthode est le véritable chemin, bien que jamais foulé jusqu’à maintenant, selon le philosophe. Or, ce que l’IA et sa mémoire nous permettent de faire est justement d’emprunter ce « vrai chemin qui n’a jamais été emprunté », cela car le principe de l’induction, tout comme l’IA, est basé sur l’accumulation de données spécifiques et détaillées sur un sujet précis afin d’arriver à une généralité le concernant. L’induction noue une approche basée sur les probabilités et une approche empirique basée sur la récolte massive de données, de faits, de preuves et de justifications. La majorité de ce que l’on nomme des « connaissances » aujourd’hui, en science ou en philosophie, est d’ailleurs le produit de la méthode inductive. Il semble alors fort hypocrite de la critiquer, comme certains épistémologues du courant de pensée « knowledge first » (dont Timothy Wiliamson) semblent le faire, en disant accorder le primat à la connaissance plutôt qu’aux preuves empiriques, comme si ces dernières n’avaient pas d’utilité dans le champ de la philosophie.
Étant donné que les IA, à travers la compilation d’échantillons de données, le calcul de probabilités et l’apprentissage artificiel, emploient une méthode inductive semblable à celle de Bacon, celles-ci se montrent prometteuses dans la recherche de connaissances sur le monde. Qui plus est, l’IA pourrait même nous aider à bâtir un système plus performant que le principe épistémologique du JTB (« justified true belief », un système érigé en syllogisme voulant que, pour atteindre la connaissance, la croyance en une proposition doit être vraie et justifiée), ce dernier comptant d’innombrables amendements sous forme de syllogismes que lui ont affublé les épistémologues au fil du temps. Cette idée contredit directement l’argument de Timothy Williamson selon lequel l’accumulation d’amendements conditionnels au JTB est absurde et occasionne une régression infinie, c’est-à-dire que les amendements pourront toujours eux-mêmes être amendés par un contre-argument. Car, au fil des années, l’on constate qu’à chaque fois qu’un épistémologue a tenté d’introduire des ajouts à la méthode du « justified true belief », il s’est buté à des contre-arguments et une chaîne absurdement longue d’amendements conditionnels.
« Ce que l’IA et sa mémoire nous permettent de faire est justement d’emprunter ce « vrai chemin qui n’a jamais été emprunté », cela car le principe de l’induction, tout comme l’IA, est basé sur l’accumulation de données spécifiques et détaillées sur un sujet précis afin d’arriver à une généralité le concernant »
En effet, pour une mémoire humaine, il semble absurde d’espérer pouvoir retenir parfois jusqu’à dix amendements conditionnels au JTB lorsque l’on veut tester la légitimité d’une proposition. Mais pour une mémoire plus performante comme celle de l’IA qui bâtirait un test épistémologique des connaissances, une sorte d’augmentation des logiciels déjà existants de « fact-checking » (vérification des faits, tldr), la méthode du JTB pourrait être viable. Cette idée semble plus envisageable et pourvue d’une meilleure instantanéité et fiabilité que la mémoire et les capacités analytiques standard d’un humain ayant recours au « justified true belief ». Et si l’élaboration d’un tel système (purement artificiel) était trop complexe, l’avenue hybride qu’explorent le transhumanisme et l’augmentation de la mémoire de l’être humain est aussi envisageable. On assisterait ainsi à la naissance d’un système ou d’un être hybride qui aurait non seulement en sa mémoire la majorité des savoirs encyclopédiques humains, mais qui aurait également la possibilité de les mettre en relation avec des propositions épistémologiques qui lui seraient soumises. Ce nouveau système, basé sur l’IA et ses capacités, nous l’appellerons l’induction numérique, ou encore, le post-organe.
L’énigme qui n’en est pas une
Avant de nous emballer sur le concept de l’induction numérique, considérons des objections concernant le concept même d’induction. Parmi ces objections, l’on distingue notamment celle du philosophe américain Nelson Goodman, qui considère l’induction comme un problème et une énigme. Selon lui, la confirmation d’une hypothèse par l’observation d’un phénomène particulier peut être problématique. Un morceau particulier de cuivre, par exemple, peut augmenter la crédibilité de la proposition voulant que « tous les morceaux de cuivre conduisent l’électricité ». Mais si cette idée est appliquée à l’exemple d’un homme en particulier, qui se retrouve dans une pièce remplie d’autres hommes, et que cet homme est, disons, le troisième fils de sa famille, ceci ne veut pas automatiquement dire que tous les hommes de la pièce sont des troisièmes fils. L’observation initiale ne confirme donc pas l’hypothèse selon laquelle tous les hommes de la pièce sont les troisièmes fils de leurs familles respectives. Selon Goodman, la méthode inductive ne permet pas de tenir compte de choses qui n’ont pas encore été observées. La proposition « toutes les émeraudes observées sont vertes, donc toutes les émeraudes sont vertes », par exemple, est erronée, car l’on ne peut pas prédire si, dans un futur proche, il y aura des émeraudes bleues.
Bertrand Russel et Frank Jackson apportent cependant une solution au problème soulevé par Goodman en argumentant que l’induction n’a pas forcément vocation à prouver qu’une hypothèse est vraie. Plutôt, cette méthode ne fait qu’augmenter les probabilités que cette hypothèse soit vraie, surtout lorsqu’une grande quantité de données sont accumulées pour l’appuyer :
« Les principes généraux de la science, comme la croyance en l’existence d’une loi de la nature et la croyance que tout doit avoir une cause, dépendent autant du principe inductif que des croyances de la vie quotidienne. On croit à tous ces principes généraux parce que l’humanité a trouvé d’innombrables exemples de leur vérité et aucun exemple de leur fausseté. Mais cela n’offre aucune preuve de leur véracité dans le futur, à moins que le principe inductif soit assumé »
Bertrand Russell
Ainsi, non seulement Russell rejette-t-il les théories sceptiques concernant l’induction lorsqu’il propose « d’assumer » la méthode inductive, mais il apporte également l’idée selon laquelle, dans l’induction, la probabilité est « tout ce que nous devons chercher ». Par exemple, s’il n’y avait aucune trace d’émeraudes non-vertes dans la mémoire historique des observations humaines et des données recueillies à leur sujet, cela ne prouverait pas qu’il n’y aura pas d’émeraudes vertes dans le futur, mais cela augmenterait de façon marquée la probabilité de l’impossibilité de ce fait. Et si des émeraudes bleues apparaissaient dans le futur, la méthode inductive n’aurait qu’à les prendre en compte dans sa définition générale et descriptive des émeraudes. En un mot, la méthode inductive n’est pas têtue.
Cette idée vient confirmer les écrits de Frank Jackson concernant les exemples du « troisième fils » et de la conductivité du cuivre de Goodman. Selon Jackson, ces deux exemples ne sont tout simplement pas comparables ; il y a une fausse analogie entre l’exemple du cuivre et celui de l’homme qui serait un « troisième fils » étant donné que l’hypothèse de la conductivité du cuivre a été observée sur un échantillon très large au long de l’histoire alors que l’hypothèse selon laquelle « l’homme serait un troisième fils » repose sur un échantillon unique et traite d’un fait qui dépend largement d’un hasard historico-familial.
La principale erreur commise par les détracteurs de la méthode inductive est donc de penser que celle-ci cherche à uniformiser plutôt qu’à disséquer, à connaître afin de prévoir le futur plutôt qu’à connaître les détails pour mieux envisager l’ensemble. L’erreur consiste à penser que le but de l’induction est tout simplement de savoir si toutes les émeraudes sont vertes, alors que le but de l’induction est en réalité de connaître les propriétés de toutes les sortes d’émeraudes. C’est donc bien Goodman qui commet une erreur d’uniformisation par sa tentative de trouver un nom général « grue » (néologisme fusionnant « green » et « blue ») aux émeraudes vertes et bleues.
Cette accumulation de savoirs sur les propriétés de toutes choses est justement ce qui fait la grande force de l’induction d’un point de vue épistémologique. David Hume montre bien, à travers l’exemple suivant, que l’absence de savoirs sur un sujet peut occasionner de nombreux impairs à l’atteinte de la connaissance :
« Un paysan ne peut pas trouver de meilleure explication à l’arrêt d’une horloge que de dire “souvent, elle ne marche pas correctement”; mais un horloger comprend bien que la même force au ressort et au pendule produit toujours le même effet sur les roues, mais qu’elle n’a pas eu son effet habituel parce qu’un grain de poussière a arrêté tout le mouvement. Après avoir observé plusieurs cas de cette nature, les philosophes et les scientifiques ont formé une maxime selon laquelle le lien entre toutes les causes et tous les effets est également nécessaire et que son apparente incertitude vient parfois de l’opposition cachée de causes contraires »
David Hume
Cette analogie met bien en avant l’importance des savoirs dans l’atteinte de la connaissance, car celui qui « connaît » le fonctionnement de l’horloge et le principe qui fait en sorte qu’elle s’arrête, dans l’exemple de Hume, est aussi celui qui peut la disséquer et la comprendre le mieux. C’est pour cette raison que l’induction semble être la meilleure option pour tenter de s’approcher le plus près de la connaissance. Si l’épistémologie moderne ne semble pas avoir percé le secret de la connaissance, l’alternative proposée qu’est l’induction numérique semble féconde de possibilités.
La machine ne voit pas la couleur de peau
Ce qui semble finalement être irrésistible dans la méthode inductive, mais plus particulièrement dans l’induction numérique, c’est la possibilité d’envisager une absence totale de biais implicites chez l’IA.
La philosophe Tamar Szabó Gendler, professeure à l’Université Yale, présente, dans son ouvrage On the epistemic cost of implicit bias, deux types de biais intellectuels auxquels l’induction numérique n’adhère possiblement pas. D’abord, la philosophe explique que le biais implicite de l’ignorance intellectuelle, chez l’être humain, peut mener à des décisions contre-productives concernant l’atteinte de la connaissance. Ensuite, elle considère que les biais implicites raciaux, liés à l’inconscient collectif de l’humain ou encore à son rapport aux émotions haineuses, peuvent aussi nuire à la quête de la connaissance. Au sens où, par exemple, les biais implicites raciaux d’un juge peuvent le mener à juger coupable d’un crime une personne noire plutôt qu’une personne blanche, même si toutes deux étaient présentes au moment du crime et il n’y avait pas de preuves suggérant que l’une est plus coupable que l’autre. Tous ces biais, écrit Gendler, sont des constructions intellectuelles qui permettent aux humains de naviguer les complexités du monde qui excèdent nos capacités cognitives. Mais, comme nous l’avons vu, ces biais représentent aussi un obstacle dans la poursuite de la connaissance que l’IA moderne peut aider à surmonter.
Pour être tout à fait clair, lorsque l’on dit que l’IA ne possèderait pas les types de biais implicites décrits par Gendler, l’on entend une IA qui serait programmée par un groupe de personnes ou un comité éthique qui ferait en sorte que ce genre de biais ne soit pas encodé dans sa programmation. Bien évidemment, certains principes éthiques peuvent varier d’une culture à l’autre mais, encore une fois, l’exercice n’est pas d’atteindre la perfection – qui d’ailleurs est encore plus loin d’être le cas chez l’être humain – mais une probabilité moindre d’erreur. En ce sens, il serait donc un peu hypocrite de critiquer le moindre défaut chez l’IA en omettant les défauts flagrants de la moyenne des humains, dont les biais implicites. Il suffit, pour se convaincre de cela, de prendre en exemple les voitures intelligentes autonomes. Pourquoi commencent-elles à être de plus en plus présentes dans nos sociétés ? Parce qu’elles limitent grandement la probabilité d’erreurs et d’accidents routiers en comparaison aux humains. Selon Statistique Canada, en 2017, 1679 personnes auraient perdu la vie lors d’accidents routiers et, de ce nombre, 94% seraient liés directement à des erreurs humaines (temps de réaction faible, alcool au volant, absence de port de la ceinture, etc.). Alors, l’argument éthique que certains défendent en lien à l’imperfection du système de l’IA (qui occasionnerait exceptionnellement des accidents) est indéfendable vis-à-vis l’argument utilitariste concernant la réduction radicale du nombre de décès totaux. En somme, l’imperfection des systèmes d’IA est moindre, d’un point de vue conséquentialiste, que l’imperfection des réflexes cognitifs humains généraux.
L’induction numérique se présente donc comme un outil potentiellement plus puissant que la conscience humaine dans la poursuite de la connaissance par l’induction. Non seulement l’IA nous permet-elle d’analyser des types plus divers d’informations, mais ses inductions peuvent aussi potentiellement être plus fiables, étant donné que les êtres humains sont susceptibles d’avoir des biais insurmontables dans la recherche de la connaissance. Et, même si l’IA n’est pas parfaite, le mieux que nous puissions faire ne serait-il pas de nous approcher au plus près de la connaissance ?