(WHAT WE NEED NOW – Francis X. Maier) – Le révérend Philip Larrey est un prêtre catholique et professeur de philosophie au Boston College. Avant Boston, il a occupé la chaire de logique et d’épistémologie à l’Université pontificale du Latran à Rome et a été doyen du département de philosophie du Latran. Il a publié et donné de nombreuses conférences sur la philosophie de la connaissance et la pensée critique, y compris les implications de l’intelligence artificielle (IA) et les effets de la nouvelle ère numérique sur la société. Deux de ses livres récents mettent l’accent sur le thème de l’IA : Artificial Humanity et Connected World. Plus tôt cette année, Larrey a animé un débat sur « L’IA menace-t-elle la dignité humaine ? »au Massachusetts Institute for Technology (MIT) et a présenté ses idées lors de la conférence des Nations Unies sur l’intelligence artificielle, explorant les implications éthiques de l’IA et plaidant pour des mesures visant à protéger la dignité humaine. Il s’est entretenu avec Francis X. Maier, rédacteur en chef de WWNN, dans les semaines précédant son récent discours sur l’IA lors de la conférence d’été 2024 du Napa Institute.
WWNN : Vous êtes prêtre par vocation et philosophe de profession. Alors, comment diable êtes-vous entré dans le monde de l’IA ?
Larrey : J’ai enseigné la logique et la philosophie de la connaissance au Latran, ainsi que la philosophie analytique au niveau supérieur. Dans les années 1990, j’ai été intrigué par l’IA parce que je pensais qu’en étudiant ce que fait l’intelligence artificielle, on pourrait en apprendre plus sur ce que fait l’intelligence humaine, en prenant toujours soin de faire la distinction entre les deux. Je pensais à l’époque et je pense encore aujourd’hui que le terme « intelligence artificielle » est un terme impropre. Ce que fait une machine n’est pas une question d’« intelligence ». Il utilise simplement une série d’algorithmes pour des calculs logiques afin d’obtenir des résultats programmés.
Le sujet n’en était pas moins intrigant. L’IA était un nouvel objet à la mode. Et il y avait un fort mouvement philosophique à l’époque appelé fonctionnalisme, qui considérait l’intelligence humaine et la relation entre l’esprit et le cerveau comme similaire à la relation entre le logiciel et le matériel. Dans le fonctionnalisme, l’esprit est un programme chargé d’informations, et le cerveau est le matériel sur lequel il fonctionne. Hilary Putnam était probablement la philosophe la plus célèbre qui a soutenu cela, mais beaucoup d’autres ont fait de même. Puis, à la fin des années 90, il a abandonné cette vision. Il a conclu que ce n’est pas ainsi que l’esprit humain fonctionne réellement. Mais beaucoup de programmeurs informatiques reviennent maintenant au fonctionnalisme, revenant à cette métaphore, malgré ses défauts.
WWNN : Pourriez-vous nous parler un peu de la raison pour laquelle les sens sont un élément important de la pensée humaine, et de l’impact de leur absence dans le calcul automatique ? Quelle est la signification ?
Larrey : J’étudie cela depuis près de 35 ans. Les machines n’ont pas de sensation. Ils n’ont pas de perception. Ils ont des capteurs, et certains d’entre eux sont bien meilleurs que nos sens. L’armée dispose de satellites à près de 200 miles dans l’espace qui peuvent détecter la signature thermique et la pression des pneus d’un camion pour déterminer le type de charge qu’il transporte et s’il a été déplacé récemment. C’est effrayant. Mais avoir des capteurs est une chose, et avoir un sens physique comme l’œil, l’oreille, le nez ou le toucher en est une autre. Il existe un lien métaphysique entre nos sens humains et la réalité empirique que les robots n’auront jamais. Il s’agit d’une différence fondamentale entre l’IA et nous-mêmes. Même si nos sens sont peut-être moins puissants que les capteurs d’une machine, ils sont bien meilleurs en termes de connaissance de la réalité. Une machine a besoin de numériser la réalité afin de travailler avec elle dans un langage qu’elle peut comprendre : c’est-à-dire les uns et les zéros. Nous n’avons pas besoin de faire ça. Nous expérimentons et traitons le monde directement, de sorte que nous comprenons beaucoup mieux la réalité que les capteurs.
NN : On a presque l’impression que nous n’essayons pas vraiment de créer des machines conscientes, mais plutôt de réduire notre conception de l’humanité au niveau de la machine, au niveau utilitaire.
Larrey : Certains transhumanistes correspondraient à ce profil. Ils ont tendance à réduire l’esprit à des fonctions cérébrales. Mais cela ne fonctionne pas. Une machine peut gérer des algorithmes très rapides sur d’énormes bases de données, et les humains ne pourraient jamais le faire seuls. Mais l’IA utilise des calculs logiques basés sur des statistiques. Ce n’est pas du raisonnement. En ce qui concerne la « conscience » des machines : le futuriste Ray Kurzweil soutiendrait qu’une fois que les machines présentent un comportement que nous comprenons comme conscient, nous les considérerons comme conscientes, même si elles ne le sont pas. En gros, si vous ne pouvez pas faire la différence, y en a-t-il une ? S’il ressemble à un canard, et qu’il cancane comme un canard, et qu’il marche comme un canard, alors ce doit être un canard, n’est-ce pas ?
Sauf que non, ce n’est pas le cas. Si vous avez déjà joué avec ChatGPT, il peut vous convaincre qu’il est réellement conscient ; qu’il comprend ce que vous dites. Mais ce n’est pas le cas, et ce n’est pas le cas. Les machines ne sont pas conscientes, et elles ne le seront jamais. Bien sûr, cela n’empêchera pas certains habitants de la Silicon Valley d’essayer de les rendre ainsi. Si vous dites aux ingénieurs logiciels que quelque chose est impossible, ils le prennent comme un défi pour prouver le contraire.
WWNN : Cela ressemble à une forme d’orgueil, et l’orgueil se termine généralement mal. Ce qui m’amène à ma prochaine question : vous entretenez une relation amicale, pour ne prendre qu’un exemple, avec Sam Altman, le cofondateur d’OpenAI, un acteur majeur dans le domaine de l’intelligence artificielle. À quoi ressemblent les hommes comme Altman ? Et pourquoi parleraient-ils à un prêtre ?
Larrey : C’est une bonne question. J’ai eu beaucoup de chance de rencontrer beaucoup de ces personnes : Mark Zuckerberg ; Eric Schmidt, qui a été le PDG de Google pendant de nombreuses années ; Sam Altman. Je connais certains des administrateurs du conseil de surveillance de Meta, et certaines d’entre elles ont visité mes cours. La Silicon Valley est très petite, ce qui relie toutes ces personnes dans un groupe assez soudé. Et donc, en connaître un vous aide à connaître beaucoup d’autres. D’après mon expérience, ils sont en fait intéressés par le dialogue avec l’Église catholique. Ils veulent entendre ce que le pape a à dire, et François a parlé de l’IA dans plusieurs discours majeurs ces derniers mois.
WWNN : Mais encore une fois, pourquoi parleraient-ils à l’Église catholique ? En prenant du recul, une certaine perspective (négative) soutiendrait que l’Église catholique est le dépositaire de tout ce qui est rétrograde dans l’expérience humaine.
Larrey : L’une des choses que j’ai apprises dans les années 90, c’est que la tradition catholique n’avait pas beaucoup de succès, parlant d’une manière que les gens de la Silicon Valley pouvaient comprendre. Et c’était un énorme obstacle. J’ai donc senti que cela faisait partie de ma vocation d’apprendre leur langue, puis de traduire la richesse de la tradition catholique dans cette langue. J’espère relever ce défi. Je pense que c’est ce qui les intéresse.
WWNN : Mais leur intérêt est-il simplement une version du botaniste fasciné par une nouvelle fleur étrange ? Ou y a-t-il quelque chose dans l’expérience et la conception catholiques de la vie humaine qui conduit ces personnes à en savoir plus et à dialoguer avec elle ?
Larrey : Ça varie. Mes relations avec les entreprises technologiques sont quelque peu biaisées, car elles doivent être disposées à me parler. Certains des leaders, comme Eric Schmidt et Max Tegmark, ont été remarquablement ouverts. D’autres moins. Le PDG de Google n’est tout simplement pas intéressé. Il dirige l’une des plus grandes entreprises de la planète, qui a un impact sur des milliards de personnes chaque jour – et il n’est tout simplement pas intéressé à parler de la nature de la personne humaine. Tout le monde parle de l’éthique de l’IA… Et il n’est pas impliqué dans ces discussions.
WWNN : Quel genre d’impact l’IA aura-t-elle à long terme ? Surtout si vous le comparez aux conséquences massives, à toutes les dislocations sociales, causées involontairement par l’imprimerie au XVIe siècle.
Larrey : Ce sera plus grand. Beaucoup plus grand. Certains noms très sérieux du développement de l’IA ont fait valoir que nous devons arrêter la recherche sur l’IA dès maintenant – pas la ralentir, mais l’arrêter – affirmant que dès que nous atteindrons l’intelligence artificielle générale (AGI), elle détruira chaque être humain sur la planète. Si un luddite de l’Iowa disait quelque chose d’aussi radical, vous n’y prêteriez pas attention. Mais quand une liste de poids lourds de l’industrie le dis-le, cela donne à réfléchir. Potentiellement, l’IA est très dangereuse. Cela va prendre beaucoup d’emplois aux gens. L’AGI sera autonome et capable de fonctionner presque de la même manière qu’un être humain. À l’heure actuelle, l’IA « étroite » que nous avons peut très bien faire une grande variété de choses uniques, comme jouer aux échecs ou au jeu de Go, ou Jeopardy. L’Intelligence Générale Artificielle va interagir avec son environnement de manière autonome pour obtenir des résultats. C’est similaire à ce que font les êtres humains réels, mais sans un caractère et une conscience véritablement humains.
WWNN : Qu’est-ce que l’IA fera à l’Église catholique en tant que communauté religieuse ? Il semble que cela pourrait avoir un effet très perturbateur sur l’idée même de l’identité et de la destinée humaines, l’idée du surnaturel et la réalité des vérités invisibles.
Larrey : Je ne pense pas qu’on puisse encore le savoir. Une excellente utilisation catholique de l’IA est « Magisterium AI », fondée par Matthew Sanders. Il vit au Québec et il est aussi le PDG d’Humanité 2.0, une fondation catholique très solide. Magisterium AI aide les utilisateurs à comprendre la doctrine catholique. Il a formé l’IA sur l’enseignement et les documents catholiques officiels, afin qu’elle ne présente pas de fausses informations. Et il lui fournit 200 documents par semaine. Par conséquent, je suis optimiste. Je pense que nous apprendrons à utiliser ces outils d’IA pour atteindre de bons objectifs. Et si notre objectif est d’être une communauté de foi engagée, ces outils nous aideront à le faire.
Du côté philosophique, l’IA soulève beaucoup de questions. Et c’est ce avec quoi nous nous débattons maintenant. Qu’est-ce que la conscience ? Qu’est-ce que le libre arbitre ? Qu’est-ce que l’au-delà ? Nous ne pouvons pas simplement télécharger l’esprit humain sur une clé USB et le télécharger ensuite dans un autre corps parce que, de ce côté de la mort, l’âme et le corps ne peuvent pas être séparés ; Le corps est une partie unique et déterminante de notre identité. Nous avons donc besoin d’un cadre adéquat pour réfléchir à ces questions, et c’est un travail en cours.
Francis X. Maier est chercheur principal en études catholiques au Centre d’éthique et de politique publique, à Washington, D.C.