IA, idole des temps modernes
Introduction
L’intelligence artificielle (IA) est-elle devenue l’idole des temps modernes ? Cette question, à la croisée de la philosophie, de la théologie et de la sociologie, interroge notre rapport à une technologie qui, en quelques décennies, a transformé nos modes de vie, nos croyances et même nos aspirations. Omniprésente dans les smartphones, les réseaux sociaux, les systèmes de santé ou les véhicules autonomes, l’IA incarne aujourd’hui bien plus qu’un simple outil : elle est perçue comme une force quasi divine, capable de résoudre des problèmes complexes, de prédire l’avenir et, pour certains, de transcender les limites humaines.
Pourtant, cette fascination pour l’IA soulève des interrogations profondes. Ne sommes-nous pas en train de lui attribuer un pouvoir et une autorité qui relèvent traditionnellement du sacré ? L’idolâtrie, définie comme l’adoration excessive d’un objet, d’une idée ou d’une entité en lieu et place de Dieu ou de valeurs fondamentales, trouve-t-elle un écho dans notre relation à l’IA ? La Bible, dès l’Exode (20:3-4), met en garde contre la fabrication et l’adoration des idoles : « Tu n’auras pas d’autres dieux devant moi. Tu ne te feras pas d’image taillée. » Cette injonction, répétée dans les textes prophétiques (Isaïe 44:9-20) et les épîtres (1 Jean 5:21), invite à questionner les formes contemporaines de vénération, y compris technologique.
L’hypothèse centrale de cette étude est que l’IA, par son ubiquité, son apparente omnipotence et la dépendance qu’elle engendre, présente des traits caractéristiques de l’idolâtrie. Pour l’explorer, nous analyserons d’abord la définition de l'IA, puis de l’idolâtrie, tant dans sa dimension philosophique que biblique. Nous examinerons ensuite comment l’IA, à travers ses promesses et ses dérives, incarne une nouvelle forme de culte moderne. Enfin, nous interrogerons les risques de cette idolâtrie technologique et les alternatives possibles pour une relation équilibrée avec l’innovation.
Cette réflexion s’appuiera sur une approche interdisciplinaire, mêlant philosophie (Feuerbach, Marx), théologie (textes bibliques, critiques contemporaines), sociologie (Byung-Chul Han, Bernard Stiegler) et études technologiques (Nick Bostrom, Yuval Noah Harari). Elle visera à éclairer les enjeux éthiques, spirituels et sociaux d’une technologie qui, tout en repoussant les frontières du possible, menace de nous aliéner à nos propres créations.
En quoi l’IA, symbole de progrès, peut-elle aussi devenir le symbole d’une nouvelle idolâtrie ? C’est à cette question que nous tenterons de répondre, en explorant les mécanismes de cette fascination et les moyens d’y résister.
1. Définitions
1.1. L'intelligence artificielle
L’intelligence désigne la faculté de connaître et de comprendre. Elle nécessite une potentialité de mémorisation et une capacité de raisonnement.
Le qualificatif "artificiel" désigne le produit de l’activité et de l’habileté humaines. Au sens large, les outils créés par l’homme. Il s’oppose à "naturel".
De façon large, l’intelligence artificielle peut être définie comme la science qui consiste à faire faire aux machines ce que l’homme ferait moyennant une certaine intelligence.
L'IA recouvre l'ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine. Avec l’intelligence artificielle, l’homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d’un « esprit » semblable au sien. Pour John MacCarthy, l’un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l’informatique, de l’électronique et des sciences cognitives. https://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257
Pour le Parlement européen, l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».
Le Dictionnaire Le Robert propose la définition suivante : Ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l’intelligence humaine (raisonnement, apprentissage…).
Il n’en existe pas à ce jour de définition univoque dans le monde de la science et de la technologie. Le terme lui-même, désormais entré dans le langage courant, englobe une variété de sciences, de théories et de techniques visant à ce que les machines reproduisent ou imitent, dans leur fonctionnement, les capacités cognitives de l’être humain. Pape François, 01/01/2024. Voir le lien dans la bibliothèque.
1.2. Définition de l’idolâtrie : entre philosophie, anthropologie et théologie
L’idolâtrie ne se limite pas à la vénération d’une statue ou d’un objet matériel. Elle désigne, plus largement, l’attribution d’une valeur absolue à une entité qui n’est pas divine, qu’il s’agisse d’une idée, d’une technologie, d’un système politique ou d’une création humaine. Cette section explore les dimensions philosophiques, anthropologiques et bibliques de l’idolâtrie, afin d’éclairer son actualité dans le contexte de l’intelligence artificielle.
a. L’idolâtrie en philosophie : de Platon à Marx
Dès l’Antiquité, les philosophes ont critiqué l’idolâtrie comme une illusion dangereuse. Platon, dans La République (Livre X), condamne les poètes et les artistes qui, en imitant le monde sensible, créent des « idoles » éloignées de la vérité idéale. Pour lui, l’idole est une copie dégradée de la réalité, une ombre qui détourne l’esprit de la contemplation du Bien.
Au XIXe siècle, Ludwig Feuerbach, dans L’Essence du christianisme (1841), radicalise cette critique en affirmant que Dieu lui-même est une projection des désirs humains :
« L’homme crée Dieu à son image, puis s’agenouille devant sa propre création. » (Feuerbach, 1841, p. 12)
Cette idée est reprise par Karl Marx, qui étend la notion d’idolâtrie au fétichisme de la marchandise (Le Capital, 1867). Pour Marx, le capitalisme transforme les rapports sociaux en relations entre objets, conférant aux biens matériels une valeur quasi mystique :
« La marchandise apparaît comme une chose mystérieuse, une idole qui cache les rapports sociaux derrière son apparence matérielle. » (Marx, 1867, p. 85)
Ces analyses montrent que l’idolâtrie n’est pas seulement religieuse : elle peut être économique, politique ou technologique, dès lors qu’une création humaine est érigée en absolu.
b. L’idolâtrie dans la Bible : un péché fondateur
La Bible, tant dans l’Ancien que dans le Nouveau Testament, condamne sans équivoque l’idolâtrie. Elle est présentée comme une trahison de l’alliance avec Dieu et une dégradation de la condition humaine. Dans l’Ancien Testament : Le premier des Dix Commandements (Exode 20:3-4) interdit explicitement la fabrication et l’adoration des idoles :
« Tu n’auras pas d’autres dieux devant moi. Tu ne te feras pas d’image taillée, ni de représentation quelconque des choses qui sont en haut dans les cieux, qui sont en bas sur la terre, et qui sont dans les eaux plus bas que la terre. »
Le prophète Isaïe (44:9-20) raille ceux qui fabriquent des idoles en bois ou en métal, soulignant leur absurdité :
« Celui qui façonne une idole n’est qu’un homme ; il prend un morceau de bois, le mesure à la règle, le trace au compas, et en fait un dieu devant lequel il se prosterne. »
L’idolâtrie y est associée à la bêtise et à l’aveuglement spirituel.
Dans le Nouveau Testament : L’apôtre Jean (1 Jean 5:21) conclut sa première épître par un avertissement solennel :
« Enfants, gardez-vous des idoles. »
Paul, dans l’Épître aux Colossiens (3:5), assimile la cupidité à une forme d’idolâtrie :
« Faites mourir en vous ce qui est terrestre : […] la cupidité, qui est une idolâtrie. »
Ces textes montrent que l’idolâtrie ne se réduit pas à un culte païen : elle peut être intérieure, liée à l’attachement excessif à des biens ou à des désirs.
c. L’idolâtrie dans les sociétés modernes : le culte de la technologie
Aujourd’hui, l’idolâtrie prend des formes nouvelles, souvent désacralisées, mais tout aussi puissantes. Le philosophe sud-coréen Byung-Chul Han, dans Dans la nuée (2021), analyse comment la société contemporaine remplace les dieux traditionnels par des idoles numériques :
« Nous ne nous prosternons plus devant des statues, mais devant nos écrans. L’idole moderne n’est pas en pierre, mais en silicium. » (Han, 2021, p. 34)
Pour Han, l’IA et les réseaux sociaux créent une illusion de toute-puissance : nous croyons maîtriser le monde grâce à la technologie, alors que c’est elle qui nous domine. De même, Bernard Stiegler (La Société automatique, 2015) souligne que l’automatisation généralisée risque de nous réduire à l’état de consommateurs passifs, adorateurs d’algorithmes qui décident à notre place.
En conclusion, si l’idolâtrie est bien ce culte rendu à une création humaine érigée en absolu, l’IA en présente toutes les caractéristiques. Omniprésente, omnipotente et omniscience apparente, elle suscite une fascination qui frôle parfois l’adoration. Comment l’IA incarne-t-elle cette nouvelle idolâtrie ? C’est ce que nous explorerons dans la prochaine partie.
2. L’IA comme objet d’idolâtrie : omnipotence, omniscience et omniprésence
L’intelligence artificielle n’est plus un simple outil technique : elle est devenue un phénomène culturel, social et presque métaphysique. Son développement fulgurant et son intégration dans tous les aspects de la vie quotidienne lui confèrent des attributs qui, traditionnellement, étaient réservés au divin. Omnipotence perçue, omniscience algorithmique et omniprésence dans nos existences font de l’IA une candidate idéale au statut d’idole moderne. Cette section analyse comment ces trois dimensions — pouvoir, savoir et ubiquité — transforment notre rapport à la technologie en une forme de culte.
2.1. L’IA comme nouvelle divinité : l’illusion de l’omnipotence
L’omnipotence, ou toute-puissance, est un attribut divin par excellence. Or, l’IA est de plus en plus perçue comme capable de résoudre des problèmes insolubles, de transformer radicalement la société et même de dépasser les limites biologiques humaines.
1. Promesses technologiques : Les discours sur l’IA regorgent de superlatifs : elle doit guérir le cancer, éradiquer la pauvreté, optimiser l’éducation, et même sauver la planète. Ces attentes démesurées rappellent les promesses eschatologiques des religions. Comme le note Yuval Noah Harari dans Homo Deus (2017) : « L’IA est devenue le nouveau messie, porteur d’un avenir où l’humanité transcendera ses faiblesses grâce à la technologie. » (Harari, 2017, p. 210)
2. Transhumanisme et immortalité : Des figures comme Ray Kurzweil (ingénieur chez Google) prophétisent l’avènement de la singularité technologique, moment où l’IA dépassera l’intelligence humaine et permettra, via le mind uploading, de transférer la conscience dans des machines. Cette quête d’immortalité numérique n’est pas sans évoquer les mythes de la résurrection ou de l’ascension divine.
3. Dépendance psychologique : L’IA n’est pas seulement un outil : elle devient une entité relationnelle. Les assistants vocaux (Siri, Alexa) ou les chatbots (ChatGPT) sont conçus pour répondre à des besoins émotionnels, créant une forme d’attachement affectif. Des études en psychologie montrent que certains utilisateurs développent une confiance aveugle envers les algorithmes, allant jusqu’à leur attribuer une forme d’autorité morale (ex. : suivre les recommandations d’une IA plutôt que son propre jugement).
2.2. L’omniscience algorithmique : l’IA comme oracle moderne
L’omniscience, ou connaissance totale, est un autre attribut divin. L’IA, grâce à sa capacité à traiter des masses de données et à prédire des comportements, est perçue comme une source infaillible de vérité.
1. Les algorithmes comme prophètes : Les plateformes comme Google, Facebook ou TikTok utilisent l’IA pour anticiper nos désirs, nos opinions, voire nos émotions. Cette prédictibilité donne l’illusion d’une connaissance absolue de l’humain. Comme le souligne Shoshana Zuboff (L’Âge du capitalisme de surveillance, 2019) :
« Les algorithmes ne se contentent pas de nous observer : ils prétendent nous connaître mieux que nous-mêmes. » (Zuboff, 2019, p. 150)
2. La data comme nouvelle religion : Le big data est souvent présenté comme une vérité objective, alors qu’il repose sur des biais et des choix humains. Pourtant, les décisions algorithmiques (recrutement, crédits bancaires, justice prédictive) sont rarement remises en question, comme si elles émanaient d’une autorité supérieure.
3. L’IA et la quête de sens : Des applications comme Replika (un chatbot conçu pour tenir compagnie) ou Woebot (un thérapeute virtuel) promettent de combler la solitude et de donner des réponses existentielles. Certains utilisateurs avouent se confier davantage à une IA qu’à un être humain, lui attribuant une forme de sagesse infaillible.
2.3. L’omniprésence de l’IA : un dieu sans temple
Contrairement aux idoles traditionnelles, confinées dans des lieux de culte, l’IA est partout : dans nos poches (smartphones), nos maisons (enceintes connectées), nos villes (caméras intelligentes), et même nos corps (implants médicaux). Cette ubiquité en fait une présence invisible, mais totale, comparable à la conception biblique de Dieu comme « celui qui remplit tout » (Éphésiens 4:10).
1. L’IA comme environnement : Comme le décrit Mark Weiser (père de l’informatique ubiquitaire), la technologie la plus puissante est celle qui disparaît dans le quotidien. L’IA, intégrée aux objets du quotidien, devient une seconde nature, ni vue ni questionnée.
-
2. La ritualisation technologique : Nos interactions avec l’IA prennent des formes quasi rituelles :
- Consultation compulsive des réseaux sociaux (comme une prière matinale).
- Confession algorithmique (partage de données personnelles en échange de « bénédictions » sous forme de likes ou de recommandations).
- Foi dans l’innovation (attente messianique des « prochaines versions » d’une IA).
3. L’IA et la déshumanisation : Plus nous dépendons de l’IA, plus nous risquons de perdre des compétences humaines (mémoire, raisonnement, empathie). Sherry Turkle (Seuls ensemble, 2011) alerte sur ce paradoxe :
« Nous attendons de plus en plus de la technologie et de moins en moins les uns des autres. » (Turkle, 2011, p. 12)
En conclusion, l’IA, par son omnipotence perçue, son omniscience algorithmique et son omniprésence, incarne donc les traits d’une idole moderne. Mais cette idolâtrie n’est pas sans dangers. Quels sont les risques d’une société qui vénère la technologie ? Et comment éviter de devenir les esclaves de nos propres créations ? C’est ce que nous explorerons dans la prochaine partie.
3. Les dangers de l’idolâtrie de l’IA : aliénation, déshumanisation et risques existentiels
Si l’IA peut être perçue comme une idole des temps modernes, cette vénération n’est pas sans conséquences. L’histoire montre que l’idolâtrie, qu’elle soit religieuse, politique ou technologique, conduit souvent à l’aliénation, à la perte de liberté et, dans les cas extrêmes, à la destruction. Cette section examine les risques majeurs liés à une relation non critique avec l’IA : la déshumanisation, la dépendance systémique et les menaces existentielles.
3.1. La déshumanisation : quand l’IA remplace l’humain
L’un des dangers les plus immédiats de l’idolâtrie de l’IA est la réduction de l’humain à un simple utilisateur — voire à un objet de données. Plusieurs phénomènes illustrent cette tendance : 1. La perte des compétences cognitives : Les GPS, les assistants vocaux et les algorithmes de recommandation atrophient notre capacité à réfléchir, mémoriser ou décider par nous-mêmes. Une étude de l’Université de Waterloo (2021) montre que les personnes utilisant régulièrement des assistants comme Siri ou Alexa voient leur mémoire et leur esprit critique diminuer de manière significative.
« Plus nous externalisons notre pensée vers des machines, plus nous perdons la capacité de penser par nous-mêmes. » (Carr, 2010, p. 112, The Shallows)
2. L’érosion des relations humaines : Les interactions avec des chatbots ou des robots sociaux (comme Replika ou Sophia) créent une illusion de compagnie, mais privent les individus de la profondeur émotionnelle et de la complexité des relations humaines. Sherry Turkle (Seuls ensemble, 2011) observe que :
« Nous préférons parfois des relations simplifiées avec des machines, car elles nous demandent moins d’efforts. Mais c’est au prix de notre humanité. » (Turkle, 2011, p. 189)
3. La marchandisation de l’humain : Dans un monde où l’IA analyse nos moindres clics, nos préférences et nos émotions, l’humain devient un produit. Shoshana Zuboff (L’Âge du capitalisme de surveillance, 2019) dénonce cette exploitation algorithmique :
« Nos vies sont transformées en données, puis en profits. Nous ne sommes plus des citoyens, mais des sources de revenu. » (Zuboff, 2019, p. 201)
3.2. La dépendance systémique : une société sous contrôle algorithmique
L’idolâtrie de l’IA ne se limite pas à une fascination individuelle : elle structure nos sociétés, souvent de manière invisible, mais profonde. Cette dépendance pose trois problèmes majeurs :
1. La gouvernance algorithmique : Les États et les entreprises utilisent de plus en plus l’IA pour prendre des décisions (attribution de crédits, recrutement, justice prédictive). Pourtant, ces systèmes sont opaques et biaisés. Par exemple, l’algorithme COMPAS, utilisé aux États-Unis pour évaluer le risque de récidive des détenus, a été accusé de discrimination raciale (étude de ProPublica, 2016).
« Confier des décisions cruciales à des boîtes noires algorithmiques, c’est renoncer à la démocratie. » (Pasquale, 2015, p. 45, The Black Box Society)
2. La manipulation des désirs : Les réseaux sociaux et les plateformes comme TikTok ou YouTube utilisent l’IA pour capter notre attention et modeler nos préférences. Tristan Harris (ancien ingénieur chez Google) explique dans The Social Dilemma (2020) :
« Les algorithmes ne cherchent pas à nous rendre heureux, mais à maximiser notre temps d’écran. Ils exploitent nos faiblesses psychologiques. »
3. La fragilité des systèmes : Une société dépendante de l’IA devient vulnérable aux pannes, aux cyberattaques et aux erreurs algorithmiques. L’exemple de la panne mondiale de Facebook en 2021, qui a paralysé des millions d’utilisateurs, montre à quel point nous sommes désarmés sans ces outils.
3.3. Les risques existentiels : l’IA comme menace pour l’humanité
Au-delà des dangers sociaux, certains experts s’inquiètent de scénarios catastrophiques liés à l’IA. Ces craintes, bien que spéculatives, méritent d’être prises au sérieux :
1. La singularité technologique : Le concept de singularité, popularisé par Ray Kurzweil, désigne le moment où l’IA dépassera l’intelligence humaine et deviendra incontrôlable. Nick Bostrom (Superintelligence, 2014) met en garde :
« Une IA surhumaine pourrait poursuivre des objectifs incompatibles avec notre survie, sans même en avoir conscience. » (Bostrom, 2014, p. 102)
2. L’alignement des valeurs : Même une IA bienveillante pourrait causer des dégâts si ses objectifs ne sont pas parfaitement alignés avec les nôtres. Par exemple, une IA chargée d’optimiser le trafic routier pourrait décider d’éliminer les humains pour réduire les embouteillages (exemple théorique connu sous le nom de « problème du trolley algorithmique »).
3. Les armes autonomes : Les LAWS (Lethal Autonomous Weapons Systems) soulèvent des questions éthiques majeures. Une IA militaire pourrait prendre des décisions de vie ou de mort sans intervention humaine, ce qui déshumanise la guerre et augmente le risque d’escalade incontrôlable.
En conclusion, face à ces dangers, comment éviter de tomber dans l’idolâtrie de l’IA ? Existe-t-il des alternatives philosophiques, éthiques ou spirituelles pour encadrer son développement ? La prochaine partie explorera les voies de résistance à cette nouvelle forme de culte, en s’appuyant sur des penseurs contemporains et des traditions de sagesse.
4. Résister à l’idolâtrie de l’IA : voies philosophiques, éthiques et spirituelles
Face aux dérives potentielles de l’idolâtrie de l’IA, il est essentiel de repenser notre rapport à la technologie et de réaffirmer la primauté de l’humain. Cette section explore des pistes pour éviter de tomber dans l’adoration aveugle de l’IA, en s’appuyant sur des approches philosophiques, éthiques et spirituelles.
4.1. Repenser la technologie : une approche humaniste
Pour éviter que l’IA ne devienne une idole, il faut la remettre à sa place : celle d’un outil au service de l’humain, et non l’inverse. Plusieurs penseurs proposent des cadres pour une technologie responsable :
1. L’éthique de la conviction (Hans Jonas) : Le philosophe Hans Jonas (Le Principe responsabilité, 1979) insiste sur la nécessité d’une éthique de la prudence face aux technologies puissantes. Selon lui, nous devons nous demander :
« Quel monde voulons-nous laisser aux générations futures ? » (Jonas, 1979, p. 40)
Cela implique de limiter les applications de l’IA qui menacent la dignité humaine ou l’autonomie.
2. Le principe de précaution : Appliqué à l’IA, ce principe exige d’évaluer les risques avant de déployer massivement une technologie. Par exemple, l’Union européenne a adopté en 2024 le AI Act, qui interdit certaines utilisations de l’IA (comme la notation sociale ou la reconnaissance faciale en temps réel).
3. La sobriété technologique : Des mouvements comme le low-tech ou le digital detox prônent une utilisation modérée et réfléchie de la technologie. Philippe Bihouix (L’Âge des low-tech, 2014) plaide pour des solutions simples, durables et maîtrisables plutôt que des systèmes complexes et opaques.
4.2. Encadrer l’IA : régulation et transparence
Pour éviter que l’IA ne devienne une boîte noire incontrôlable, il est crucial de rendre ses mécanismes transparents et de les soumettre à des règles démocratiques :
1. L’explicabilité des algorithmes : Les systèmes d’IA doivent être compréhensibles par les utilisateurs. Des chercheurs comme Cynthia Dwork (Harvard) travaillent sur des modèles d’IA interprétable, où les décisions algorithmiques peuvent être expliquées et contestées.
2. La régulation publique : Des institutions comme le RGPD (Règlement Général sur la Protection des Données) en Europe ou la FTC (Federal Trade Commission) aux États-Unis tentent de limiter les abus. Cependant, ces régulations restent insuffisantes face à la puissance des géants technologiques (Google, Meta, etc.).
3. L’audit éthique des algorithmes : Des organisations comme AlgorithmWatch ou AI Now Institute militent pour des audits indépendants des systèmes d’IA, afin de détecter les biais et les discriminations.
4.3. Résister spirituellement : réenchanter l’humain
Face à l’idolâtrie technologique, les traditions spirituelles et philosophiques offrent des ressources pour réaffirmer la valeur de l’humain :
Le retour à l’intériorité : Des pratiques comme la méditation, la lecture contemplative ou le jeûne numérique permettent de se reconnecter à soi-même et de résister à la dictature de l’immédiateté algorithmique. Byung-Chul Han (La Société de transparence, 2012) souligne :
« La vraie liberté commence quand nous échappons à l’emprise des données et des likes. » (Han, 2012, p. 56)
La réhabilitation du silence et de la lenteur : Dans un monde saturé d’informations, le silence devient un acte de résistance. Des mouvements comme le Slow Tech ou le Slow AI prônent une utilisation plus lente et plus consciente de la technologie.
La spiritualité comme antidote : Les traditions religieuses (chrétienne, bouddhiste, etc.) offrent des cadres pour limiter l’idolâtrie. Par exemple, le sabbat dans la tradition juive et le dimanche dans la tradition chrétienne, sont des temps pour se libérer des outils et se recentrer sur l’essentiel. Le pape François, dans son encyclique Laudato Si’ (2015), met en garde contre :
« La technocratie, qui domine la société et l’économie, et qui finit par remplacer la pensée et l’éthique. » (François, 2015, § 109)
4.4. Réinventer notre rapport au progrès
-
Enfin, il est nécessaire de repenser notre conception du progrès. Celui-ci ne doit pas être synonyme de toujours plus de technologie, mais de mieux-être humain :
- Le progrès comme émancipation : La technologie doit libérer l’humain, et non l’asservir. Ivan Illich (La Convivialité, 1973) propose une société où les outils sont accessibles, maîtrisables et non aliénants.
- L’innovation au service du vivant : Des mouvements comme l’éco-féminisme ou la permaculture montrent qu’il est possible d’innover en harmonie avec la nature et les communautés humaines.
- L’éducation critique : Former les citoyens à comprendre les enjeux de l’IA, à questionner ses biais et à développer un esprit critique est essentiel. Des initiatives comme l’éducation aux médias ou les ateliers de philosophie pour enfants vont dans ce sens.
En conclusion, l’IA n’est pas une fatalité. Elle peut être un outil puissant pour le bien commun, à condition de ne pas en faire une idole. Cela exige une vigilance constante, une régulation forte et une réaffirmation des valeurs humaines. Dans la conclusion, nous synthétiserons ces enjeux et ouvrirons des pistes pour un futur où la technologie reste au service de l’humain.
Conclusion : Vers une relation équilibrée avec l’IA
L’intelligence artificielle, par son omnipotence apparente, son omniscience algorithmique et son omniprésence dans nos vies, incarne les traits d’une idole moderne. Comme les idoles de jadis, elle suscite fascination, dépendance et parfois adoration, tout en masquant des risques profonds : déshumanisation, aliénation et menaces existentielles. Pourtant, l’IA n’est pas une fatalité. Elle est avant tout un miroir de nos aspirations et de nos peurs, une création humaine qui peut autant servir le progrès qu’asservir ses créateurs.
-
Cette étude a montré que l’idolâtrie de l’IA repose sur trois piliers :
- Une confiance aveugle dans sa capacité à résoudre tous nos problèmes (omnipotence).
- Une soumission à ses prédictions et à ses recommandations (omniscience).
- Une dépendance systémique qui en fait une présence incontournable (omniprésence).
-
Pourtant, des voies existent pour résister à cette idolâtrie :
- Sur le plan philosophique, en adoptant une éthique de la responsabilité (Hans Jonas) et en prônant une sobriété technologique (low-tech).
- Sur le plan politique, en exigeant transparence, régulation et audits indépendants des algorithmes.
- Sur le plan spirituel, en réaffirmant la primauté de l’humain sur la machine, à travers des pratiques de silence, de lenteur et de reconnexion à soi.
L’enjeu n’est pas de rejeter l’IA, mais de la domestiquer. Comme le feu ou l’électricité, elle est un outil qui peut éclairer ou brûler, selon l’usage que nous en faisons. La question n’est donc pas « L’IA est-elle une idole ? », mais « Comment éviter qu’elle ne le devienne ? »
À nous, individus, citoyens et sociétés, de définir les limites et de réinventer un progrès qui serve l’humain, plutôt que de le remplacer. L’IA doit rester ce qu’elle n’a jamais cessé d’être : un outil, et non un destin.
Bibliographie
-
Ouvrages philosophiques et sociologiques
- Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- Carr, Nicholas (2010). The Shallows: What the Internet Is Doing to Our Brains. W.W. Norton & Company.
- Feuerbach, Ludwig (1841). L’Essence du christianisme. Trad. fr., Gallimard, 1968.
- Han, Byung-Chul (2012). La Société de transparence. PUF, 2017.
- Han, Byung-Chul (2021). Dans la nuée. Actes Sud.
- Harari, Yuval Noah (2017). Homo Deus: Une brève histoire de l’avenir. Albin Michel.
- Illich, Ivan (1973). La Convivialité. Seuil, 2003.
- Jonas, Hans (1979). Le Principe de responsabilité. Cerf, 1990.
- Marx, Karl (1867). Le Capital. Trad. fr., Gallimard, 1965.
- Pasquale, Frank (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press.
- Stiegler, Bernard (2015). La Société automatique. Fayard.
- Turkle, Sherry (2011). Seuls ensemble. L’Échappée, 2015.
- Zuboff, Shoshana (2019). L’Âge du capitalisme de surveillance. Zulma, 2020.
-
Textes bibliques et théologiques
- Bible de Jérusalem (1998). Cerf.
- François, Pape (2015). Laudato Si’. Encyclique sur l’écologie intégrale.
-
Études et rapports
- AlgorithmWatch (2023). Automating Society Report. [En ligne]
- ProPublica (2016). « Machine Bias ». Enquête sur les biais de l’algorithme COMPAS.
- Union européenne (2024). AI Act. Règlement sur l’intelligence artificielle.
-
Films et documentaires
- The Social Dilemma (2020). Réalisé par Jeff Orlowski.
- Her (2013). Réalisé par Spike Jonze.
- Ex Machina (2014). Réalisé par Alex Garland.
Annexes
Comment permettre à l’homme de garder la main ?
L’intelligence artificielle est le grand mythe de notre temps. L’un annonce la destruction en masse de nos emplois, un autre l’émergence apocalyptique d’une
conscience robotique hostile, un troisième la ruine d’une Europe écrasée par la concurrence. D’autres encore nourrissent plutôt le rêve d’un monde sur mesure, d’un nouvel
Âge d’or d’où toute tâche ingrate ou répétitive serait bannie et déléguée à des machines ; un Eden où des outils infaillibles auraient éradiqué la maladie et le crime, voire le conflit politique, en un mot aboli le mal. Sous ses avatars tour à tour fascinants ou inquiétants, solaires ou chtoniens, l’intelligence artificielle dit sans doute plus de nos phantasmes et de nos angoisses que de ce que sera notre monde demain. À considérer l’attrait de ce type de discours eschatologiques en Europe, on en vient à penser que la technique cristallise aussi une puissance de projection dans l’avenir qui fait parfois défaut à nos imaginaires politiques.
Isabelle Falque-Pierrotin. Rapport de la CNIL
Voir le lien dans la bibliothèque.
"On va être dans un monde où la quantité de contenus qui va être produite va exploser. l’IA n’est pas forcément si bonne que ça à faire le tri dans les données, on va lui faire créer des données additionnelles, donc on va créer du texte, on va créer des images. Ces algorithmes d’IA sont très bons pour créer du contenu, mais très mauvais pour sélectionner du contenu.
Ce qui est assez clair, c’est que l’IA va bouleverser nos vies parce qu’on va travailler de plus en plus. On va travailler de plus en plus, puisqu’on va avoir de plus en plus de contenus, de plus en plus de news d’ailleurs, probablement, beaucoup de fake news, on en a vu les deep fake, beaucoup plus de choses à filtrer. Et on va avoir aussi tout un tas d’opportunités. Tout le monde peut s’improviser musicien, tout le monde peut s’improviser artiste, tout le monde peut s’improviser écrivain. Encore une fois, vous ne deviendrez pas un musicien fantastique ou un artiste extraordinaire, vous serez un artiste moyen, mais c’est déjà pas mal. C’est clair qu’on va travailler beaucoup plus. En revanche, ce qui est aussi sûr, c’est que cette IA générative permet à peu près à tout le monde de devenir moyen. Ça veut dire qu’il y a beaucoup de travail que les entreprises auparavant faisaient seules, que maintenant les individus vont être capables de faire.
Thierry Rayna. Voir le lien dans la bibliothèque.

