Partager cet article
« J’ai infiltré la résistance des élites face à l’IA », par votre correspondant Gonzo, quelque part entre une conférence académique prétentieuse et une start-up de la Silicon Valley, sous l’effet de trois expressos et d’une overdose de jargon techno-philosophique. Où comment Frédéric Arnaud-Meyer, expert en communication digitale et explorateur d’histoires, se fâche contre les donneurs de leçons sur les risques de l’Intelligence Artificielle.
Jour 1 : dans l’antre des dinosaures académiques
Il est 9 heures du matin et je suis déjà au bord de la crise de nerfs. Assis au dernier rang d’un amphithéâtre surchauffé de La Sorbonne, je contemple cette assemblée de crânes dégarnis et de costumes élimés qui constituent l’élite intellectuelle française en pleine crise existentielle. Le colloque s’intitule pompeusement « L’intelligence artificielle : enjeux épistémologiques et ontologiques » – comprendre « Comment sauver nos jobs de penseurs professionnels maintenant que ChatGPT écrit mieux que nos doctorants ».
Je ne devrais pas être ici. Mon badge indique « Dr. Jean-Michel Latour, chercheur associé en philosophie computationnelle », une identité aussi fictive que les prétendues limites infranchissables de l’IA dont ces gens tentent désespérément de se convaincre. Ma vraie mission ? Infiltrer cette secte d’universitaires paniqués pour comprendre comment les anciens maîtres du savoir réagissent quand leurs châteaux de cartes s’effondrent.
L’orateur actuel, un professeur émérite à la barbe aussi blanche que ses privilèges, martèle son pupitre : « L’IA ne comprend RIEN ! Elle n’a PAS d’INTENTIONNALITÉ ! » Sa voix tremble légèrement, trahissant l’angoisse qui suinte sous le vernis académique. Je le comprends – son dernier livre, fruit de vingt années de recherche, a été résumé et amélioré par GPT-4 en 47 secondes hier soir dans ma chambre d’hôtel, entre deux verres de whisky bas de gamme.
À la pause-café, je me faufile entre les groupes. Une jeune doctorante en philosophie confie à voix basse : « J’ai utilisé Claude pour rédiger mon dernier article. Mon directeur l’a trouvé brillant. » Elle rit nerveusement. « Six ans d’études supérieures, et une machine fait mon boulot en trois minutes. »
Un professeur plus âgé l’interrompt : « C’est de la fraude intellectuelle ! Ces machines ne font que plagier nos travaux ! » Ce qu’il ne dit pas, c’est qu’il vient de perdre une subvention de recherche face à une équipe utilisant l’IA pour accélérer leurs publications. La peur a une odeur particulière dans ces couloirs feutrés – celle de l’encre séchée et des privilèges moisis.
Jour 2 : les gardiens du temple en panique
Ce matin, j’ai assisté à une réunion privée de doyens d’université. Officiellement, j’y étais invité pour présenter une étude sur l’éthique de l’IA dans l’éducation. En réalité, j’ai bidouillé cette invitation en utilisant – ironiquement – DALL-E et Photoshop pour falsifier mon accréditation. Le snobisme de ces milieux a fait le reste : personne ne vérifie vraiment qui vous êtes tant que vous maîtrisez le jargon et portez une veste en tweed avec des coudières.
La discussion tourne rapidement à la stratégie de survie. Un doyen aux allures de hibou déplumé s’exclame : « Nous devons durcir les sanctions contre l’utilisation de l’IA dans les travaux académiques ! » Un autre renchérit : « Rendons obligatoires les examens sur table, surveillés physiquement ! »
Je ne peux m’empêcher d’intervenir : « Mais n’est-ce pas comme interdire les calculatrices pour sauver les experts en boulier ? » Un silence glacial envahit la salle. Vingt paires d’yeux me fixent comme si j’avais suggéré de transformer leurs bibliothèques en discothèques.
« Vous ne comprenez pas l’enjeu », me répond lentement le plus ancien d’entre eux. « Si n’importe qui peut accéder instantanément à l’équivalent de décennies d’expertise… à quoi servons-nous ? »
Cette phrase résonne comme un aveu involontaire. Dans leurs regards, je lis soudain la vérité nue : ce n’est pas la qualité du savoir qu’ils défendent, mais leur position de gatekeepers de ce savoir. Leur peur n’est pas que l’IA dise des bêtises – leur peur est qu’elle dise des choses intelligentes sans avoir besoin de leur bénédiction.
Je quitte la réunion précocement, prétextant un appel urgent. En réalité, je commence à me sentir mal à l’aise dans mon rôle d’imposteur – paradoxalement, parmi tous ces « vrais experts », je suis probablement le seul à ne pas jouer un rôle.
Jour 3 : l’hypocrisie des prophètes de malheur
J’ai infiltré aujourd’hui une conférence de presse où trois éminents chercheurs en IA présentaient un « manifeste pour une intelligence artificielle responsable ». Un document de 200 pages qui, sans surprise, recommande que le développement des IA les plus avancées reste exclusivement entre les mains des… chercheurs comme eux.
Le plus surréaliste ? L’un d’eux, que nous appellerons Professeur Duplicité, s’est fait connaître il y a deux ans en clamant que l’IA ne pourrait jamais atteindre un niveau de raisonnement complexe. Aujourd’hui, il nous explique avec la même assurance que cette même IA représente une menace existentielle nécessitant un contrôle strict – par des experts comme lui.
Pendant la séance de questions, je me lève, légèrement éméché après avoir vidé la flasque de bourbon dans ma poche intérieure : « Professeur, comment expliquez-vous votre virage à 180 degrés ? Est-ce parce que vous avez réalisé que vous vous trompiez, ou parce que la peur vend mieux que le mépris ? »
Son visage se décompose, puis se recompose en un masque de condescendance académique : « La science évolue, jeune homme. Nos positions doivent suivre les données. »
Ce qu’il ne dit pas, c’est que son laboratoire vient de recevoir un financement de 20 millions d’euros pour étudier les « risques catastrophiques » de l’IA. La peur est devenue une industrie lucrative pour ceux qui ont perdu la bataille du progrès.
En sortant, je croise une jeune chercheuse qui me glisse sa carte : « Vous avez raison, mais on ne peut pas le dire publiquement. Venez à notre labo un jour. On utilise l’IA pour démocratiser la recherche, pas pour la restreindre. » Je range sa carte. Premier signe d’espoir depuis trois jours.

Jour 4 : l’expérience interdite – j’ai donné un PhD à ma concierge
Pour tester la théorie du « PhD pour tous », j’ai décidé de mener une expérience que l’éthique académique condamnerait certainement : j’ai recruté Madame Martine, la concierge de mon immeuble, 62 ans, titulaire d’un certificat d’études, comme cobaye.
« Vous voulez que je fasse quoi ? » m’a-t-elle demandé, méfiante, quand je lui ai proposé 200 euros pour passer une journée à explorer un domaine académique de son choix avec l’aide de l’IA.
« Choisissez un sujet qui vous intéresse mais que vous trouvez trop complexe, et voyons ce que vous pouvez en apprendre en quelques heures. »
Elle a réfléchi puis lancé : « La physique quantique. Mon petit-fils en parle tout le temps, mais je n’y comprends rien. »
Pendant six heures, dans mon appartement transformé en laboratoire social improvisé, j’ai guidé Madame Martine à travers une série d’interactions avec Claude, GPT-4, et divers outils éducatifs basés sur l’IA. Nous avons commencé par les bases, puis progressivement exploré des concepts plus complexes, l’IA adaptant ses explications en fonction de ses questions et de sa compréhension.
Le résultat m’a laissé sans voix. À la fin de la journée, Madame Martine pouvait non seulement expliquer clairement le principe de superposition quantique, mais elle avait développé une intuition personnelle fascinante sur les implications philosophiques de l’intrication quantique – une perspective que je n’avais jamais entendue dans mes années à fréquenter des physiciens.
« C’est comme les relations humaines, » m’expliqua-t-elle avec une simplicité désarmante. « Deux personnes qui ont été vraiment proches restent connectées d’une certaine façon, même quand elles sont séparées par des océans. »
Quand je lui ai demandé ce qu’elle pensait de l’expérience, sa réponse m’a frappé : « C’est la première fois qu’on m’explique quelque chose sans me faire sentir bête. La machine ne s’impatiente pas, elle ne juge pas. Elle recommence différemment jusqu’à ce que je comprenne. »
Cette phrase contenait peut-être la clé de l’obscurantisme que je traquais : ce n’était pas seulement le savoir que les élites intellectuelles gardaient jalousement, mais aussi la validation sociale qui vient avec la compréhension. L’IA démocratise non seulement l’accès à l’information, mais aussi la dignité d’apprendre sans humiliation.
Jour 5 : confrontation finale au club des intellos
Pour ma dernière soirée d’investigation, j’ai réussi à me faire inviter au Cercle Littéraire de Saint-Germain, un de ces clubs privés où l’élite intellectuelle parisienne vient se convaincre de sa propre importance tout en sirotant des cocktails hors de prix.
Au milieu des conversations sur le dernier Goncourt et des débats sur Proust, j’ai lâché ma bombe : j’ai sorti mon téléphone et montré à un petit groupe la vidéo que j’avais enregistrée de Madame Martine expliquant l’intrication quantique.
Un silence consterné s’est abattu sur le cercle d’intellectuels.
« C’est… intéressant comme vulgarisation, » a finalement commenté un physicien théoricien de renom, un brin crispé. « Mais bien sûr, elle ne comprend pas vraiment les mathématiques sous-jacentes. »
« Et vous, les comprenez-vous vraiment ? » ai-je répliqué. « Ou avez-vous simplement mémorisé les formules nécessaires pour paraître compétent dans votre domaine ultra-spécialisé ? »
L’atmosphère s’est tendue. Une romancière célèbre, Académicienne française probablement plus connue pour ses apparitions télévisées que pour ses livres que personne ne lit, s’est penchée vers moi :
« Jeune homme, vous confondez information et connaissance. Ce n’est pas parce qu’une… concierge peut réciter quelques concepts qu’elle possède la profondeur nécessaire pour… »
Je l’ai coupée : « Et qui définit cette ‘profondeur nécessaire’ ? N’est-ce pas précisément le problème ? Vous avez créé un système où l’accès au savoir est moins important que les rituels d’appartenance qui l’entourent. »
À ce stade, j’ai remarqué que plusieurs personnes commençaient à me fixer avec suspicion. Mon accent « Normale Sup » fabriqué commençait à se fissurer sous l’effet du whisky et de l’indignation. Il était temps de partir.
En quittant la soirée, un jeune homme m’a rattrapé sur le trottoir : « Vous avez raison, mais vous ne gagnerez pas cette bataille frontalement. Les institutions ne cèderont pas leur pouvoir de certification si facilement. »
« Alors quoi ? » ai-je demandé.
Son sourire était à la fois triste et malicieux : « On contourne. On crée des systèmes parallèles. L’ancien monde mourra de sa propre obsolescence pendant que nous construirons le nouveau. »
Épilogue : le véritable obscurantisme
Je termine ce reportage dans un train de nuit, quelque part entre Paris et Marseille. Cinq jours d’immersion dans cette guerre froide intellectuelle m’ont laissé avec une conclusion aussi claire que dérangeante : nous assistons à un obscurantisme d’un genre nouveau.
Contrairement à l’obscurantisme historique qui cherchait à maintenir les masses dans l’ignorance, cette version 2.0 est plus subtile et perverse : elle ne nie pas l’accès à l’information (impossible à l’ère numérique), mais elle tente désespérément de maintenir le monopole sur la validation de cette information.
Ce que craignent ces élites n’est pas une « IA dangereuse » – c’est une IA trop accessible, trop démocratique, qui permet à Madame Martine de comprendre la physique quantique sans passer par vingt ans de formatage académique et d’accumulation de dettes étudiantes.
Le véritable obscurantisme moderne consiste à transformer des outils d’émancipation intellectuelle en dangers hypothétiques, à ériger des barrières éthiques là où se cachent en réalité des intérêts corporatistes, et à maintenir l’illusion que la pensée critique nécessite un tampon institutionnel.
J’ai commencé cette enquête en pensant débusquer des intellectuels arrogants défendant leurs privilèges. J’ai découvert quelque chose de plus triste : des humains terrifiés face à l’obsolescence de leur identité sociale. Des experts dont l’expertise n’est plus exclusive. Des gardiens de temples désertés par les fidèles.
La super-intelligence des IA n’est pas un problème en soi – c’est sa banalisation qui provoque ce séisme social. Quand un « PhD pour tous » devient techniquement possible, la question n’est plus « qui a accès au savoir ? », mais « qui définit ce qui mérite d’être su ? ».
Et c’est précisément cette question que les anciennes élites intellectuelles refusent d’abandonner au débat démocratique.
En attendant, Madame Martine m’a envoyé un message ce matin : elle s’est inscrite à un MOOC de physique avancée et utilise Claude pour l’aider avec les concepts difficiles. Elle a également commencé à expliquer la physique quantique à son club de bridge.