
Mythe n° 1 — le mythe de l’intelligence.
L'humain peine encore à comprendre sa propre nature : conscience, raisonnement, intelligence émotionnelle et mentale... autant de domaines qui restent à élucider. Si notre compréhension de notre propre intelligence est encore imparfaite, comment pourrions-nous alors la programmer dans un algorithme ? L'avènement de l'IA nous pousse à réexaminer ces concepts, à questionner leur sens et notre compréhension.
Selon une définition générale, l'intelligence implique la faculté d'adaptation, la capacité à faire des choix, à adopter un certain comportement ou à poursuivre une intention. Or, à ce jour, l'intelligence artificielle ne possède pas ces capacités. Si on s'en tient simplement à une définition plus technique de l'intelligence, qui ressemblerait à celle de l'intel des anglos — le renseignement, l'information —, alors le « robot OpenAI » n'est pas plus intelligent qu'un moteur de recherche. Cependant, il est bien plus puissant mais il camoufle ses lacunes derrière une façade de certitude — ce que Gemini semble éviter.
Un avocat new-yorkais en a fait l'amère expérience en mai 2023. Préparant ses plaidoiries à partir de recherches légales effectuées par ChatGPT, il s'est rendu compte que la majorité des informations étaient purement inventées par le système. Pour vous en convaincre, faites un test : recherchez des informations sur un sujet qui vous est inconnu, vous serez probablement impressionnés. En revanche, sur un sujet que vous maîtrisez, le résultat pourrait bien vous faire rire.
Mythe n° 2 — le mythe de l’artificiel
Le Petit Robert nous rappelle que le mot « artificiel » a une multitude de sens. Artificiel veut dire « faux » (des fleurs artificielles), il veut dire « fait par l'humain et pas par la nature » (un lac artificiel), mais aussi « qui manque de naturel, forcé, exagéré » (une gaieté artificielle), mais aussi « arbitraire, qui ne tient pas compte des faits réels » (une classification artificielle), ou encore « non-humain » (une jambe artificielle). Or aujourd'hui, on considère uniquement l'intelligence artificielle comme étant non-humaine — et c'est vrai.
Histoire de la remettre à sa juste place, il convient de considérer l’intelligence artificielle au prisme de TOUTES les définitions de l’artificiel. Dès lors, il est tout aussi vrai qu'elle est fausse, faite par l'humain, elle manque de naturel, elle est arbitraire et elle échappe aux faits réels.
Évidemment que l'I.A. est impressionnante, elle peut générer une quantité d'information vertigineuse — et la formuler de manière crédible. Sa capacité à chercher, trouver et formuler rapidement donne une illusion d’intelligence, mais en aucun cas il s’agit d’arbitrage, d’opinion, ou de morale. Dès lors intelligence artificielle est un abus de langage. Il n’est pas question de conscience, mais bien de puissance — au sens technologique.
Mythe n° 3 — le mythe de l'autonomie (fonctionnelle)
L’intelligence artificielle repose (encore) sur la gestion de l’erreur. La machine dit « voici tel résultat, avec telle estimation de mon erreur. » Un humain doit alors évaluer la qualité de cette estimation (je simplifie, ok?) À force de rétroactions, la machine affine ses prédictions et elle devient meilleure.
C'est d'ailleurs la raison du rachat de l'entreprise reCaptcha — cette petite boîte qui vous demande sans arrêt de confirmer que vous êtes un humain — par Google en 2009. En quelques années, on est passés de « quels sont les caractères bizarres écrits ci-dessous? » à « cliquez sur les images de Street View où vous voyez un bus ». Ce changement s'est produit en 2012. Pourquoi? Parce que Google avait besoin de validation de masse. Elle devait vérifier la précision des prédictions de son algorithme. Sur les cases 1 à 9, l'algorithme estime avoir identifié un bus dans les images 2, 6 et 7, avec un taux de confiance — confidence score — de x% (je simplifie encore, hein!) C’est votre tour, à vous de déclarer où vous voyez un bus! Ce faisant, vous (un humain) validez simplement la prédiction d’une I.A., et vous améliorez sans le savoir un algorithme. Cette vérification, multipliée par des millions chaque jour, est une manne de main-d'œuvre gratuite au service d'une machine qui donne des airs d'autonomie.
Depuis le début de l'année dernière, ces images de Google Street ont été remplacées... par des images générées par de l'I.A. Encore une fois, c'est vous qui faites le boulot de valider ou corriger la machine.
Google n'a pas racheté reCaptcha pour sécuriser les sites web du monde entier, mais pour nous faire travailler gratuitement.

Mais ce n’est pas tout. Dans plusieurs pays du monde (Kenya, Madagascar, Inde, Venezuela, Argentine…) des ressources « humaines » sont employées à bas coût pour effectuer ce genre de tâches de validation (ou de censure), mais aussi pour nourrir les machines de leur savoir. Des jobs si mal payées qu’elle créent un Tiers Monde 2.0. Cette exportation du travail dégradant de l’I.A. est si massive que les experts la qualifient de « recolonisation ».✱
Pendant ce temps, nous regardons la locomotive, ébahis par le génie de la machine, ignorant tout de ceux qui la nourrissent de charbon, à la force de leur bras, au prix de leur sueur et parfois de leur sang.
Pour l’instant, l’intelligence artificielle a besoin de BEAUCOUP de ressources humaines pour avoir l’air… humaine.
Pour l’instant (la nuance est importante), l’intelligence artificielle n’a rien d’intelligent et tout d’artificiel.
Mythe n° 4 — le mythe de l’autonomie (d'apprentissage)
Le bon fonctionnement des I.A. génératives repose sur un accès à un volume de données immense qui repose elle-même sur... des connaissances humaines.
Des mathématiques mésopotamiennes à la relativité d’Einstein, de la sagesse de Lao Tseu à la poésie de Ferland, de Thalès à Henri Bergson, toute production de connaissance est un acte humain délibéré. Toute découverte, le fruit d’un labeur. Toute trouvaille, le résultat d’une quête obsédée. Toute création est la sueur d’une conscience, d’un effort, d’une maturation humaine. Dès lors, notre savoir, notre culture et nos croyances sont un magma de récits, de réflexions et de pensées millénaires, mûries au fil de notre lente évolution.
Ensuite, ces connaissance ont dû être collectées par des humains méticuleux. Tout fragment de savoir a été validé par des humains, trié, catégorisé, classé et indexé par des humains.
Ce corpus de connaissances a été rassemblé en grimoires, en ouvrages, en encyclopédies, en dictionnaires, en manifestes, en herbiers et cabinets de curiosités de toutes sortes, en bibliothèques et en collections muséales, puis finalement en serveurs informatiques. Tout cela a été le travail acharné et entêté d’humains décidés à partager le savoir.
De siècle en siècle, cette tâche a été facilitée par des techniques qui se sont additionnées. L’écriture (mésopotamienne), le papier (chinois), l’imprimerie (germanique), l’informatique puis l’internet ont été des accélérateurs puissants de cette conservation du savoir, et ces inventions ont été des actes créatifs humains délibérés.
Aujourd’hui l’I.A. repose sur des algorithmes créés par des humains — tout comme l’électricité, la physique, l’électronique, la logique et les mathématiques qui les ont rendus possibles.
La volonté même de voir une machine penser comme nous est humaine. Rien ne découle d’un désir « deus ex machina » (dieu sorti de la machine).
Mais soudain, le résultat sort de l’automate, et l’on crie au génie et à la magie, louant cette capacité soudaine des machines à « créer par elles-mêmes ».
L’époque croit dur comme fer que le lapin est vraiment sorti du chapeau sous le coup de la baguette magique.
Au risque de décevoir les croyants, les machines n’ont pas cette capacité de créer. Elles n’en ont ni la technique, ni le savoir-faire, ni le talent, ni l’intention, ni la volonté, ni le pouvoir. Elles ne font que suivre des ordres, qu’exécuter des commandes, que reproduire des mécanismes, pensés et enseignés par des humains.
Mais face aux prouesses des I.A., on oublie les fils de la marionnette et la main qui la contrôle. Mais où est passée notre fierté d’homo sapiens? Quel âge avons-nous pour croire aux magiciens?
Nous sommes encore TRÈS loin de l’Intelligence Artificielle Générale promise par OpenAI. Tout est humain dans l'intelligence artificielle.
Mythe n° 5 — le mythe de l’autonomie (créative)
GPT signifie Generative Pre-trained Transformer. Il s'agit pour l'I.A. de générer des contenus, au-delà de simplement les compiler. Générer du texte, des images, de la musique, en s'entraînant sur des masses importantes de données. Par exemple, après quelques commandes très simples auprès de MidJourney, Stable Diffusion ou Dall-e, l’ordinateur vous fait quelques propositions de « création ». C’est bluffant. Avec de l’entraînement, cela devient fascinant.
Mais ce n’est pas une création. C’est un collage malicieux d’images recherchées sur le net, dépouillées de leurs droits d’auteurs et savamment mélangées sans aucune autorisation, pour en créer une autre. Philosophiquement, le procédé se défend. L’artiste lui-même ne fait-il pas la même démarche d’inspiration et de collages dans son esprit?
Mais légalement c’est une autre histoire. En janvier 2023, GettyImage a poursuivi ces trois plateformes pour violation de droits d’auteur, après avoir retrouvé son propre logo dans des créations censées être originales. En retour, Emad Mostaque, le patron de Stable Diffusion a sèchement répondu sur Twitter « models and data for all », brandissant encore le mythe de l’open source. Voulait-il dire « from all »?
Mythe n° 6 — le mythe de l’autonomie (énergétique)
Saviez-vous que les abeilles sont capables de faire de la reconnaissance faciale avec un cerveau d'un millimètre cube? Elles savent même compter jusqu’à 8! En plus de ce miracle de miniaturisation, l'insecte fait tout cela sans intervention humaine, en totale autonomie énergétique — le tout en veillant à l'équilibre de notre agriculture, donc à notre survie.✱
Pour la même opération, un ordinateur a besoin d’une quantité astronomique d’énergie, sans compter l’impact environnemental écrasant de sa fabrication.
La prouesse de l’abeille, c’est de réaliser une tâche complexe avec très peu d’énergie.
La prouesse de l’humain, c’est la neuro plasticité : notre cerveau se reconfigure biologiquement sans cesse, pour effectuer des tâches complexes avec moins d’énergie. Réalisez à quel point tenir en équilibre sur un vélo est un miracle de complexité pour notre cerveau! Et pourtant, à force, nous le faisons sans même y penser!
Pour vous donner une image de la puissance du cerveau humain, une collaboration internationale entre chercheurs japonais (Riken et OIST) et allemands (Institute of Neuroscience and Medicine, Forschungszentrum Jülich) a effectué une simulation sans précédent de l'activité cérébrale humaine grâce au supercalculateur K de Fujitsu (TOP4 des plus puissants ordinateurs au monde en 2013, année de l’étude)
Ce super calculateur représente la puissance de 83.000 ordinateurs et la mémoire de 250.000 ordinateurs.
Alors combien de temps pour calculer 1 seconde de 1% d’un cerveau?! 40 minutes! Notre cerveau est un super calculateur d’une puissance infinie comparée à n’importe quelle I.A. du monde… et pour longtemps! Et nous faisons tout cela au prix minime de 2000 à 2500 calories par jour!✱
En passant, c’est à peu près (1800 cal.) l’énergie nécessaire à une ruche de 50 à 60.000 individus pour fonctionner quotidiennement en été.✱
Au final, la prouesse de l’I.A., c’est de… faire quelque chose à notre place. Ok, mais à quel prix? Pour quels impacts? ChatGPT a lui seul mobilise 3617 serveurs, et un total de 28936 processeurs graphiques (GPU). D’après SemiAnalysis (2023), cet arsenal consomme à peu près 564 MWh par jour. C’est plus que la production journalière d’Hydro-Québec en 2022, avec 554 MWh.✱
J'ai posé la question à ChatGPT de son impact sur l'environnement. La réponse est sans équivoque et prouve le manque total de conscience : « c'est pas moi, ce sont mes serveurs » — traduire « j'en n'ai rien à foutre! ».

Mythe n° 7 — le mythe de l’éthique (démocratique)
Concrètement, la recherche en intelligence artificielle est principalement ❶ privée, ❷ masculine... ❸ blanche.
Il faut constater avec prudence plusieurs échecs de l'I.A. sur le plan de la démocratie — dans le sens du pouvoir et de la représentativité du peuple, bien que la démocratie fut elle-même un mythe, dès son berceau à Athènes (sujet pour lequel je vous redirigerais vers l’historien Patrice Brun)
Commençons par quelques exemples.
D'abord celui de la reconnaissance faciale chez les personnes noires, pour qui le risque d'erreur est multiplié par 100, ce qui a été dénoncé par Amnesty Internationale.
Ensuite, l'objectification de la femme, permise par les outils de création d'images, qui facilitent la surproduction d'images sursexualisées. Dernier exemple concret : les deep-fakes pornographiques de la chanteuse Taylor Swift ont été vus 47 millions de fois avant d’être stoppées… 17 heures plus tard par la plateforme de l’uuuuultra libéral Elon Musk, laissant amplement le temps à la bulle conservatrice américaine de s’enflammer contre la chanteuse.
Ensuite, la perpétuation des biais, comme dans le cas d'Amazon, qui avait mis en place un système de recrutement automatisé en 2014. Le but : recruter les meilleurs CV en se basant sur leurs données historiques. Résultat? La machine a proposé... des hommes blancs en grande majorité, perpétuant les bonnes vieilles habitudes de recrutement du groupe.
Enfin, le biais scandaleux de l'algorithme COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) utilisé présentement dans le système judiciaire américain. L’idée? Prédire la probabilité de récidive d'un délinquant. Or, le modèle a prédit deux fois plus de faux positifs chez les délinquants noirs (45 %) que les délinquants blancs (23 %). On est carrément dans un Minority Report buggé!
Ce sont des hommes blancs et riches qui programment les machines. Et, même voulant bien faire, ils se prennent les doigts dans les curseurs de la diversité.
La semaine dernière, un épisode d’hallucination de Gemini a créé l’émois. Quelle que soit la demande de génération d’images faite à la nouvelle I.A. de Google, tous les résultats représentaient des personnes noires ou asiatiques : Vikings, autochtones ou nazis. L’incident n’a pas échappé à l’uuuuultra libéral Elon Musk, qui en a profité pour pointer le woksime des modèles d’I.A. existantes. Ben tiens…
On voit bien le lien ténu entre ces nouveaux outils technologiques et la récupération politique. Oui, l'I.A. est une promesse de progrès… à condition que vous soyez un homme blanc riche. Dans les faits, elle n'est pour l’instant qu'une machine à exacerber les discriminations, qu’un accélérateur de problèmes sociétaux, qu’un générateur de commotions politiques inutiles.
Et ce n'est pas vraiment la définition du progrès.
Mythe n° 8 — le mythe de l'éthique (d’usage)
Quand viendra le temps de prendre position, ou de prendre des décisions importantes, comment l’IA va-t-elle raisonner? Admettons que nous lui demandions son avis sur la peine de mort, le port d’arme, ou plus simplement l’application d’une loi, l’interprétation d’une consigne? Comment va-t-elle pouvoir répondre?
Prenons l’exemple du port d’arme. Comment décider? En prenant en compte le point de vue des deux camps? De la moyenne de la population? De l’opinion supposée du demandeur? De son créateur? Va-t-elle prendre en considération des motifs culturels, historiques ou religieux? Va-t-elle miser sur le principe du meilleur (Leibniz), individuel ou collectif?
J’ai fait le test et la réponse est décevante : c’est la première option qui a été retenue lors de mon test avec ChatGPT 4. La machine présente une litanie de nuances et de subtilités, sans jamais prendre parti. (Faites le test vous-mêmes sur le sujet polarisant de votre choix).
Mais alors… à quoi sert une intelligence… si elle ne peut décider de rien? Les humains font ça tous les jours! Utiliser leur intelligence, leur sensibilité, leur morale, leurs intentions, leurs intuitions, leurs connaissances historiques ou juridiques, leur conscience des répercutions sur la société, etc, etc.
L'intelligence consiste justement à prendre une décision, en fonction de l'époque, des circonstances, d'une vision de société, des défis économiques ou légaux... mais aussi en fonction de nos principes moraux, de nos intentions, de nos croyances, de nos intuitions. C'est précisément ça, l'intelligence!
Quand bien même... Si les humains eux-mêmes (les vrais) ne s’entendent pas sur des questions aussi vitales que l'égalité, le droit à disposer de son corps, l’environnement ou la liberté d’expression... Si les humains n’arrivent toujours pas à s’entendre unanimement sur des questions aussi évidentes, aussi basiques, aussi universelles… Alors quelle urgence de demander aux machines d’être intelligentes à notre place?
Comment va-t-on encoder les machines? Qui va le faire? Avec quelle régulation?
Nous avons déjà la réponse : Facebook, X et autre Cambridge Analytica nous ont démontré que la régulation ne dépend que d'un seul critère : le cash.
Mythe n° 9 — le mythe de l’open source
OpenAI est née d’un idéal bien campé : que l’avenir de l’AI ne soit jamais dans les mains de « quelques uns », que sa conception soit ouverte à tous les chercheurs et que sa distribution soit gratuite. Le rêve… n’a duré que quelques mois.
Depuis GP4 (et l'entente entre OpenAI et Microsoft), l'orientation « open » d'OpenAI ne tient plus debout. Open IA est une promesse brisée d'un bout à l'autre de la chaîne de fabrication :
❶ À l'entrée de cette machine, les capacités d'analyse d'OpenAI reposent principalement sur la disponibilité de documents, images, et textes présents sur le web — le plus souvent au détriment des droits d'auteur (voir mythe n°5).
❷ À l’intérieur, les modèles sont devenus une boîte noire, à l’abri des regards de chercheurs qui avaient participé à sa conception et ses premiers pas. Ce n’est plus un projet ouvert et collectif.
❸ À la sortie, le fait que l'outil soit devenu payant n'assure plus une accessibilité universelle.
Pour récapituler, l'I.A. d'Open IA est un processus opaque où les sources ne sont pas sûres, où le fonctionnement est secret, et où l'utilisation n'est plus universelle, contrairement aux belles promesses de ses débuts.
En France, un espoir semblait apparaître sous les traits de Mistral AI, une startup qui avait présenté un modèle « partiellement ouvert », et qui se présentait comme un concurrent redoutable à Open AI et Gemini (sur le plan des performances).
La jeune entreprise avait levé 385 millions d’euros — principalement de fonds américains. Mais en début de semaine, la jeune entreprise vient d’annoncer une entente avec… Microsoft. 😔
Mythe n° 10 — le mythe de l'utilité immédiate réelle
L'utilité de l'I.A. dans la course à la productivité n'est pas contestable pour certaines entreprises. C'est un bouleversement aussi évident que l'invention d'Internet ou des moteurs de recherche dans leur temps. Or il s'agit d'un produit hautement expérimental, avec son lot d'inexactitudes et des délires — qu'on appelle des hallucinations en langage technique. Ces hallucinations sont la bête noire des acteurs de la tech. Microsoft et son Gemini qui générait des « vikings noirs » en a fait les frais fracassants la semaine dernière, fragilisant au passage la confiance des marchés financiers — la firme a perdu 96 Millards USD en quelques jours.
Alors, danger ou opportunité?
Ce paradoxe me place moi-même dans un état de « schizophrénie stratégique » permanent…
L’attention et la supervision nécessaires demandent un temps humain conséquent, qu’il convient de ne pas sous estimer quand vient le temps d’évaluer l’utilisation réelle de tels outils dans votre organisation.
Mais ce statut « beta » permet aux startups — mais aussi à des firmes comme la mienne — d'introduire sur le marché de nouvelles offres et de nouvelles promesses.
Pour être plus clair — et plus brutal — l’I.A. est un produit EXPÉRIMENTAL, à ce titre, IL NE FONCTIONNE PAS ENCORE PARFAITEMENT, il n'est PAS TERMINÉ! — il suffit de l’utiliser chaque jour pour s’en rendre compte.
Mais si la prudence est de mise, l’expérimentation l’est d’autant plus, car elle vous permettra de vous faire votre propre idée. Selon votre organisation, votre industrie, votre cadre réglementaire, etc. vous avez le DEVOIR d’essayer, de tester, de jouer avec, d’implanter de nouvelles pratiques, au moins pour en découvrir les limites.
« Mais, mais, mais, mais ». Chez Perrier Jablonski ce sont des débats quasi quotidiens.
Pour d'autres, il s'agit d'un apparat marketing, qui permet de se différentier à peu de frais. Cette course à la concurrence touche autant les organisations que les employés, qui — avec peu d'effort — peuvent se targuer de connaissances nouvelles et de capacités redoublées. Il faut absolument entendre les arguments de Philippe Guillemant, docteur en physique au CNRS à ce sujet. Il mène notamment des cherches sur l’intelligence et ne mâche pas ses mots contre l’I.A. C’est aussi passionnant qu’alarmiste, mais c’est à prendre en compte.✱
C’est justement cette course d'ego qui finance OpenAI aujourd'hui. Un abonnement pro ne coûte que 30 USD par mois, et cette accessibilité a fait exploser le taux d'adoption de la technologie — une pratique commerciale courante pour devenir un standard rapidement.
Dans le fond, le succès récent d'OpenAI repose surtout sur notre besoin de nous démarquer — comme le succès de Facebook a reposé sur le besoin de nous faire connaître.
Reste à équilibrer nos attentes… et nos préoccupations.
Mythe n° 11 — le mythe de la singularité
C'est le fantasme de Raymond Kurzeill — ex-Google, grand guru du transhumanisme, véritable icône techno, et patron d'une école dédiée à la singularité. Son influence auprès de la nouvelle génération de leaders techno-californiens est écrasante.
La singularité, c'est le moment où l'intelligence artificielle va rejoindre l'intelligence humaine — on l'appelle aussi AGI (Artificial General Intelligence). ChatGPT se présente déjà comme une avancée sérieuse vers cette singularité et OpenAI est obsédé par l'AGI.
Or, à moins que la machine puisse se reproduire, se créer toute seule, évoluer tout au long de sa vie sur le plan physique, découvrir le monde… tout cela sans assistance humaine dirigée, mais simplement grâce aux interactions avec ses pairs ; si elle est capable de candeur, de curiosité ou de croyance, de cultiver, transformer, ingérer puis digérer une nourriture suffisante à produire l'énergie dont elle a besoin pour fonctionner... alors cette machine demeurera loin de la singularité, car elle ne croit pas, veut pas, elle ne désire pas, elle n’est triste ni gaie, ni naïve, ni candide, elle ne regrette pas d’être née, ou n’a pas peur de mourir — des conditions bien utile pour qui a des idées.
Alors qu'un ordinateur n'a ni conscience, ni créativité, ni intention, ni libre arbitre, ni capacité de fonctionner sans instructions humaines, Kurzeill et ses troupes se rêve en fée bleue, accordant le statut de petit garçon à un Pinnochio menteur et manipulateur.
Mythe n° 12 — le mythe de la fin du monde
Dans le monde merveilleux de la Silicon Valley, iIl existe trois niveaux d'intelligence artificielle. L'I.A. faible (ANI, pour Artificial Narrow Intelligence), qui ne sait faire qu'une seule tâche, l'I.A. Générale (AGI) qui aurait les capacités d'une intelligence humaine — aussi appelée la singularité), enfin la Super IA (ASI), la mise en réseaux de toutes les AGI, qui annoncerait deux scénarios : la vie éternelle... ou la fin du monde…✱
Or, ces suppositions sont totalement arbitraires — artificielles, donc. Alors pourquoi les concepteurs d'OpenAI eux-mêmes crient au loup, au danger, à la prudence? Parce qu'ils veulent nous faire croire qu'ils ont dans les mains une bête à dompter, donc une responsabilité, donc un pouvoir.✱
Ce stratagème rappelle celui de la menace atomique : « j'ai dans les mains la possibilité de détruire le monde, alors tu vas m'écouter. » Sauf que cette fois-ci, ce pouvoir n'est pas dans les mains d'un gouvernement, mais d'une entreprise privée — d'un seul homme, même. Et ça marche! Sam Altmann est invité par les plus grands décideurs et les gouvernements, qui ne veulent pas manquer le bateau. Il est désormais parti à la pêche aux financements, avec un objectif audacieux : 7 trillions de dollars. Sept mille milliards de dollars. C'est plus que le budget américain total. Alors… où est-il parti chercher cet argent? Auprès des Émirats arabes unis, en quête d'un moyen de pression géopolitique « post-fossile ».✱
C'est l'aboutissement du rêve libertaire (ultra-ultra libéral) promu par les anciens fondateurs de PayPal, Peter Thiel et Elon Musk, les papas idéologiques de Sam Altmann, qui veulent aujourd’hui se partager l’avenir du monde et régner sur nos esprits.
Fait cocasse ❶, la plateforme Truth Social de Donald Trump a largement bénéficié du support (technique et publicitaire) de la plateforme Rumble, financée par Peter Thiel.✱
Fait cocasse ❷, Elon Musk, qui avait quitté le navire d'OpenAI a annoncé l'an dernier la création de Truth GPT.✱
Le duel Petier Thiel VS Elon Musk continue. Truth Social VS TruthGPT. Truth VS Truth, ou la vérité comme marque de commerce.
L’enjeu n’est plus économique, il est politique. Pire encore, il est philosophique. Thiel, Musk et Altman ne se satisferont pas de leur pactole sonnant et trébuchant, ils veulent dominer. Ils veulent régner. Ils veulent contrôler.
Mauvaise nouvelle : ils sont assez intelligents pour le faire.
Une tentative de conclusion.
Les automates ont toujours été fascinants et ils le sont encore. Le philosophe Archytas avait fabriqué le premier automate de l'histoire, un oiseau mécanique, au IVe siècle avant J.-C. Le mathématicien Héron d'Alexandrie avait fabriqué plusieurs automates hydrauliques dans le premier siècle après J.-C. Léonard de Vinci avait conçu un chevalier mécanique, et Descartes s'était bricolé Francine, une enfant-automate après le décès de sa fille. Le Turc mécanique de Von Kempelen jouait aux échecs au XVIIIe siècle, alors que le canard mécanique de Jacques de Vaucanson semblait manger et digérer de la nourriture.
Les automates frappent notre imaginaire et nous questionnent sur notre propre nature, nos habiletés, nos capacités, notre créativité, mais aussi sur nos intentions, notre morale ou notre éthique. Bref... sur notre singularité — celle qui rend les humains si singuliers. Depuis, les gurus de l’informatique n’ont de cesse de piller le vocabulaire de l’humain pour donner des airs de petit garçon à leur Pinocchio. Intelligence, réseau de neurones, singularité, etc. Ironie supplémentaire, Google a choisi « Gemini » pour baptiser son robot. Dans la fable de Carlo Collodi, Jeminy est la conscience de Pinocchio.
Aujourd'hui, les mains qui dirigent ce bout de bois surdoué ont des intentions douteuses. En public médusé, nous sommes en train de croire au ventriloque, et les fils de nylon se dissipent. Or ils sont bien présents. La marionnette de l'I.A. est dépourvue de ce qui fait notre intelligence.
Des capacités tout à fait mystérieuses pour nous, encore aujourd'hui. L'humain est un miracle, et l'I.A. est un automate et la puissance de ce dernier le rend arrogant et sûr de lui — les seuls traits humains dont il ait réellement hérité jusqu'alors.
Pour conclure cette réflexion, je vais convoquer John McCarty lui-même — de la bande de Dartmouth, qui a jeté les bases de l'intelligence artificielle après la Deuxième Guerre mondiale. C'est lui qui a inventé le terme Artificial Intelligence en 1956, pendant l'atelier d'été. Un peu plus tard, il va faire une déclaration qui explique bien des choses : « As soon as it works, no one calls it AI anymore ». Dès que ça fonctionne, on n'appelle plus ça de l'intelligence artificielle.
Et c'est vrai! Un ordinateur, un téléphone, une montre, une télévision, un réveil-matin, un haut-parleur, un grille-pain ou un distributeur de bouffe pour chat... tout cela relève de l'intelligence artificielle, mais puisque ça fonctionne, on appelle ça autrement.
Et c'est un signal à repérer dans le discours des marchands du temple. Dès que vous entendez les mots « intelligence artificielle », c'est que... bah ça ne marche peut-être pas encore...
Ce qu'il faut retenir
L'intelligence artificielle est le résultat de 70 années de recherches et d'essais-erreur. Aujourd'hui, ce pantin dépendant des humains se prend pour un petit garçon. Il est maladroit, mal élevé, approximatif et arrogant, et tel Pinocchio, il a besoin d'une conscience externe pour le mener sur le droit chemin. C'est à nous de jouer ce rôle, et de ne pas nous laisser berner par les écrans de fumées produits par une Silicon Valley en quête de parts de marché sur l'avenir de l'humanité. Outil supruissant pour accélérer le progrès? Certainement. Singularité qui mimerait la conscience, l'intention, l'émotion, ou le libre arbitre? Nous en sommes encore bien loin. Ce Pinocchio mérite notre attention autant qu'il mérite une éducation fiable, et peut-être une fessée de temps en temps...
Ce qu'il faut retenir
blablabl
Gaëtan est le fondateur de Perrier Jablonski. Créatif, codeur et stratège, il est aussi enseignant à HEC (marque-média), à l'École des Dirigeants et à l'École des Dirigeants des Premières Nations (pitch, argumentation). Certifié par le MIT en Design Thinking et en intelligence artificielle, il étudie l'histoire des sciences, la philosophie, la rhétorique et les processus créatifs. Il est l’auteur de deux essais et de plus de 150 articles sur tous ces sujets. Perrier Jablonski est une firme stratégique unique en son genre : à mi-chemin entre la recherche et la stratégie, nous sommes habitués à résoudre des problèmes complexes en faisant notre propre recherche anthropologique. La co-création, la technologie et l'I.A. sont intégrés à tous nos processus pour livrer les recommandations stratégiques les plus réalistes et les plus ambitieuses. En près de 10 ans, nous avons mené plus de 400 missions, dirigé plus de 2000 entrevues, et formé plus de 16 000 personnes pour près de 180 clients.
subject
Bibliographie et références de l'article
L'I.A. a pu contribuer à cet article. Voyez comment.
- Nous utilisons parfois des outils de LLM (Large Language Models) tels que Chat GPT, Claude 3, ou encore Sonar, lors de nos recherches.
- Nous pouvons utiliser les outils de LLM dans la structuration de certains exemples
- Nous pouvons utiliser l'IA d'Antidote pour la correction ou la reformulation de certaines phrases.
- ChatGPT est parfois utilisé pour évaluer la qualité d'un article (complexité, crédibilité des sources, structure, style, etc.)
- Cette utilisation est toujours supervisée par l'auteur.
- Cette utilisation est toujours éthique :
- Elle est transparente (vous êtes prévenus en ce moment-même),
- Elle est respectueuse des droits d'auteurs — nos modèles sont entraînés sur nos propres contenus, et tournent en local lorsque possible et/ou nécessaire.