Intelligence artificielle, une histoires de vagues.

Intelligence artificielle, une histoires de vagues.

Gaëtan Namouric
C’est l’histoire d’un morceau de bois qui se prenait pour un petit garçon, sous les yeux ébahis de son concepteur. Menteur et sûr de lui, il avait besoin d'une conscience extérieure. C’est l’histoire de Pinocchio, et aussi celle d’OpenAI. Le réalisme bluffant des nouvelles I.A. brouille les pistes davantage, et il est urgent de briser les douze mythes qui nous aveuglent.
31
/
03
/
24
,
image
Gaëtan Namouric + MidJourney (V5.2)

Acte I — dans le ventre d'une baleine

Nous sommes en 1883 en Italie, et Carlo Collodi invente une histoire, celle de Geppetto. Un soir, le vieux menuisier transforme un morceau de bois magique en une marionnette, qui prend vie et se présente comme Pinocchio. Geppetto se prend d'affection pour Pinocchio et l'aime comme son propre fils... mais le jeune pantin est désobéissant et insouciant. De mauvais choix en mensonges, le petit se retrouve dans toutes sortes d'histoires, qui l'obligent à mentir davantage, lui faisant allonger le nez. Pinochio a la tête dure — normal, elle est en bois — mais heureusement, Jiminy Cricket est là pour tout arranger, il est en quelque sorte la conscience qui manque au pantin. S'en suivent des aventures rocambolesques. Pinocchio continue de mentir et Jiminy Cricket continue de penser à sa place. L'histoire se termine par une scène épique, où Pinocchio sauve Geppetto d'une baleine qui l'avait avalé — une belle leçon sur l'honnêteté, la bravoure et l'amour familial. La fée bleue reconnaît les efforts de Pinocchio et le transforme en un véritable petit garçon.

Acte II — La bande de Dartmouth

31 août 1955. John McCarthy (Dartmouth College), Marvin Minsky (Harvard), Nathaniel Rochester (IBM) et Claude Shannon (Bell) co-signent un document de treize pages prophétique intitulé « Proposition de projet de recherche sur l’intelligence artificielle ». Il a pour ambition de tracer la route des recherches qui seront nécessaires pour doter un jour les machines de "systèmes informatiques ayant des capacités intellectuelles comparables à celles des hommes". La tâche est immense : formaliser le raisonnement d’un humain grâce à une suite d’opérations informatiques. Pour concrétiser son rêve fou, l’équipe sollicite auprès de la très influente Fondation Rockefeller un budget de 14 500$ pour financer un atelier de réflexion de deux mois avec une dizaine de chercheurs à la pointe de ces sujets. Il aura lieu l'année suivante sur le campus du Dartmouth College. Et c'est la naissance de l'idée d'intelligence artificielle. Cette collaboration n’est qu’un début, puisque McCarthy et Minsky vont fonder beaucoup plus tard (1971) le département d’intelligence artificielle au Massachusetts Institute of Technology (MIT). Ce document propose d'explorer plusieurs champs de recherche : la logique symbolique, le raisonnement automatisé, l'apprentissage automatique, la perception, le traitement du langage, la robotique et la psychologie de l'apprentissage. Je le rappelle, nous ne sommes... qu'en 1955.

Minsky au centre, Rochester en noeud papillon, Solomonof en chemise à carreaux, McCarthy accroupi en chemise blanche, Shannon à droite — camp d'été de Dartmouth, 1956 (Photo: Margaret Minsky)

Acte III — OpenAI, enfin

Soixante-dix ans plus tard, nous voici. Les rêves les plus fous contenus dans le Projet Dartmouth sont devenus une réalité — une banalité, même. Il y a de l'I.A partout. Dans votre ordinateur, votre téléphone, votre montre, votre télévision, votre réveil-matin, le haut-parleur du salon, le toaster ou le distributeur de bouffe pour chat... partout. Mais depuis la fin de 2022, une passion nouvelle a submergé nos sociétés. Elle a pris la forme d'une sorte d'hystérie économique, d'emballement médiatique, sur fond de catastrophisme apocalyptique. Un coupable, ChatGPT — un outil puissant de recherche qui peut maintenir une conversation crédible avec vous. Le projet est sorti des cartons de OpenAI, une organisation sans but lucratif fondée en 2015 par un groupe d'investisseurs impressionnants de la Silicon Valley, dont Elon Musk, Peter Thiel et Reid Hoffmann — aussi surnommés la Paypal Mafia (ils ont cofondé Paypal ensemble et leur influence est sans limite aux USA). L'idée, créer une organisation ouverte, qui permette une démocratisation de la technologie, mais aussi la participation de toute la communauté IA, pour fabriquer, améliorer, et peaufiner des modèles ambitieux. L'approche séduit les plus grands chercheurs du marché, qui acceptent des salaires bien inférieurs à ceux payés par les géants Google ou Méta. L'obsession était claire : ne pas laisser l'I.A. dans les mains d'une seule entité, mais en faire un projet collaboratif, une sorte d'ONG du progrès. La mission était écrite noir sur blanc sur leur site internet : faire en sorte que l'intelligence artificielle générale profite à toute l'humanité — attendez, le LOL arrive.

Acte III et demi — le grand bluff

En 2019, l'organisation devient privée, mais la promesse open source demeure : la technologie développée autour de l'intelligence artificielle doit demeurer accessible et gratuite pour tout le monde, afin de s'assurer d'une meilleure gouvernance — LOL numéro 1. Mais à peine un an plus tard... Patatra, une entente est signée avec Microsoft. L'organisation à but "non lucratif" devient alors une entreprise privée, dont la valeur est estimée à 29 Milliards USD. Elle sonne le glas de l'ouverture. L'utilisation devient payante, les licences deviennent commerciales et le code devient secret — LOL numéro 2. Le hold-up de la communauté A.I. est complété, et certains organismes influants de la communauté I.A. s'insurgent. The Center for AI and Digital Policy interpelle la Federal Trade Commission pour "pratique déloyale et trompeuse". Le mythe de l'ouverture, du projet de société, de la transparence et de l'entraide n'aura pas tenu cinq ans. Début 2023, un collectif de 1 000 chercheurs sonne l'alerte et appelle à un contrôle éthique, dans une lettre ouverte (elle!), patronnée par Yoshua Bengio, qui avait pourtant conseillé Greg Brockman — président d'OpenAI — lors du lancement du projet.

Cet épisode n'est pas sans rappeler l'histoire de Google qui avait pour crédo Don't be evil, avant de l'abandonner quelques années plus tard et de collaborer avec le Pentagone sur des projets d'attaques de drones pilotés par l'I.A.

Acte IV — écrans de fumée

Et aujourd'hui? Aujourd'hui l'excitation générale et la paranoïa collective nous empêchent de voir sereinement les limites de l'I.A. De nombreux chercheurs, mathématiciens, physiciens, philosophes appellent à la prudence. D'un côté, la prudence est de mise en cas de réussite, avec des conséquences sociétales importantes — en filigrane, la détérioration de la cherche, de l'éducation, de l'emploi, des égalités, etc. De l'autre, la prudence quant aux capacités réelles de l'I.A — jugées décevantes par le patron d'OpenAI Sam Altman lui-même : "People are begging to be disappointed and they will be". En clair, il y a beaucoup de mystifications autour du sujet. Ce flou est entretenu par la Silicon Valley qui y voit l'opportunité de se refaire une santé financière — et une réputation — après le fiasco absolu des métavers début des années 2020. Alors sur quels mythes reposent l'enfumage dont nous sommes victimes en ce moment? À première vue, j'en vois douze.

  • Le mythe de l’intelligence : l'humain n'a pas encore compris sa propre nature. La conscience, le raisonnement, l'intelligence mentale et émotionnelle... Tout cela reste à démêler. Mais si nous n'avons pas tout compris de notre propre intelligence, comment alors la programmer dans un ordinateur? L’avantage de l’IA est qu’elle nous force a nous interroger sur ces termes, leur sens, leur compréhension. Mais si on s'en tient à une définition générale, l'intelligence est la faculté d’adaptation, de choix, de comportement, d’intention... Et aux dernières nouvelles, l'intelligence artificielle n'est pas capable de cela. Si on s'en tient simplement à une définition plus technique de l'intelligence, qui ressemblerait à celle de l'intel des anglos — le renseignement, l'information — le robot d'Open IA n'est pas plus intelligent qu'un moteur de recherche, mais il déguise ses recherches dans de grands airs de certitude. Un avocat New yorkais en a fait les frais en mai 2023. Il avait préparé ses plaidoiries sur la base de recherches légales commandées à ChatGPT, qui se sont révélées, pour la grande majorité, complètement inventées par l'automate. Pour vous faire une idée par vous-mêmes, voici un exercice : faites une recherche sur un sujet qui vous est étranger : vous allez être impressionné! Faites une recherche sur un sujet que vous connaissez bien, vous allez certainement être mort de rire!
  • Le mythe de l’artificiel : le Petit Robert nous rappelle que le mot "artificiel" a une multitude de sens. Artificiel veut dire faux (des fleurs artificielles), il veut dire fait par l'humain et pas par la nature (un lac artificiel), mais aussi qui manque de naturel, forcé, exagéré (une gaieté artificielle), mais aussi arbitraire, qui ne tient pas compte des faits réels (une classification artificielle), ou encore non-humain (une jambe artificielle). Or aujourd'hui, on considère uniquement l'intelligence artificielle comme étant non-humaine — et c'est vrai. Mais c'est aussi vrai qu'elle est fausse, faite par l'humain, elle manque de naturel, elle est arbitraire et échappe aux faits réels. Évidemment que l'I.A. est impressionnante, par le fait qu'elle peut générer une quantité d'information vertigineuse, et la formuler de manière crédible. La capacité à chercher et trouver rapidement donne une illusion d’intelligence, alors qu’il n’est question que de puissance.
  • Le mythe d'autonomie de fonctionnement : l’intelligence artificielle repose sur la gestion de l’erreur. La machine dit "voici tel résultat, avec telle estimation de mon erreur." Un humain doit alors évaluer la qualité de cette estimation (je simplifie, ok?). À force de feedback, la machine affine ses prédictions et devient meilleure. C'est d'ailleurs la raison du rachat de l'entreprise reCaptcha — cette petite boîte qui vous demande sans arrêt de confirmer que vous êtes un humain — par Google en 2009. En quelques années, on est passé de "Quels sont les caractère bizarres écrits ci-dessous?" à "cliquez sur les images de Street View où vous voyez un bus". Ce changement s'est produit en 2012. Pourquoi? Parce que Google avait besoin de validation de masse. Elle devait vérifier la précision des prédictions de son algorithme. Sur les cases 1 à 9, l'algorithme estime avoir identifié un bus dans les image 2,6 et 7. Et c'est à vous maintenant de valider sa prédiction. Cette vérification, multipliée par des millions chaque jour est une manne de main d'oeuvre gratuite au service d'une machine qui donne des airs d'autonomie. Or, depuis le début de l'année, ces images de Google Street ont été remplacées par des images générées par de l'I.A. Encore une fois, c'est vous qui faites le boulot de valider ou corriger la machine. Google n'a pas racheté reCAPCHA pour sécuriser les sites web du monde entier, mais pour nous faire travailler gratuitement.
L'étrange (et stratégique) évolution de reCAPCHA à travers le temps
  • Le mythe de l’autonomie d'apprentissage : cette masse de données immense repose... sur des connaissances humaines, générées par des milliers d'années d'intelligence humaine, un savoir validé par des humains, supervisé par des humains, trié, catégorisés, classé et indexé par des humains, entrés manuellement dans des machines... par des humains. L’invention même de ces machines est un acte créatif humain, les algorithmes sont créés par des humains, comme l'ont été les mathématiques. Et soudain, le résultat sort de la machine, et l'on oublie les fils de la marionnette, et la main qui la contrôle. Tout est humain dans l'intelligence artificielle.
  • Le mythe de l’autonomie créative : GPT signifie Generative Pre-trained Transformer. Il s'agit pour l'I.A. de générer des contenus, au delà de simplement les compiler. Générer du texte, des images, de la musique, en s'entraînant sur des masse importantes de donnée. Par exemple, après quelques commandes très simples auprès de MidJourney, Stable Diffusion ou Dall-e, l’ordinateur vous fait quelques propositions de « création ». C’est bluffant. Avec de l’entraînement, cela devient fascinant. Mais ce n’est pas une création. C’est un collage malicieux d’images recherchées sur le net, dépouillées de leur droits d’auteurs et savamment mélangées sans aucune autorisation, pour en créer une autre. En janvier 2023, GettyImage a poursuivi ces trois plateformes pour violation de droits d’auteur, après avoir retrouvé son propre logo dans des créations censées être originales. Emad Mostaque, le patron de Stable Diffusion à sèchement répondu sur Twitter « models and data for all », brandissant encore le mythe de l’open source. Voulait-t-il dire « from all »?
  • Le mythe de l’autonomie énergétique : les abeilles sont capables de faire de la reconnaissance faciale avec un cerveau d'un millimètre-cube. En plus de ce miracle de miniaturisation, l'insecte fait tout cela sans intervention humaine, en totale autonomie énergétique — le tout en veillant à l'équilibre de notre agriculture, donc à notre survie. Pour la même opération, un ordinateur a besoin d’une quantité astronomique d’énergie, sans compter l’impact environnemental écrasant de sa fabrication. Puissance, d'accord... mais au quel prix? Pour quels impacts?
C'est pas moi, ce sont mes serveurs.
  • Le mythe de l'éthique pratique : concrètement, la recherche en intelligence artificielle est principale privée, masculine, et blanche. Loin de moi l'intention de me lancer dans le wokisme numérique, il faut constater plusieurs échecs de l'I.A. D'abord celui de la reconnaissance faciale chez les personnes noires (pour qui le risque d'erreur est multipliée par 100, ce qui a été dénoncé par Amnesty Internationale). Ensuite, l'objectification de la femme, permise par les outils de création d'images, qui — s'ils ne permettent pas la fabrication de matériel pornographique en tant quel tel — facilitent la sur-production d'images sur-sexualisées. Enfin, la perpétuation des biais, comme dans le cas d'Amazon, qui avait mis en place un système de recrutement automatisé en 2014. Le but : recruter les meilleurs CV en se basant sur les données historiques. Résultats : la machine a proposé... des hommes blancs en grande majorité, perpétuant les bonnes vieilles habitudes du groupe. L'exemple le plus notable de biais de l'IA est sans doute l'algorithme COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) utilisé actuellement dans le système judiciaire américain pour prédire la probabilité de récidive d'un. Le modèle prédit deux fois plus de faux positifs pour la récidive chez les délinquants noirs (45 %) que les délinquants blancs (23 %). On est carrément dans un Minority Report buggé! Oui, l'I.A. est une promesse de progrès. Si vous êtes un homme riche et blanc. Dans les faits, elle n'est qu'une machine à exacerber les discriminations, un accélérateur de problèmes sociétaux. Ce qui n'est pas vraiment la définition du progrès.
The AI Art Movement Has an Objectification Problem, NFTNews
  • Le mythe de l'éthique philosophique : quand viendra le temps de prendre position, ou de prendre des décisions importantes, comment l’IA va-t-elle raisonner? Admettons que nous lui demandions son avis sur le port d’arme. Comment va-t-elle pouvoir répondre? En prenant en compte le point de vue des deux camps? De la moyenne de la population? De l’opinion supposée du demandeur? De son créateur? Va-t-elle prendre en considération des motifs culturels, historiques ou religieux? Va-t-elle miser sur le principe du meilleur individuel ou collectif? La réponse est décevante : c’est la première option qui a été retenue lors de mon test avec ChatGPT 4. La machine présente les deux opinions, sans prendre parti. Hors, l'intelligence consiste justement à prendre prendre une décision, en fonction de l'époque, des circonstances, d'une vision de société, des défis économiques ou légaux... mais aussi en fonction de nos principes moraux, de nos intentions, de nos croyances, de nos intuitions. C'est précisément ça, l'intelligence. Quand bien même... Si les humains eux-mêmes ne s’entendent pas sur des questions de base comme l'égalité, la peine de mort, le droit à disposer de son corps, l’égalité homme-femme ou la liberté d’expression... Comment va-t-on encoder les machines? Qui va le faire? Avec quelle régulation? Nous avons déjà la réponse : Facebook, Twitter et autre Cambridge Analytica nous ont démontré que la régulation ne dépend que d'un seul critère : l'argent.
  • Le mythe de l’open source : depuis l'entente avec Microsoft, l'orientation open source d'OpenAI ne tiennent plus debout. Open IA est une chaîne de commande corrompue à la naissance d'un bout à l'autre. À l'entrée de cette machine, les capacités d'analyse d'OpenAI reposent principalement sur la disponibilité de documents, images, et textes présents sur le web — le plus souvent au détriment des droits d'auteur (nous y reviendrons). À la sortie, le fait que l'outil soit devenu payant n'assure plus une accessibilité universelle. Entre l'entrée et la sortie, le processus de traitement de ces informations n'est plus ouvert aux regards de chercheurs qui jusque là participaient à un projet collectif. Pour récapituler, l'IA d'Open IA est un processus opaque où les sources ne sont pas sûres, où le fonctionnement est secret, et où l'utilisation n'est plus universelle, contrairement aux belles promesses de ses débuts.
  • Le mythe de l'utilité immédiate réelle : l'utilité de l'IA dans la course à la productivité n'est pas contestable pour certaines entreprises. C'est un bouleversement aussi évident que l'invention d'Internet ou des moteurs de recherche dans leur temps. Mais pour d'autres, il s'agit d'un apparat marketing, qui permet de se différentier à peu de frais. Cette course à la concurrence touche aussi les employés, qui — avec peu d'effort — peuvent se targer de connaissances nouvelles et de capacités redoublées. Tout cela ajoute à l'agitation et ajoute du bruit au bruit... Mais c'est justement cette course d'egos qui finance OpenAI aujourd'hui. Un abonnement Pro ne coute que 30$ par mois, et cette accessibilité a fait exploser le taux d'adoption de la technologie — une pratique commerciale courante pour devenir un standard rapidement. Dans le fond, le succès d'OpenAI repose aussi sur notre besoin de nous démarquer — comme le succès de Facebook a reposé sur le besoin de nous faire connaitre.
  • Le mythe de la singularité : c'est le fantasme de Raymond Kurzeill — grand guru du transhumanisme, véritable icône techno, et patron d'une école dédiée à la singularité. La singularité, c'est le moment où l'intelligence artificielle va rejoindre l'intelligence humaine. ChatGPT se présente déjà comme une avancée sérieuse vers cette singularité. Or, à moins que la machine puisse se reproduire, se créer toute seule, évoluer tout au long de sa vie sur le plan physique, découvrir le monde et le savoir sans assistance humaine dirigée, mais simplement grâce aux interactions avec ses pairs, si elle est capable de cultiver, transformer, ingérer puis digérer une nourriture suffisante à produire l'énergie dont elle a besoin pour fonctionner... alors un ChatGPT aussi sophistiquée soit-il demeure loin de la singularité. Alors qu'un ordinateur n'a ni conscience, ni créativité, ni intention, ni libre arbitre, ni capacité de fonctionner sans instructions humaines, Kurzeill se rêve en fée bleue, accordant le statut de petit garçon à un Pinnochio menteur et manipulateur.
  • Le mythe de la fin du monde : Il existe trois niveaux d'intelligence artificielle. L'IA Faible (ANI - pour Artificial Narrow Intelligence), qui ne sait faire qu'une seule tâche, l'IA Générale (AGI) qui aurait les capacités d'une intelligence humaine — aussi appelée la singularité), enfin la Super IA (ASI), la mise en réseaux de toutes les AGI, qui annoncerait deux scénarios : la vie éternelle... ou la fin du monde. Or, ces suppositions sont totalement arbitraires — artificielles, donc. Alors pourquoi les concepteurs d'OpenAI eux-mêmes crient au loup, au danger, à la prudence? Parce qu'il veulent nous faire croire qu'ils ont dans les mains un outil à dompter, donc une responsabilité, donc un pouvoir. Ce stratagème rappelle celui de la menace atomique : "j'ai dans les mains la possibilité de détruire le monde, alors tu vas m'écouter." Sauf que cette fois-ci, ce pouvoir n'est pas dans les mains d'un gouvernement, mais d'une entreprise privée. Et ça marche! Sam Altmann est invité par les plus grands décideurs et les gouvernements, qui ne veulent pas manquer le bateau. C'est l'aboutissement du rêve libertaire (ultra-ultra libéral) promu par Peter Thiel et Elon Musk. Fait cocasse #1, la plateforme Truth Social de Trump a largement bénéficié du support (technique et publicitaire) de la plateforme Rumble, financée par Peter Thiel. Fait cocasse #2, Elon Musk, qui avait quitté le navire d'OpenAI vient d'annoncer la création de Truth GPT. Le duel Petier Thiel VS Elon Musk continue. Truth Social VS TruthGPT. Truth VS Truth, ou la vérité comme marque de commerce. On dirait bien que les rois de la Silicon Valley veulent leur part de ce gâteau prometteur.

En attendant, l'intelligence artificielle est un pantin mal élevé, qui ment, qui raconte toutes sortes d'âneries... mais que son inventeur adore quand même. C'est un morceau de bois qui a besoin d'un Jimily Cricket — nous — pour lui donner une âme et rectifier ses erreurs. Ce pantin est très impressionnant, mais il n'est pas nouveau. Le philosophe Archytas avait fabriqué le premier automate de l'histoire, un pigeon mécanique au IVe siècle avant J.-C. Le mathématicien Héron d'Alexandrie avait fabriqué plusieurs automates hydrauliques dans le premier siècle après J.-C. Léonard de Vinci avait conçu un chevalier mécanique, et Descartes s'était bricolé Francine, une enfant-automate après le décès de sa fille. Le Turc mécanique de Von Kempelen jouait aux échecs au XVIIIe siècle, alors que le canard mécanique de Jacques de Vaucanson semblait manger et digérer de la nourriture.

Les automates ont toujours été fascinants et ils le sont encore. Ils frappent notre imaginaire et nous questionnent sur notre propre nature, nos habiletés, nos capacités, notre créativité, mais aussi sur nos intentions, notre morale ou notre éthique. Bref... sur notre singularité — celle qui rend les humains si singuliers. Mais il ne sont que des pantins, encore moins autonomes que Pinnochio. Les mains qui dirigent ce bout de bois surdoué a des intentions douteuses. Tel un public médusé, nous sommes en train de croire au ventriloque, et les fils de nylons se dissipent. Or il sont bien présents. La marionnette de l'I.A. est dépourvue de ce qui fait notre intelligence. Des capacités tout à fait mystérieuses pour nous, encore aujourd'hui. L'humain est miracle, l'I.A. un automate. Sa puissance le rend arrogant et sûr de lui — les seuls traits humains dont il a réellement hérités jusqu'alors.

Pour conclure cette réflexion, je vais convoquer John McCarty lui-même — de la bande de Dartmouth, souvenez-vous. C'est lui qui a inventé le terme Artificial Intelligence en 1956, pendant l'atelier d'été. Un peu plus tard, il va faire une déclaration qui explique bien des choses : "As soon as it works, no one calls it AI anymore". Dès que ça fonctionne, on n'appelle plus ça de l'intelligence artificielle. Et c'est vrai! Un ordinateur, un téléphone, une montre, une télévision, un réveil-matin, un haut-parleur, un toaster ou un distributeur de bouffe pour chat... tout cela relève de l'intelligence artificielle, mais puisque ça fonctionne, on appelle ça autrement. Et c'est un signal à repérer dans le discours des marchands du temple. Dès que vous entendez les mots "intelligence artificielle", c'est que... bah ça ne marche *peut-être* pas encore...

Ce qu'il faut retenir

L'intelligence artificielle est le résultat de 70 années de recherches et d'essais-erreur. Aujourd'hui, ce pantin dépendant des humains se prend pour un petit garçon. Il est maladroit, mal élevé, approximatif et arrogant, et tel Pinocchio, il a besoin d'une conscience externe pour le mener sur le droit chemin. C'est à nous de jouer ce rôle, et de ne pas nous laisser berner par les écrans de fumées produits par une Silicon Valley en quête de parts de marché sur l'avenir de l'humanité. Outil supruissant pour accélérer le progrès? Certainement. Singularité qui mimerait la conscience, l'intention, l'émotion, ou le libre arbitre? Nous en sommes encore bien loin. Ce Pinocchio mérite notre attention autant qu'il mérite une éducation fiable, et peut-être une fessée de temps en temps...

Gaëtan est le fondateur de Perrier Jablonski. Créatif, codeur et stratège, il est aussi enseignant à HEC (marque-média), à l'École des Dirigeants et à l'École des Dirigeants des Premières Nations (pitch, argumentation). Certifié par le MIT en Design Thinking et en intelligence artificielle, il étudie l'histoire des sciences, la philosophie, la rhétorique et les processus créatifs. Il est l’auteur de deux essais et d’une centaine d’articles sur tous ces sujets.
subject
Bibliographie et références de l'article

Acte II

Dartmouth Projet http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf

Acte III

https://hackernoon.com/how-openai-transitioned-from-a-nonprofit-to-a-$29b-for-profit-company

https://fortune.com/2023/01/06/openai-valuation-ai-chatgpt-microsoft-bing-google-search/

https://techcrunch.com/2022/05/19/when-big-ai-labs-refuse-to-open-source-their-models-the-community-steps-in/

https://ici.radio-canada.ca/nouvelle/1101433/employes-google-petition-contre-collaboration-pentagone

https://www.theverge.com/23560328/openai-gpt-4-rumor-release-date-sam-altman-interview

Acte IV

https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp=cur

https://techcrunch.com/2009/09/16/google-acquires-recaptcha-to-power-scanning-for-google-books-and-google-news/

https://mpost.io/fr/samsung-staff-accidentally-leaked-information-to-chatgpt/

https://techcrunch.com/2012/03/29/google-now-using-recaptcha-to-decode-street-view-addresses/

https://www.amnesty.ca/blog/racial-bias-in-facial-recognition-algorithms/

https://datascientest.com/intelligence-artificielle-biais-ia

https://nftnow.com/features/the-objectification-of-women-in-ai-art/

https://www.axios.com/2022/04/26/rumble-trump-truth-social-spac

ChatGPT a été utilisé dans le processus de rédaction de cet article
  • Nous utilisons parfois des outils d'intelligence artificielle tels que Perplexity (Claude 3, Sonar, GPT 4o) lors de nos recherches.
  • Nous pouvons utiliser ChatGPT et Antidote pour la correction ou la reformulation de certaines phrases.
  • Nous pouvons utiliser ChatGPT dans la structuration de certains exemples.
  • ChatGPT est parfois utilisé pour évaluer la qualité d'un article (complexité, crédibilité des sources, structure, style, etc.)
  • Cette utilisation est toujours supervisée par l'auteur.
  • Les modèles d'apprentissage de ChatGPT respectent les droits d'auteurs — ils sont entraînés sur nos propres contenus.

ENCoo🎉ooRE!

Et voici un peu de lecture liée à cet article... 😏

No items found.

UN PAS🏁DE RECUL,
UN COUP🏴‍☠️D'AVANCE.

Un samedi sur deux, une dose d'inspiration pensée pour les gestionnaires. Une vidéo et un article pour vous donner un peu de recul... et beaucoup d'avance.

→ Voir un exemple

Bravo! 🎉
Il y a un bug quelque part...

Hum, hum

Désolé, cet article est en cours d'écriture. Cette page est donc réservée aux employés — mais elle n'est pas *uniquement* réservée aux employés réservés.