Message annuel à mes clients et partenaires

Bonjour,

Depuis un an, je travaille sur la rédaction d’un livre consacré aux incidences de l’intelligence artificielle générative sur les marques. Le rythme des innovations dans ce domaine est tel que j’ai dû en réécrire bien des parties plusieurs fois. J’en suis arrivé à la conclusion qu’il me fallait être plus agile dans mon approche éditoriale pour davantage coller à l’actualité.

C’est pourquoi, plutôt que de publier un livre, je lance une série de “Cahiers de l’IA générative“, dont ce message annuel constitue la première livraison. Elle est consacrée aux enjeux stratégiques posés par l’intelligence artificielle générative pour les marques. Le deuxième numéro des “Cahiers de l’IA générative“ sera de nature pédagogique sur le fonctionnement, ainsi que les forces et faiblesses, de cette technologie.

Bonne lecture et bonne année à toutes et tous.

Christophe Lachnitt
Fondateur/Président et Consultant
Croisens

Vous préférez lire le fichier PDF ?
Téléchargez Les cahiers de l’IA générative #1

L’âge de pierre ne prit pas fin en raison d’une pénurie de cailloux.

De fait, les êtres humains ont toujours cherché à améliorer leurs conditions de vie et de travail en maîtrisant de nouvelles techniques, que ce soit la métallurgie il y a 5 000 ans ou le numérique ces dernières décennies. L’avènement de l’intelligence artificielle générative confère à ce phénomène une ampleur sans précédent sur tous les plans – universalité, complexité, intensité et rapidité.

La communication est au premier rang des activités chamboulées par cette révolution en raison de la place qu’y tiennent le langage, la création et les interactions homme-machine. Aussi, plus de deux ans après la révélation de l’intelligence artificielle générative au grand public1, est-il temps de dresser un bilan intermédiaire de ses répercussions sur les stratégies, opérations et compétences qui infusent notre métier.

Ce bilan doit d’abord être établi à partir d’un état des lieux technologiques, les avancées dans ce domaine sous-tendant les innovations applicatives dont nous bénéficions.

Depuis plus de deux ans, les développements de l’intelligence artificielle générative ont ressemblé à un coup d’éclat permanent. Or, même si la bulle qui embrasse et embrase les marchés de l’intelligence artificielle générative n’a pas encore éclaté, le rythme des progrès s’est ralenti à un point tel qu’un débat intense anime le secteur de l’intelligence artificielle générative au sujet de son réel potentiel : a-t-elle atteint un seuil de rendement indépassable ? L’intelligence artificielle générale demeure-t-elle un objectif réalisable à court ou moyen termes ? La question déterminante au cœur de ces contentions concerne la corrélation jusqu’à présent assumée entre volume de données d’entraînement et performance des intelligences artificielles génératives (selon les lois d’échelle ou “scaling laws“).

A cet égard, Ilya Sutskever, l’une des figures majeures de ce secteur2, considère que nous avons atteint le “pic des données”, car nous ne disposons que d’un seul Internet : une fois que les modèles d’intelligence artificielle ont été entraînés à partir de toutes les données accessibles sur le web, l’ère durant laquelle leur niveau de production a augmenté en combinant toujours plus de ressources de calcul avec toujours plus de données est close. Ilya Sutskever souligne d’ailleurs que “les données sont le carburant fossile de l’intelligence artificielle3.

C’est pourquoi nous assistons depuis quelque temps à la publication de modèles focalisés sur la réflexion, à l’instar d’o3 d’OpenAI présenté en décembre dernier, plutôt que de systèmes généralistes de nouvelle génération (par exemple, GPT-5, toujours d’OpenAI, qui doit succéder à GPT-4 lancé en mars 2023, est en retard sur son plan de développement). Bill Gates estime depuis plus d’un an que les grands modèles de langage ont probablement atteint un plateau4 et prédit que GPT-5 ne représentera pas une augmentation significative de capacité par rapport à GPT-4. Il considère que les progrès accomplis entre GPT-2 et GPT-3/4 seront difficiles à répéter et qu’ils ne seront sans doute pas égalés de sitôt.

Naturellement, il est crucial, pour les communicants, de ne pas arriver comme les carabiniers par rapport à ces progrès. Pour autant, je suis convaincu que ces enjeux techniques, même si nous devons en être conscients afin d’appréhender au mieux les outils avec lesquels nous travaillons, ne seront pas dirimants pour nos activités de communication, et ce pour deux raisons au moins :

  • Les capacités actuelles de l’intelligence artificielle générative révolutionnent déjà nos métiers. Même si, à l’avenir, ses progrès ne devaient être qu’incrémentaux plutôt qu’exponentiels, ils suffiraient à nous assouvir.
  • Que nous l’utilisions pour créer ou transformer des contenus ou comme sparring partner, nous faisons surtout appel aux facultés créatives de l’intelligence artificielle générative, davantage qu’à sa rigueur factuelle ou logique. Nous sommes donc peu affectés par ses problèmes de fiabilité, au premier rang desquels ses hallucinations qui, comme le chercheur et entrepreneur Gary Marcus l’a noté, devraient d’ailleurs être qualifiées de “confabulations“5. En outre, dans nos tâches de communication, nous pouvons valoriser la technique dite de retrieval-augmented generation (RAG) pour nourrir les applications d’intelligence artificielle générative avec des informations pertinentes, et ce sans avoir à réentraîner les grands modèles de langage afférents.
Les hallucinations demeurent, avec les biais, l’une des faiblesses majeures des grands modèles de langage. (CC) Christophe Lachnitt

Toujours en matière d’innovation, nous assistons aussi à une course à la miniaturisation des modèles d’intelligence artificielle pour les rendre moins couteux, moins gloutons en énergie et en eau (cf. infra), plus rapides, plus protecteurs des données privées et plus faciles à opérer sur des équipements grand public tels que des smartphones.

Une autre évolution qui va nous concerner, communicants, au premier chef relève du développement d’agents, des applications plus autonomes que les assistants tels que ChatGPT, Claude, Copilot ou Gemini. Tous les grands acteurs de l’intelligence artificielle (e.g. Anthropic, Google, Microsoft, OpenAI) conçoivent des agents qui vont constituer le futur de leur offre de services dans ce domaine et constituer une étape importante vers l’avènement de l’informatique ambiante.

Pour ce qui concerne la communication, et dans la limite des enjeux de fiabilité précités, ces agents vont transformer aussi bien nos méthodes de travail, au sens où nous pourrons leur déléguer des projets de taille croissante au fur et à mesure de leurs progrès, que nos relations avec nos parties prenantes, qu’ils vont de plus en plus intermédier. Je reviendrai sur ces deux aspects plus loin dans mon propos.

Par ailleurs, l’année 2025 pourrait voir l’aboutissement de certains procès très attendus entre des créateurs de contenus et des développeurs de grands modèles de langage, au premier rang desquels celui intenté par The New York Times à OpenAI, qui définiront la jurisprudence en matière de propriété intellectuelle. Il s’agira de déterminer si les grands modèles se rendent coupables de plagiat. Outre-Atlantique, la doctrine juridique du “fair use“ qui, pour faire simple, trace la limite entre inspiration légitime et plagiat illégal, sera au cœur des délibérations, de même que le fonctionnement des grands modèles : ils ne consultent pas de base de données lorsqu’ils répondent à nos requêtes, mais opèrent à partir de paradigmes identifiés dans leurs données d’entraînement. Il n’y a donc a priori pas de lien direct démontrable entre leurs sources et leurs créations.

A cet égard, on peut souhaiter que les écrits du philosophe écossais David Hume reviennent d’actualité. Il souligna le fait que l’imagination est le composite d’expériences, en prenant notamment un exemple trivial : nous ne pouvons pas imaginer un cheval volant si nous n’avons jamais vu ni un cheval ni une créature voler. En clair, la créativité requiert inévitablement une forme de copie et/ou de synthèse qui combine d’une nouvelle manière plusieurs idées existantes. Les débats, qui auront trait à l’imagination algorithmique à partir d’expériences et d’idées humaines, promettent d’être passionnants.

Last but not least, il serait impossible d’achever ce lapidaire tour d’horizon technologique sans évoquer deux limites environnementales majeures de l’intelligence artificielle générative.

La consommation d’eau des serveurs qui soutiennent les outils d’intelligence artificielle générative est considérable. (CC) Christophe Lachnitt

La première est énergétique : la création d’une image à l’aide d’une intelligence artificielle générative exige autant d’énergie que la recharge complète d’un smartphone. Et il est estimé qu’une seule tâche de haut niveau réalisée par le dernier modèle o3 d’OpenAI requiert la même quantité d’électricité que celle qu’un ménage américain moyen utilise en deux mois. Au total, l’intelligence artificielle générative pourrait donc consommer autant d’énergie en 2027 que l’ensemble de l’Espagne en 20226. Les plus grands acteurs du secteur stimulent d’ailleurs le retour en vogue du nucléaire civil outre-Atlantique : récemment, Amazon a signé trois contrats pour le développement de petits réacteurs modulaires (SMR), Google va acheter de l’énergie provenant de sept petits réacteurs modulaires et Microsoft va rouvrir la centrale de Three Mile Island. La seconde limite environnementale, moins connue, est liée à l’eau : la rédaction d’un texte de 100 mots nécessite un peu plus d’un demi-litre d’eau. En outre, l’essentiel de cette eau est évaporée et non recyclée comme celle que nous utilisons à notre domicile.

Ces différentes données appellent à une utilisation raisonnée des outils d’intelligence artificielle générative : ne lui demandons pas de faire ce que nous pourrions facilement réaliser en quelques instants.

La première opportunité évidente de l’intelligence artificielle générative pour les communicants concerne la production de contenus. En dépit de ses déficiences actuelles (e.g. biais, hallucinations, enjeux de propriété intellectuelle et de sécurité), les capacités de l’intelligence artificielle générative en matière de production de contenus sont aussi spectaculaires que connues. Mais, au-delà de la productivité quasi frénétique qu’elle offre, la portée révolutionnaire de l’intelligence artificielle générative tient à mon sens au fait que l’augmentation de la productivité créative qu’elle engendre va permettre aux marques7 non seulement d’optimiser leurs activités opérationnelles, comme dans le cas de tout gain d’efficacité, mais aussi de déployer de nouvelles stratégies (e.g. ultra-personnalisation, cf. infra, “Les mirages de la personnalisation“) qui ne leur étaient pas accessibles jusqu’à présent. La différence de degré d’ordre productif crée donc pour la communication une différence de nature sur le plan stratégique.

Pour autant, il serait préjudiciable de se concentrer sur l’impact de l’intelligence artificielle générative en termes de production et d’occulter les enjeux qu’elle pose en termes de consommation de contenus. Quand nous, communicants, nous focalisons uniquement sur la capacité productive de l’intelligence artificielle générative, nous privilégions des enjeux opérationnels et nous regardons le nombril sans nous intéresser à nos publics cible, alors que cette empathie devrait être notre priorité de chaque instant. Pour envisager l’intelligence artificielle générative sous l’angle des audiences, il faut se demander ce qu’elle change en termes de consommation de contenus et non seulement de production.

A cet égard, je mets en exergue dix enjeux stratégiques que cette technologie induit à mon sens pour les marques :

  • La séduction de faux humains.
  • Le risque de neutralisation des marques.
  • La complexité croissante de leur médiatisation.
  • La massification des opérations de désinformation.
  • L’écrasante inertie de la surinformation.
  • Les mirages de la personnalisation.
  • Les nouvelles vertus de l’influence.
  • L’indispensable réinvention de la communication interne.
  • La quête de nouvelles limites créatives sans transgression des limites éthiques.
  • Le piège budgétaire.

Avant de les aborder, intéressons-nous aux réactions du public face à l’utilisation de l’intelligence artificielle générative en communication. Deux enquêtes d’opinion menées à ce sujet livrent des conclusions contrastées :

  • 85% des personnes interrogées considèrent que l’authenticité est la marque de la vraie qualité des contenus. Et 74% croient que des contenus authentiques ne peuvent être produits que par des humains. Dès lors, 65% estiment que l’intelligence artificielle érode notre créativité, en faisant se ressembler tous les contenus.
  • Lorsqu’on leur demande si les marques devraient utiliser l’intelligence artificielle générative pour créer des publicités, 45% répondent positivement, 19% ne se prononcent pas et 36% répondent par la négative. 10% vont même jusqu’à affirmer qu’ils n’achèteraient pas un produit/service d’une marque ayant utilisé l’intelligence artificielle générative dans sa communication.

Passons désormais en revue les neuf premiers enjeux identifiés ci-dessus8 en posant de premières réflexions à partir des expériences de l’année écoulée. Vous pouvez me contacter si vous souhaitez connaître les pistes de solutions que je propose pour répondre à ces enjeux, et/ou me solliciter pour que je vous accompagne dans l’adaptation de votre stratégie et de vos pratiques de communication à ce nouvel environnement.

Les faux humains sont susceptibles d’être étonnamment semblables aux vrais. (CC) Christophe Lachnitt

Si les agents d’intelligence artificielle se distinguent des assistants par leur autonomie d’action, les faux humains se définissent par leur identité. Celle-ci peut être double :

  • Certains avatars d’intelligence artificielle sont les jumeaux numériques de personnes existantes. C’est une pratique notamment en plein essor sur des réseaux sociaux (e.g. Facebook, Instagram, TikTok) qui nous permettent de créer notre double virtuel. Ce sont de demis faux humains, dans le sens où ils incarnent faussement une vraie personne.
  • Il existe aussi de plus en plus de complets faux humains, qui sont des personnes virtuelles inventées et animées par des intelligences artificielles génératives.

Dans les deux cas, ces contrefaçons humaines dénaturent notre identité ontique.

Or ces faux humains sont susceptibles d’être étonnamment semblables aux vrais. Considérez cette recherche récemment menée par une équipe conjointe de Google DeepMind et de l’Université de Stanford : elle recruta 1 000 volontaires de divers âges, sexes, origines ethniques, régions, niveaux d’éducation et obédiences politiques. Elle les fit participer à un entretien individuel de deux heures avec un modèle fondé sur GPT-4o (OpenAI), au cours duquel furent abordés leur enfance, leurs souvenirs constitutifs de leur identité, leur carrière professionnelle et leurs idées en matière de politique d’immigration. A partir de ces entretiens, le modèle créa un jumeau numérique de chaque volontaire. Puis, les volontaires et leurs jumeaux prirent part, indépendamment les uns des autres, à deux séries de tests de personnalité, de sondages et de jeux de logique réalisés à deux semaines d’intervalle : les clones d’intelligence artificielle se comportèrent de manière identique à leurs modèles dans 85% des cas.

Je vous laisse imaginer le potentiel de contrefaçons humaines nourries par plus de deux heures d’entretiens. Ainsi, Brox.ai, une entreprise américaine, a-t-elle recours au même procédé d’interviews individuelles (plus longues) pour créer des jumeaux numériques de consommateurs, et proposer aux marques des focus groups synthétiques plus économiques et rapides, et tout aussi pertinents, que ceux menés avec de vrais humains. Brox peut ainsi signaler à ses clients si un segment de population très précis accepterait de voir le prix d’un service augmenter ou serait intéressé par un nouveau produit qu’une marque envisage de lancer. De même, l’agence américaine rehabAI a-t-elle créé un service dénommé Stress Tester qui permet aux agences et marques de tester leurs concepts créatifs auprès d’un groupe de faux humains afin d’anticiper les réactions du public ciblé.

Pour sa part, Colgate utilise des jumeaux numériques de consommateurs pour tester de nouvelles idées de produits, ce qui lui permet de rationaliser son processus d’innovation tout en l’accélérant. Une autre marque américaine a eu recours à de faux humains générés par l’intelligence artificielle pour améliorer la cohérence de son expérience client à travers ses trois principaux vecteurs de communication – publicités en ligne, messages sur les médias sociaux et promotions en magasin. Elle mit à profit les données recueillies sur ces trois canaux pour concevoir un jumeau numérique de ses clients simulant leurs interactions avec ses campagnes. Cette méthode lui permit d’optimiser le retour sur investissement de sa communication.

Mais cette valorisation des jumeaux numériques ne constitue que la face émergée (et éthique) de l’iceberg formé par la création de – demis et complets – faux humains. Sa face immergée est beaucoup plus conséquente et souvent moins déontologique.

En réalité, la dénaturation de l’identité humaine induite par la génération de faux humains pourrait représenter la plus grande révolution de la communication depuis l’invention de l’écriture il y a 5 300 ans.

En effet, elle va susciter, pour les marques, deux phénomènes irrépressibles.

En premier lieu, les marques ne vont plus seulement devoir influencer des humains, mais aussi de faux humains. Ceux-ci vont par exemple pulluler sur les réseaux sociaux, où ils vont se présenter comme de vrais humains avec des biographies et récits illustrés de leur “vie“, et où ils interagiront avec leurs cibles humaines afin de les influencer à acheter des produits/services, voter pour un candidat à une élection, s’engager pour une cause, etc. Pour ne considérer qu’un seul exemple récent, Meta se prépare à intégrer à Facebook et Instagram des centaines de milliers de faux humains générés par son intelligence artificielle, une initiative dont les débuts n’ont pas été concluants. Les possibilités de manipulation économique, sociale ou politique avec ces avatars sont sans limites, et ce d’autant plus si l’on prend en compte le fait que Meta détient environ cent fois plus de données que l’ensemble de celles accessibles sur l’Internet public. Le réseau social Butterflies.ai, où il est possible de créer un faux humain qui vit ensuite sa vie en pleine autonomie et l’y raconte, donne un aperçu de ce qui nous attend en ligne.

Les vrais humains que les marques chercheront à persuader seront donc sous l’influence de faux humains conçus et activés par des médias sociaux, des Etats, des entreprises, des institutions, des créateurs de contenus, des escrocs, etc. Or on sait que l’intimité est le meilleur vecteur de l’influence et qu’un humain, même faux, peut forger une intimité numérique sans commune mesure avec celle qu’une marque peut créer avec ses parties prenantes9. Une équipe d’éthiciens de l’Université de Cambridge a d’ailleurs récemment publié une recherche à ce sujet, dans laquelle ils décrivent “l’économie de l’intention“, laquelle va succéder selon eux à l’économie de l’attention si des mesures réglementaires ne sont pas édictées. L’économie de l’intention se présente comme un écosystème dans lequel des assistants ou agents d’intelligence artificielle auront accès à de vastes quantités de données psychologiques et comportementales intimes. Ces outils anthropomorphiques, que les chercheurs de Cambridge qualifient de “technologies persuasives“, combineront une connaissance des habitudes de “leurs“ humains avec une capacité infinie à s’adapter à eux de manière réconfortante, afin d’établir un niveau de confiance pouvant favoriser une manipulation personnalisée. Ils pourraient ainsi prévoir et influencer les intentions d’achat ou de vote des humains à un stade précoce, et vendre ces intentions aux enchères avant même que les personnes concernées n’aient pris leur décision.

Demain, nous serons autant, voire plus, influencés, en ligne, par de faux humains que par des vrais. (CC) Christophe Lachnitt

Le second phénomène irrépressible auxquels les marques vont devoir faire face en raison de la multiplication des faux humains résultera du fait qu’elles n’opéreront plus seulement dans un univers de surinformation, mais aussi dans ce que j’appelle un environnement de “suraudience“ (désolé du néologisme) : elles pourront avoir du mal à discerner si elles s’adressent à de vrais ou de faux humains. A cet égard, la célèbre remarque de John Wanamaker10 – “la moitié du budget que je dépense en publicité est gaspillée ; le problème est que je ne sais pas de quelle moitié il s’agit“ – pourra demain s’appliquer non plus aux médias mais aux publics. L’enjeu ne sera pas moins simple à gérer, tant s’en faut, pour les marques.

Ces initiatives posent d’autant plus question que plusieurs | études ont montré que les systèmes d’intelligence artificielle étaient capables de tromper “volontairement“ leurs interlocuteurs humains.

Le foisonnement de faux humains (et de robots) va représenter un enjeu identitaire tel que World – le nouveau nom de l’entreprise co-fondée par Sam Altman et connue jusqu’à présent comme Worldcoin – se focalise sur une mission consistant à fournir aux êtres humains un moyen de vérifier leur identité. Pour ce faire, elle compte recueillir la signature biométrique de tous les habitants de la planète en scannant leur iris afin de construire un système d’identité universel.

Pour expliquer ce que j’entrevois dans ce domaine, j’ai recours à une métaphore : si, lorsque nous posons une question à un moteur de recherche, nous faisons face à un bibliothécaire qui nous indique quels livres lire (i.e. les liens URL), lorsque nous interrogeons un assistant d’intelligence artificielle, nous échangeons avec un bibliothécaire qui a lu tous les livres existants et nous en fournit une synthèse personnalisée en fonction de notre question – une approche que Google résume avec le motto “Let Google Do the Googling“.

Dans le premier cas, la réponse du moteur de recherche est une opportunité pour les marques de faire valoir leur communication à travers les médias détenus, conquis, partagés et payés11 vers lesquels les liens bleus de Bing, DuckDuckGo ou Google envoient leurs audiences. Dans le second cas, l’internaute est nourri par le chatbot (robot conversationnel) sans opportunité pour les marques de faire valoir directement ou indirectement leur point de vue. En effet, même lorsque les outils d’intelligence artificielle fournissent des liens vers leurs sources, l’incitation à cliquer est très faible étant donné que la synthèse personnalisée procure la substantifique moëlle des contenus afférents. Le nom de cette technique – “Zero-Click Search“ – dit d’ailleurs tout de son objectif : éviter que les internautes ne cliquent sur des liens. Naturellement, plus l’infobésité va atteindre des niveaux insupportables (cf. infra, “L’écrasante inertie de la surinformation“), plus la capacité des outils d’intelligence artificielle générative de synthétiser des contenus pertinents à notre service va devenir irrésistible.

La métaphore du bibliothécaire permet de comprendre la différence entre moteurs de recherche et assistants d’intelligence artificielle. (CC) Christophe Lachnitt

Incidemment, les médias d’information qui assaillaient Google pour que le Groupe subventionne la présentation de leurs contenus dans Google Search et Google News ont fait semblant de ne pas comprendre que ces services faisaient la publicité de leur production éditoriale et qu’ils étaient rémunérés dans cette optique à travers le trafic redirigé par Google vers leurs sites. Aujourd’hui, leurs protestations contre les assistants d’intelligence artificielle seraient largement plus justifiées, mais la plupart des médias, à l’exception notable du New York Times (cf. supra), ont décidé de signer des accords de licence de contenus avec les créateurs de ces modèles.

Plus les agents évoqués plus haut vont se populariser, plus l’intermédiation créée par l’intelligence artificielle générative entre les marques et leurs publics va prendre de l’ampleur. Demain en effet, tous les internautes qui accepteront de partager leurs données privées avec lui auront un agent d’intelligence artificielle, qui maximisera leur efficacité au quotidien en cherchant des informations pour eux et en réalisant des tâches à leur service. Ainsi, les interactions des consommateurs, puis des clients B2B et B2G, avec les marques pourront-elles être largement traitées par leurs agents : ils consulteront les commentaires des clients pour trouver les meilleurs produits et services, négocieront en leur nom pour obtenir les meilleurs prix, s’assureront que leur expérience est personnalisée selon leurs goûts, et géreront leurs éventuelles récriminations avec les marques concernées. L’entreprise américaine de paiements Stripe a d’ailleurs dévoilé en novembre dernier Stripe Agent Toolkit, une solution qui permet à des agents d’intelligence artificielle de régler des achats. Par exemple, un internaute demande à son agent de trouver un vol vers une certaine destination avec une certaine limite de prix ; l’agent interroge une base de données, choisit un vol, obtient l’autorisation de l’utilisateur et achète le billet. Stripe Agent Toolkit lui permet de payer cet achat en émettant des cartes de débit virtuelles à usage unique.

La démonstration par l’absurde du rôle des agents émane de Whitney Wolfe Herd, la fondatrice et ex-CEO du site de rencontres Bumble, qui a expliqué dans une conférence que, demain, les membres du site n’auraient plus à rencontrer x personnes avant de trouver l’âme sœur : leur agent s’entretiendra avec les agents des individus correspondant aux critères qu’ils auront indiqués dans leur profil et leur proposera les deux ou trois personnes idoines.

Plus globalement, l’intermédiation créée par l’intelligence artificielle générative entre les marques et leurs publics a deux conséquences que l’on a commencé à observer cette année :

  • Quantitativement, une recherche de Gartner indique que le trafic redirigé par les moteurs de recherche vers les sites Internet pourrait chuter de 25% d’ici 2026. C’est la matérialisation du fait que les internautes vont largement se contenter des synthèses prodiguées par les assistants et agents d’intelligence artificielle sans aller plus loin. Inutile, je suppose, de souligner combien une chute de trafic aussi importante en aussi peu de temps représente une menace majeure pour les marques.
  • Qualitativement, celles-ci n’exercent aujourd’hui aucune influence, et encore moins de contrôle, sur ce que les outils d’intelligence artificielle racontent à leur sujet. Or il a déjà été observé, y compris par votre serviteur avec au moins deux de ses clients, des cas où les informations communiquées par des chatbots au sujet de marques étaient en contradiction flagrante avec ce que celles-ci auraient souhaité communiquer.

L’enjeu de médiatisation résulte en premier lieu de ce qui précède : une césure entre les marques et leurs parties prenantes, une confusion entre vrais et faux humains, et des parcours d’attention complètement transformés. Dans ce contexte, il va être non seulement plus difficile, mais aussi plus couteux, d’atteindre la même audience en volume et en qualité.

L’AIO va se développer parallèlement au SEO. (CC) Christophe Lachnitt

A cet égard, nous avons vu apparaître cette année une nouvelle activité, qui va devenir une nouvelle compétence puis un nouveau métier : l’AIO (Artificial Intelligence Optimization). Elle est aux assistants d’intelligence artificielle générative ce que le SEO est aux moteurs de recherche12. Ainsi, par exemple, Profound, une start-up new-yorkaise, teste-t-elle des modèles d’intelligence artificielle générative sur des millions de prompts et examine-t-elle leurs réponses lorsqu’ils sont interrogés sur des marques. Ses clients utilisent ses analyses pour améliorer leurs contenus dans l’optique de leur traitement par lesdits modèles.

Ma présomption à ce sujet est que SEO et AIO ont des logiques opposées : si le premier repose sur une vue micro des contenus créés (incarnée par les mots-clés et le balisage sémantique), le second va, me semble-t-il, être fondé sur une approche macro. Avec l’AIO, il va s’agir d’influencer l’entraînement, la mise à jour et la quête d’informations des grands modèles de langage. Or ceux-ci fonctionnent à partir (i) de l’analyse du contexte des textes qu’ils voient, où ils “étudient“ les relations entre les mots pour reconnaître des paradigmes identifiés dans leurs données d’entraînement, et (ii) des intentions des internautes exprimées à travers les questions qui leur sont posées. Ces deux éléments imposent une approche macro, non seulement de chaque nouveau contenu mais aussi des différents contenus considérés dans leur ensemble.

Naturellement, parallèlement à l’AIO, nous verrons se développer l’AIM (Artificial Intelligence Marketing). Plusieurs acteurs de l’intelligence artificielle générative vont vendre des contenus sponsorisés. A ce jour, il n’est pas prévu qu’ils affectent les réponses des assistants d’intelligence artificielle. Les contenus payants seront positionnés à côté de ces réponses, à la manière de ce que fait déjà Google dans ses AI Overviews, ou influenceront les relances des internautes, à l’instar de ce que teste Perplexity : le “moteur de réponses“, tel qu’il se qualifie, propose aux marques de sponsoriser les questions connexes, qui représentent 40% des requêtes qu’il reçoit, que ses utilisateurs peuvent lui poser après avoir lu sa première réponse.

Une autre évolution à laquelle nous avons assisté cette année a trait à l’émergence de la voix comme moyen d’interfaçage homme-machine, que les démonstrations | de GPT-4o publiées par OpenAI ont spectaculairement mise en exergue. On nous avait promis cette possibilité il y a une grosse dizaine d’années (entre 2011 et 2016) lors des lancements successifs des assistants vocaux Siri (Apple), Cortana (Microsoft), Alexa (Amazon) et Google Assistant. Le problème est que ces outils reposaient sur des scénarios programmés (les “skills“ d’Alexa par exemple), ce qui limitait immensément leur utilité. A l’inverse, l’intelligence artificielle générative dotée d’une interface vocale peut converser naturellement sur n’importe quel sujet dans n’importe quelle situation. Le film “Her“ (2013) est devenu une réalité aussi bien pour ce qui concerne la spontanéité du dialogue entre l’homme et la machine que pour l’attachement émotionnel de celui-là à celle-ci13, mais c’est un autre sujet dont je ne traiterai pas ici.

Par ailleurs, la prolifération de faux humains (cf. supra, “La séduction de faux humains“) induit que le rapport organique entre qualité des contenus et quantité des impressions numériques, qui est déjà faussé par la publicité et l’activation sponsorisée, va l’être plus encore par le rôle des avatars dans le relais des contenus. L’audience, qui n’a jamais fait l’adhésion, la fera encore moins. Incidemment, cela imposera une révision des KPIs en matière de communication numérique et sociale.

Il a été patent à travers les trente dernières années que chaque changement de modèle de diffusion des contenus a imposé des changements dans leur création. Ce fut vrai du numérique, puis du social, puis du mobile. Cela le sera aussi de l’intelligence artificielle générative dans tous ses formats (texte, voix…).

Il suffit d’écouter ou regarder des contenus générés par des intelligences artificielles pour prendre conscience de leur potentiel en matière de désinformation. J’ai d’ailleurs pris l’habitude de dire que Saint-Thomas serait bientôt au chômage, tant nous allons de moins en moins pouvoir croire ce que nous voyons. De fait, nos sens sont sens dessus dessous : seulement trois secondes de l’enregistrement de la voix d’une personne permettent de la cloner artificiellement de manière complètement indétectable avec des outils à la portée de tous. On peut redouter qu’il en soit de même, demain, pour les images vidéo. C’est d’ailleurs du progrès technologique de ces outils couplé avec leur accessibilité croissante au grand public que procède le risque de massification de la désinformation : le moindre individu déçu par une marque disposera bientôt des mêmes moyens de propagande que ceux employés par les Etats. La barrière à l’entrée à la désinformation ne cesse de s’abaisser.

Sur le plan audiovisuel en particulier, toutes les organisations dont des enregistrements de dirigeants sont accessibles en ligne peuvent être potentiellement exposées à des falsifications de leur expression publique. Dans ce contexte, le célèbre avertissement de Mark Twain, selon lequel “un mensonge peut faire le tour de la Terre le temps que la vérité mette ses chaussures“, revêt une acuité sans précédent, et ce d’autant plus que, désormais, la désinformation peut également être personnalisée en fonction de sa cible.

L’intelligence artificielle générative va booster la désinformation comme jamais. (CC) Christophe Lachnitt

Pour autant, nous n’avons pas (encore) vécu l’apocalypse de la désinformation que l’on peut craindre, ce cygne noir qui pourrait prendre la forme d’une attaque de cybersécurité majeure ou de la manipulation d’une élection de premier plan. A cet égard, l’élection présidentielle américaine a certes vu des usages de l’intelligence artificielle générative pour créer de faux contenus, mais ceux-ci sont restés sans grandes conséquences sur le scrutin.

Une élection a certes été manipulée à l’aide de l’intelligence artificielle générative, mais dans un pays moins décisif à l’échelle géopolitique que les Etats-Unis. Lors des dernières élections législatives slovaques, le candidat pro-OTAN fut la cible d’un deepfake audio (un faux fichier généré par une intelligence artificielle qui a tous les atours de la réalité), dans lequel il discutait censément comment acheter des voix pour truquer le scrutin. Ce faux enregistrement circula abondamment, quelques jours avant le vote, sur Facebook, plate-forme qui ne fut certainement pas choisie au hasard par les manipulateurs, car, si les deepfakes vidéo y sont prohibés, les deepfakes audio y sont autorisés (on se demande bien pourquoi). Il est naturellement impossible de déterminer la part exacte de ce deepfake dans le résultat de l’élection, mais il est admis localement qu’il joua un rôle certain dans l’élection du candidat pro-russe.

Pour revenir à la dernière campagne présidentielle américaine en date, il est intéressant de constater que Donald Trump fit du judo avec l’intelligence artificielle générative, en utilisant son existence pour prétendre qu’une vraie photo d’un meeting de Kamala Harris avait été conçue algorithmiquement afin d’attribuer à la candidate un auditoire plus grand qu’il n’était en réalité, ou avancer, en marge du procès intenté par E. Jean Carroll dans lequel il fut reconnu coupable d’agression sexuelle, qu’une vraie photo compromettante de lui avait été générée synthétiquement.

Cette technique pourrait être naturellement utilisée vis-à-vis de marques par des criminels numériques, des concurrents véreux ou des activistes peu regardants. On a aussi vu cette année quelques entreprises être victimes de la manipulation d’un de leurs dirigeants ou salariés avec de faux appels audio ou vidéo, et verser plusieurs millions de dollars aux malfaiteurs.

Les marques risquent de surcroît de faire face à un autre type de manipulation : ce ne sont plus seulement des informations individuelles qui sont manipulées avec l’intelligence artificielle générative, mais aussi des médias entiers. Une recherche a ainsi montré que le nombre de sites d’information partisans conçus pour ressembler à des organes d’information impartiaux avait dépassé le nombre de quotidiens locaux aux Etats-Unis. Les marques sont concernées à la fois eu égard aux sites d’information qu’ils ciblent avec leurs activités de relations presse, mais aussi par le fait qu’il est plus facile de créer un faux site de marque qu’il ne l’est de concevoir un faux site d’information.

Si vous avez aimé l’UGC (user-generated content), vous allez adorer l’intelligence artificielle générative. En effet, le niveau d’infobésité que nous subissons aujourd’hui va nous paraître un âge d’or, demain, lorsque l’intelligence artificielle générative sera utilisée à pleine capacité. La recherche la plus sérieuse à ce sujet prédit ainsi que, à l’horizon 2025-2030, les contenus créés par des humains vont devenir ultra-minoritaires en ligne : 99% à 99,9% des contenus seront générés par des algorithmes.

Les intelligences artificielles génératives vont écraser la production de contenus humaine. (CC) Christophe Lachnitt

Un domaine spécifique de grand intérêt pour les marques où la surinformation se fait déjà sentir est la culture populaire. Quelques chiffres suffisent à prendre conscience du problème : dans les deux semaines qui ont suivi le lancement du service d’intelligence artificielle générateur de musique Udio, dix nouvelles chansons ont été générées chaque seconde par ses utilisateurs, soit 864 000 morceaux par jour, ou 315 millions par an14. Ce chiffre doit être comparé aux 100 à 200 millions de chansons actuellement hébergées sur les grandes plates-formes de streaming musical. De même, créons-nous 34 millions d’images chaque jour avec des outils d’intelligence artificielle.

Chacun va prochainement pouvoir générer instantanément sa propre version des plus célèbres blockbusters en y incarnant le rôle principal et en confiant à ses meilleurs amis les rôles secondaires, changer le final de “Game of Thrones” à sa guise, composer et produire les chansons des Beatles qu’il rêve que les Fab Four aient pu interpréter avant leur séparation ou écrire le roman dont il n’a que le pitch en tête. Mieux, ce sera un jeu d’enfant quasiment gratuit. Le risque porté par cette évolution est la fragmentation de nos Sociétés. Si chacun consomme les contenus qu’il a créés, nous aurons moins de temps à consacrer aux œuvres de toute nature qui contribuent à construire du commun en alimentant nos discussions et constituant des références collectives.

Or, au-delà des artistes, les marques jouent un rôle dans la formation de cette culture populaire. D’ailleurs, le terme “communication” (“communicare” en latin) signifie étymologiquement “mettre en commun”. Les communicants doivent donc prendre leur part dans la mitigation de ce risque sociétal. Il s’agit pour eux de ne pas se laisser totalement absorber par la personnalisation sans limites de leurs activités, et, avec elle, le retour sur investissement sans précédent que leur offrent les intelligences artificielles génératives, et de continuer de proposer à leurs parties prenantes des créations susceptibles de rassembler leur attention. En effet, de même qu’on ne peut pas avoir de débat civique si l’on ne s’accorde pas sur les faits (cf. infra, “Les nouvelles vertus de l’influence“), est-il difficile de faire Société si l’on ne partage pas un minimum de codes culturels communs.

En outre, va se poser pour les marques un colossal enjeu d’émergence de leurs contenus. Celui-ci va être, à mon sens, le plus compliqué à relever pour les directions de la communication sur le plan culturel. En effet, les directions-sœurs15 avec lesquelles elles collaborent les poussent à une production toujours plus intense de contenus plus ou moins intéressants pour les parties prenantes concernées. Les deux causes racines de ce phénomène sont généralement une incompréhension du fonctionnement de l’économie de l’attention et des motivations de politique interne. Cette dérive est, la plupart du temps, plus aigüe encore en communication interne qu’en communication externe.

La qualité des contenus produits par les marques, qui peut s’exprimer à travers plusieurs critères (intérêt, créativité, ciblage, immersivité…), va être d’autant plus décisive qu’une majorité de contenus générés avec des intelligences artificielles le seront à des fins manipulatoires (e.g. clickbait, like farming, spam, trolling, phishing). La qualité moyenne des contenus publiés en ligne, qui n’est déjà pas faramineuse, va donc encore diminuer.

Alors que la créativité humaine n’est pas à son apogée (par exemple, le top 15 du box-office cinématographique américain pour l’année écoulée ne comprend aucune création originale) et que tous les contenus synthétiques non-personnalisés vont se ressembler16, la créativité singulièrement humaine va devenir une denrée de plus en plus précieuse17.

Les capacités de production de contenus personnalisés offertes par l’intelligence artificielle générative offrent un antidote au poison de la surinformation : un contenu personnalisé a plus de chances de capter l’attention de sa cible.

Des exemples tels que celui de l’entreprise américaine de ventes de voitures d’occasion Carvana, qui a produit 1,3 million de vidéos ultra-personnalisées18 en quatre heures pour célébrer son dixième anniversaire auprès de ses clients, en apporte une démonstration éclatante19. D’autres marques utilisent cette capacité de personnalisation différemment, à l’instar de GE Appliances qui a conçu une fonctionnalité (Flavorly) sur son application mobile Smart HQ : elle fournit à ses utilisateurs des recettes personnalisées en identifiant les ingrédients à disposition dans leur réfrigérateur intelligent afin de les utiliser avant qu’ils ne se gâtent. L’objectif est de réduire le gaspillage alimentaire. Le groupe Accenture, quant à lui, a eu recours à l’intelligence artificielle générative pour personnaliser la segmentation et la diffusion de sa newsletter interne, dont le taux de clic est ainsi passé de 6% à 80%.

Cette faculté de personnalisation va aussi influencer le placement de produits. On peut ainsi imaginer que, dans le futur, différents produits seront intégrés dans des séries ou films que les internautes regarderont sur leurs écrans de télévision, d’ordinateurs ou de smartphones par exemple en fonction du pays dans lequel ils se trouvent. De même, les vidéos diffusées sur YouTube pourront-elles inclure nos produits préférés ou rêvés.

Cependant, le recours à l’intelligence artificielle générative à des fins de personnalisation peut aussi produire des effets boomerang étant donné les volumes de contenus concernés. C’est ce que montre la mésaventure vécue par la loterie de l’Etat de Washington qui a dû supprimer une application créée dans le cadre d’une campagne de communication. Elle utilisait une intelligence artificielle générative pour montrer aux internautes ayant chargé un selfie des rêves qu’ils pourraient réaliser s’ils gagnaient le gros lot. Une Américaine se trouva ainsi représentée nue sur une plage exotique et alerta les médias.

Si je réfléchis à l’environnement dans lequel les marques opèrent en termes d’influence, j’envisage trois époques.

La première est analogique. Le savoir était alors détenu et transmis par des experts. Le mode de communication privilégié était la conversation – conversations avec des médias (presse écrite, radio, télévision) qui s’adressaient à nous individuellement dans un cadre collectif et conversations dans la vie réelle avec nos proches. Sur le plan sociétal, il était possible de “faire nation“, car les opinions se forgeaient à partir d’un consensus établi sur les faits.

L’influence médiatique a radicalement évolué depuis trente ans. (CC) Christophe Lachnitt

La deuxième ère est sociale. En matière de savoir, une personne est jugée crédible non pas lorsqu’elle connaît un sujet, mais lorsqu’elle connaît celui ou celle qui en juge : quand les internautes découvrent un article sur un réseau social, ils évaluent sa fiabilité en fonction de la personne ou l’organisation qui l’a partagé et non de celle qui l’a écrit. En d’autres termes, la crédibilité rationnelle héritée des Lumières a fait place à une crédulité relationnelle. La communication, elle, est dominée sur les réseaux sociaux par le phénomène des chambres d’écho : nous communiquons très majoritairement avec des internautes qui font écho à nos opinions et croyances. Le résultat sociétal est que, comme l’a souligné l’historien Yuval Noah Harari, nous disposons des outils de communication les plus sophistiqués de l’histoire de l’Humanité et, pourtant, nous n’avons jamais aussi mal communiqué : nous ne sommes même plus d’accord sur les faits les plus élémentaires (Qui a gagné l’élection présidentielle américaine de 2020 ? Les vaccins sont-ils dangereux ? Etc.). Le corps social est désormais constitué de tribus, voire de clans.

La troisième époque est celle que nous risquons de vivre demain – je décris là bien évidemment un scénario qui n’est pas un souhait. Nous risquons d’être assotés de notre propre savoir, même lorsqu’il est nul, et de nos propres idées, même lorsqu’elles sont inconsidérées, enivrés que nous serons de l’approbation des milliers de faux humains qui vont nous glorifier pour nous faire acheter tel produit ou voter pour tel candidat. La communication pourrait alors être constituée de fausses intimités de masse entre des agents d’intelligence artificielle et des humains (cf. supra, “La séduction de faux humains“). Le corps social serait alors plus disloqué encore, chaque individu trouvant dans la sphère numérique la validation de ses vues même les plus insensées ou dangereuses. La “fabrique du consentement“ chère à Walter Lippmann serait alors encore plus difficile à mettre en œuvre que depuis l’apparition des médias (a)sociaux.

La communication interne représente un enjeu critique pour les organisations de toute nature.

En effet, le “public“ interne est plus exigeant que les publics externes, car il a une relation plus émotionnelle et une expérience plus intime de son employeur qu’eux. En outre, depuis l’avènement de la révolution numérique, les collaborateurs d’une organisation ne sont plus des publics captifs : il leur suffit d’ouvrir leur ordinateur ou de sortir leur smartphone pour s’échapper du système médiatique de leur employeur. Mais la majorité des dirigeants croient encore que leur parole interne est performative (il leur suffirait de s’exprimer pour que leurs collaborateurs les écoutent et s’engagent conformément à leurs propos). En outre, les budgets d’activation de communication sont souvent encore trop disproportionnés entre l’externe et l’interne.

Aussi, si le rôle de la communication interne est de contribuer, pour reprendre les célèbres termes d’Ernest Renan, à faire en sorte que l’existence d’une organisation soit“un plébiscite de tous les jours“, sa tâche est-elle de plus en plus délicate.

L’avènement de l’intelligence artificielle générative ne fait qu’ajouter à cette difficulté. De fait, les huit autres enjeux abordés ci-dessus et ci-dessous concernent aussi la communication interne et participent de sa complexité croissante.

J’en vois deux autres qui lui sont propres.

Le premier a trait à la désinformation : lorsque des informations douteuses circuleront à propos d’une marque, il serait souhaitable que ses collaborateurs considèrent les médias internes de celle-ci comme leur référence ultime en matière de factualité pour déterminer en dernier ressort ce qui est vrai ou faux à son sujet. Mais, pour que lesdits collaborateurs aient cette réaction, faudra-t-il encore que les médias internes soient à la fois crédibles et attractifs. En effet, s’ils sont crédibles mais pas attractifs, les collaborateurs ne les consommeront pas au quotidien et n’auront donc peut-être pas le réflexe de les consulter une fois l’information suspecte diffusée. Il me semble que cet idéal médiatique n’est pas la situation observable au sein de toutes les organisations.

Auriez-vous envie, demain, de passer votre entretien d’évaluation avec l’agent d’intelligence artificielle de votre manager ? (CC) Christophe Lachnitt

Le second enjeu propre à la communication interne concerne la communication managériale. Celle-ci est, de tout temps, la composante la plus importante d’une stratégie de communication interne. En effet, le manager est le seul “média“ interne en mesure de (i) relier le récit de l’organisation globale à l’activité quotidienne de ses collaborateurs, (ii) savoir comment aborder chaque collaborateur pour faire sauter ses éventuelles résistances au changement, et (iii) écouter les retours d’expérience, perceptions et questions de ses équipes. L’irruption de l’intelligence artificielle générative rend le rôle des managers plus critique encore : en effet, ainsi que je l’ai souligné plus haut (cf. supra, “L’écrasante inertie de la surinformation“), la singularité humaine va être de plus en plus recherchée alors que la grande majorité des expériences de contenus synthétiques vont tendre à se ressembler. Or je suis prêt à parier que, demain, des managers vont déléguer à leur agent d’intelligence artificielle le management de ceux de leurs collaborateurs qu’ils estiment le moins (“Vois cela avec mon agent“). Il est donc important, pour prévenir l’occurrence de ce phénomène, que la communication managériale soit (re)mise au premier plan des priorités des managers.

Sur le plan créatif, l’intelligence artificielle ne connaît pas de limites : elle permet de faire tout et n’importe quoi. L’enjeu est d’éviter de faire n’importe quoi en matière de cohérence de marque et d‘éthique. Deux marques nous ont fourni cette année l’exemple et le contre-exemple de l’approche à adopter à cet égard.

La première est Dove (Unilever), qui est connue pour appliquer, depuis plusieurs décennies, sa raison d’être consistant à mettre en valeur toutes les formes de beauté humaine. La marque s’est engagée à ne jamais utiliser l’intelligence artificielle générative pour faire figurer de faux humains dans ses publicités. Elle a même publié un manuel de 72 pages sur l’utilisation optimisée de l’intelligence artificielle pour refléter la beauté dans toute sa diversité.

Le contre-exemple nous est prodigué par Levi’s qui a testé le recours à des mannequins générés par une intelligence artificielle pour aider ses clients, en respectant leur diversité physique, à tester virtuellement ses vêtements sur son site web. La marque a été morigénée pour ne pas avoir fait appel à de vrais humains plutôt que d’avoir utilisé de faux humains générés synthétiquement. Ce faisant, elle a montré que la quête de diversité n’est pas toujours synonyme d’inclusion.

La dizaine d’enjeux que j’ai détaillés dans les lignes qui précèdent signalent que l’intelligence artificielle générative présente davantage de risques que d’opportunités pour les marques.

Je suis convaincu que c’est l’inverse pour les communicants. Elle leur rend en effet au moins cinq services :

  • Elle place la communication plus encore au cœur des enjeux stratégiques.
  • Elle procure aux communicants une productivité et une personnalisation accrues.
  • Elle leur permet de s’exonérer des tâches les plus rébarbatives.
  • Elle leur libère du temps pour se consacrer aux missions à plus forte valeur ajoutée.
  • Elle leur offre des possibilités d’expérimentation créative gratuites.

Les progrès applicatifs de l’intelligence artificielle générative, qui, comme Louis Aragon, “ment vrai“, ont jusqu’à présent été spectaculaires. La plaisanterie affirmant qu’une moitié des grands modèles de langage transformerait des bullet points en emails et que l’autre moitié transformerait des emails en bullet points n’est plus que le vestige d’une époque révolue. Désormais, 75% des créatifs travaillant dans le divertissement ou le marketing affirment que l’intelligence artificielle générative leur permet de créer du travail de meilleure qualité.

Le défi, pour les communicants, est donc d’adopter cette nouvelle technologie, c’est-à-dire d’apprendre à collaborer avec elle et de faire évoluer leurs méthodes de travail individuelles et collectives, au juste rythme. En effet, encore plus qu’avec le numérique, tout retard pris à l’égard de l’intelligence artificielle générative sera-t-il fort couteux, en temps et en efforts, à rattraper.

La capacité des communicants de collaborer avec l’intelligence artificielle générative est déjà un enjeu d’employabilité. (CC) Christophe Lachnitt

L’auteur britannique Francis Macdonald Cornford a écrit que “rien n’est jamais fait tant que tout le monde n’est pas convaincu qu’il faille le faire, et qu’il l’est depuis si longtemps qu’il est temps de faire autre chose“. Je souhaite de tout cœur, car je suis convaincu de l’utilité sociétale de notre profession, que les communicants lui donnent tort, tant qu’ils bénéficient d’atouts cognitifs, émotionnels et énergétiques par rapport aux intelligences artificielles génératives.

Il s’agit d’ailleurs d’un enjeu d’employabilité : 71% des milliers de cadres dirigeants interrogés récemment par Microsoft et LinkedIn dans 31 pays, déclarent qu’ils préféreraient embaucher un candidat moins expérimenté possédant des compétences en intelligence artificielle plutôt qu’un candidat plus expérimenté n’en ayant pas et 66% ne recruteraient pas des candidats n’ayant pas de compétences en intelligence artificielle.

Parmi les entreprises et institutions que j’accompagne, j’ai senti le niveau d’engagement avec l’intelligence artificielle générative fortement progresser au cours de l’année 2024. Après une période d’observation et de questionnement naturelle, il me semble que nous sommes entrés dans une phase de mobilisation. Celle-ci devra couvrir trois aspects : la stratégie, la chaîne de valeur et les talents.

Aujourd’hui, aucun communicant ne risque d’être remplacé par une intelligence artificielle générative, car ce qui distingue encore les machines des hommes n’est pas ce que nous faisons, mais ce que nous sommes. Nous sommes émotionnels, empathiques et éthiques. Nous sommes enclins à donner du sens aux choses de la vie. Nous sommes aptes à exercer notre esprit critique et notre intuition en fonction d’un système de pensée global. Nous sommes à même d’avoir des intentions stratégiques et créatives. Nous sommes capables de poser les bonnes questions et de répondre à des questions que l’on ne nous pose pas. Nous sommes doués de bon sens. Et nous sommes dotés d’un cerveau qui ne consomme que 20 watts d’énergie et peut apprendre avec un minimum de données.

Pour autant, après-demain, si ses progrès continuent et que les prédictions les plus crédibles se réalisent, l’intelligence artificielle générative remplacera peut-être les communicants qui auront refusé de changer.

Quoi qu’il en soit, nous n’en sommes qu’au tout début de la valorisation de l’intelligence artificielle générative. Comme avec chaque révolution technologique, nous commençons par reproduire les usages courants avec la technologie précédente avant d’inventer de nouvelles applications (je suis assez âgé pour me souvenir de ceux qui, il y a une petite trentaine d’années, faisaient imprimer les emails pour y répondre par fax). A cet égard, la loi d’Amara20 pose que nous avons tendance à surestimer les effets d’une nouvelle technologie à court terme et à les sous-estimer sur le long terme. L’intelligence artificielle générative n’y dérogera pas.

Dans ce contexte, la démarche des communicants vis-à-vis des intelligences artificielles génératives doit être positive, éloignée de toute logique de “marque ou crève“. Il appartient aux communicants de se réinventer pour s’affirmer comme la version premium de leur profession aux côtés des assistants et agents d’intelligence artificielle générative, de même que les artisans du luxe, par exemple, ne seront jamais remplacés, pratiquement et symboliquement, par des robots.

Dans cette optique, une erreur funeste serait de considérer que la virtuosité dans “l’art du prompt“ vaut quitus sur la stratégie et les contenus.

Pour reprendre ma métaphore favorite, je suis convaincu que les communicants ne devront pas se contenter, demain, d’agir en décorateurs, mais ambitionner d’être des architectes. Alors que les communicants-architectes se soucieront de la structure de l’immeuble (la stratégie, les partis-pris et la cohérence globale de la communication), les communicants-décorateurs se limiteront à l’agencement de chacune de ses pièces (la création de chaque expression ou touchpoint). Or, de plus en plus, ces activités de communication vont être partiellement ou totalement assumées par des outils d’intelligence artificielle générative. C’est pourquoi le communicant de demain devra être un stratège, c’est-à-dire qu’il devra adopter une perspective périphérique de son concours à la stratégie de sa marque en pensant et agissant toujours à 360 degrés.

Demain, les communicants seront soit des architectes, soit des décorateurs. (CC) Christophe Lachnitt

Ceux qui n’opéreront pas transversalement risqueront de perdre leur valeur ajoutée par rapport à l’intelligence artificielle générative. Surtout, ils renonceront à manifester leur humanité face à la supposée toute-puissance de la machine. En effet, la communication est une activité qui vise des objectifs rationnels à travers des vecteurs émotionnels. Les émotions sont donc consubstantielles à toute stratégie déployée dans cette discipline. 

Dès lors, les communicants qui délaisseraient la stratégie, et les contenus dont elle se nourrit, mettraient beaucoup plus en gage que leur employabilité : leur identité.

  1. DALL-E 2 fut lancé le 6 avril 2022 et ChatGPT le 30 novembre 2022. Malgré l’aspect hautement spectaculaire de la création visuelle représenté par celui-là, c’est celui-ci qui créa une commotion mondiale, ce qui rend compte de l’importance du langage dans notre identité humaine. ↩︎
  2. Il a réalisé plusieurs contributions significatives au champ de l’apprentissage profond, et fut l’un des co-fondateurs d’OpenAI, dont il fut le “Chief Scientist“ et qu’il a quittée il y a quelques mois pour créer sa propre entreprise, Safe SuperIntelligence, dédiée, comme son nom l’indique, au développement d’une intelligence artificielle aussi performante que sécurisée. ↩︎
  3. Les données synthétiques créées par des intelligences artificielles génératives ne sont pas aussi pertinentes que les données d’origine humaine pour entraîner de nouvelles générations de modèles, en particulier parce que leur utilisation à cette fin pérennise les hallucinations et biais qu’elles contiennent, et gèle la création humaine dans un état fixé à la date de leur exploitation. ↩︎
  4. Ce qui expliquerait aussi le rapprochement des performances des modèles conçus par les différents acteurs du secteur. ↩︎
  5. Selon le Larousse, une confabulation est un “trouble de la mémoire se manifestant comme une fabulation dite ‘compensatrice’ des lacunes amnésiques intéressant surtout le présent ou le passé récent, lors des amnésies globales du type syndrome de Korsakov“. ↩︎
  6. Il convient également de noter que l’intelligence artificielle générative pourrait permettre d’inventer de nouvelles sources d’énergie inépuisables et de trouver des solutions hors des capacités de réflexion humaines pour lutter contre le changement climatique. ↩︎
  7. J’emploie ici le terme “marque“ dans son acception la plus large, sachant donc qu’il peut faire référence à une entreprise, à une organisation publique, à une personnalité, etc. ↩︎
  8. Le dixième ne peut être abordé de manière générique et doit être traité dans le cadre de discussions avec des directions de la communication. ↩︎
  9. Il suffit, pour s’en convaincre, de se référer à l’écart entre les engagements respectifs créés par une organisation et ses membres : alors que seulement 3% des collaborateurs partagent des contenus au sujet de leur employeur sur les réseaux sociaux, ils y produisent en moyenne une augmentation de 30% de l’engagement total de l’entreprise concernée. Demain, les marques devront prendre en compte les activités de faux ambassadeurs. ↩︎
  10. Entrepreneur américain du dix-neuvième siècle dans la grande distribution. ↩︎
  11. Selon la classification de référence de Gartner. ↩︎
  12. Il faut également mentionner que l’intelligence artificielle générative présente une opportunité conséquente pour le SEO : l’automatisation du travail manuel de référencement. ↩︎
  13. Le compagnonnage avec des intelligences artificielles génératives est la deuxième application la plus populaire de cette technologie derrière les assistants. ↩︎
  14. Incidemment, Google a créé un générateur de musique, dénommé Orca, capable d’imiter si pertinemment des artistes humains qu’il ne le publia pas par crainte des répercussions juridique de son invention. ↩︎
  15. Leurs business partners ou clients internes selon la dénomination utilisée dans les organisations. ↩︎
  16. Etant donné que la création de contenus par des intelligences artificielles génératives sollicités avec des mauvais prompts est moyennée. ↩︎
  17. D’ores et déjà, 54% des posts publiés en anglais sur LinkedIn ont été rédigés par une intelligence artificielle. ↩︎
  18. Carvana ne s’est pas contenté d’ajouter un synthé avec le nom du client au début de chaque vidéo, mais a raconté et illustré une histoire personnalisée pour chacun d’eux. ↩︎
  19. Je ne sais cependant pas comment la marque a managé le risque d’impair émotionnel contenu dans une telle productivité. Imaginons par exemple que ses intelligences artificielles génératives aient mis en scène dans une vidéo un couple qui a divorcé avec fracas ou dont l’un des époux est décédé depuis l’achat de leur voiture. ↩︎
  20. Elle tire son nom de Roy Amara, un chercheur et futuriste américain. ↩︎