L’algorithme ne vous montre pas ce que vous aimez — il vous apprend à aimer ce qu’il montre
Il faut comprendre une chose fondamentale sur le fonctionnement de TikTok pour saisir pourquoi des fruits qui parlent peuvent devenir un phénomène culturel mondial. L’algorithme de TikTok ne répond pas à vos préférences. Il les fabrique.
Le système de recommandation de la plateforme est conçu pour détecter les micro-signaux d’engagement — le temps que votre œil reste fixé sur une image, la fraction de seconde d’hésitation avant de scroller, le léger mouvement du pouce qui ralentit. Et à partir de ces signaux infimes, il construit votre prochain fil d’actualité, brique par brique, comme un dealer qui ajuste la dose.
Les fruits IA ne sont pas devenus viraux parce que les gens voulaient voir des bananes amoureuses. Ils sont devenus viraux parce que l’algorithme a détecté que ce type de contenu provoquait des temps de visionnage anormalement élevés — et il a donc inondé les flux avec.
Le piège de la dissonance cognitive agréable
Pourquoi reste-t-on scotché devant une fraise qui pleure ? La réponse tient en deux mots : dissonance cognitive. Votre cerveau sait que c’est absurde. Il sait que c’est faux. Il sait qu’une banane ne peut pas avoir le cœur brisé. Et pourtant, quelque chose dans la mise en scène émotionnelle — les yeux humides, la voix tremblante, la musique de fond — active les mêmes circuits neuronaux que ceux qui s’allument devant un vrai drame humain.
C’est exactement ce qui rend le phénomène si pernicieux. Le contenu IA ne vous demande pas d’y croire. Il vous demande simplement de ressentir. Et votre système limbique, ce vieux mécanisme de survie hérité de cent mille ans d’évolution, ne fait pas la différence entre une vraie émotion et une émotion manufacturée par un modèle de langage.
Et pourtant, la différence est abyssale.
Anatomie d'un empire de bouillie numérique
Comment on fabrique un Bananito en 47 secondes
Voici ce qu’il faut pour créer une vidéo de fruit IA dramatique en 2026 : un ordinateur, un accès à un générateur d’images IA, un synthétiseur vocal, et environ 47 secondes de travail humain. Le reste — le scénario, l’animation, les expressions faciales, la bande-son émotionnelle — est entièrement automatisé.
Le coût de production ? Quasi nul. Le potentiel de revenus publicitaires avec des centaines de millions de vues ? Colossal. L’équation est si déséquilibrée qu’elle rend toute forme de création humaine économiquement irrationnelle aux yeux des plateformes.
Un illustrateur met huit heures à dessiner un personnage. Un scénariste met des semaines à écrire un épisode de série. Un créateur TikTok humain met des heures à filmer, monter, calibrer une vidéo. Et tout ça pour récolter moins de vues qu’une banane générée en moins d’une minute.
L’économie du slop : qui gagne, qui perd
Les comptes qui publient ces vidéos de fruits IA ne sont pas des artistes. Ce ne sont même pas, la plupart du temps, des individus identifiables. Ce sont des fermes à contenu — des opérations industrielles, souvent basées dans des pays où le coût de la main-d’œuvre numérique est dérisoire, qui produisent des centaines de vidéos par jour et les déversent sur toutes les plateformes simultanément.
Leur modèle économique est simple : volume, volume, volume. Sur mille vidéos publiées, une seule a besoin de devenir virale pour rentabiliser l’ensemble de l’opération. Et quand l’algorithme récompense systématiquement ce type de contenu, le ratio devient encore plus favorable.
Qui perd dans cette équation ? Tout le monde. Les créateurs humains, dont le travail est noyé sous un tsunami de bouillie automatisée. Les spectateurs, dont l’attention est capturée par du contenu conçu pour stimuler sans nourrir. Et les plateformes elles-mêmes, qui scient la branche sur laquelle elles sont assises en dégradant la qualité de l’expérience utilisateur à un rythme vertigineux.
Le mot que personne n'ose prononcer : addiction manufacturée
Quand la dopamine remplace le sens
Il existe un terme en neurosciences pour décrire ce que les fruits IA font à votre cerveau : le détournement dopaminergique. Chaque rebondissement du scénario — Bananito va-t-il choisir la fraise ou la mangue ? — déclenche une micro-décharge de dopamine, cette molécule du plaisir et de l’anticipation qui a permis à nos ancêtres de survivre en les poussant à explorer, à chercher, à vouloir savoir ce qui vient ensuite.
Le problème, c’est que ce mécanisme a été conçu pour nous aider à trouver de la nourriture et à éviter les prédateurs — pas pour nous garder hypnotisés devant une histoire d’amour entre agrumes virtuels à trois heures du matin.
Le Dr Judson Brewer, neuroscientifique et directeur de recherche à l’université Brown, a documenté comment les boucles de récompense numérique exploitent les mêmes circuits que les substances addictives. La seule différence, c’est que le dealer est un algorithme, la substance est du contenu, et la seringue est un écran de 6,7 pouces que vous portez dans votre poche.
Les enfants en première ligne
Voici la partie que les dirigeants de TikTok préféreraient que vous ne lisiez pas. Le public principal des vidéos de fruits IA n’est pas constitué d’adultes blasés qui scrollent par ennui pendant leur pause déjeuner. Ce sont des enfants. Des préadolescents. Des cerveaux en pleine formation dont les circuits de pensée critique ne sont pas encore développés.
Un enfant de neuf ans ne regarde pas Bananito avec la distance ironique d’un adulte qui sait que c’est de la bouillie algorithmique. Il regarde Bananito comme il regarderait un dessin animé. Il s’attache. Il prend parti. Il commente. Il revient le lendemain pour voir la suite. Et son cerveau, à chaque visionnage, renforce les connexions neuronales qui associent ce type de stimulation passive à du plaisir.
On est en train de câbler une génération entière pour qu’elle préfère la bouillie émotionnelle générée par machine à toute forme de narration humaine authentique. Et on le fait en plein jour, sous les yeux de tout le monde, en appelant ça un trend amusant.
Love Island, version potager dystopique
Le format téléréalité, dernière frontière de l’IA
Ce n’est pas un hasard si les fruits IA ont adopté le format téléréalité romantique. Le genre est, par nature, la forme narrative la plus facile à simuler par une intelligence artificielle. Pourquoi ? Parce que la téléréalité repose sur un nombre limité de patterns émotionnels — jalousie, trahison, réconciliation, coup de foudre, rupture — qui se répètent à l’infini selon des formules prévisibles.
Un modèle de langage n’a même pas besoin d’être sophistiqué pour générer ce type de scénario. Il lui suffit d’avoir ingéré quelques saisons de Love Island, de Les Marseillais ou de Bachelor pour produire des variations infinies sur les mêmes archétypes : le séducteur, la rivale, le cœur brisé, le retour surprise.
Le fait que ces archétypes soient incarnés par des fruits plutôt que par des humains ne change rien à l’efficacité de la formule. C’est même un avantage : le caractère absurde du visuel crée une couche supplémentaire d’engagement. On regarde parce que c’est ridicule. On reste parce que c’est addictif.
La mort silencieuse du scénariste
Pendant que Bananito accumule ses millions de vues, des scénaristes humains — des gens qui ont étudié leur art pendant des années, qui maîtrisent les subtilités de la construction dramatique, qui savent comment créer des personnages que l’on porte en soi pendant des décennies — ne trouvent plus de travail.
La grève des scénaristes de Hollywood en 2023 portait déjà sur cette question. Trois ans plus tard, la réponse est arrivée, et elle est encore plus brutale que ce que les grévistes redoutaient. L’IA n’a pas remplacé les scénaristes dans les studios. Elle a créé un univers parallèle entier où les scénaristes ne sont même pas nécessaires — un univers qui attire davantage d’attention que tout ce que Hollywood produit.
Et pourtant, personne ne manifeste devant les bureaux de TikTok.
Le caniveau algorithmique a un modèle économique
Suivez l’argent, pas les fruits
Chaque vidéo de fruit IA qui accumule des millions de vues génère des revenus publicitaires. Ces revenus alimentent les fermes à contenu qui produisent davantage de vidéos. Ces vidéos génèrent davantage de vues. La boucle se referme. Le serpent se mord la queue, et à chaque rotation, il grossit.
Mais le vrai argent n’est pas dans les publicités qui s’affichent avant la vidéo d’une banane amoureuse. Le vrai argent est dans les données.
Chaque seconde que vous passez à regarder Bananito est une seconde de données comportementales que TikTok collecte, analyse et monétise. Votre temps de visionnage. Vos réactions. Le moment précis où vous avez failli scroller mais avez finalement continué à regarder. Tout est enregistré, tout est exploitable, tout a une valeur marchande.
Les fruits IA ne sont pas un produit. Vous êtes le produit. Les fruits IA sont juste le piège le plus efficace jamais conçu pour vous garder immobile pendant que vos données sont extraites.
TikTok sait. TikTok ne fait rien.
TikTok a les outils pour détecter le contenu généré par IA. La plateforme dispose de systèmes de détection sophistiqués, d’équipes de modération, de politiques officielles sur le contenu synthétique. Et pourtant, les vidéos de fruits IA prolifèrent sans la moindre friction.
Pourquoi ? Parce qu’un contenu qui génère des centaines de millions de vues est un contenu qui génère des revenus. Et dans l’économie de l’attention, les revenus passent avant tout — avant la qualité, avant la santé mentale des utilisateurs, avant la vérité elle-même.
La modération de TikTok est conçue pour éliminer les contenus dangereux. Mais une banane qui drague une fraise n’est pas dangereuse au sens classique du terme. Elle ne viole aucune loi. Elle ne propage aucune désinformation factuelle. Elle ne montre aucune violence. Elle fait quelque chose de bien pire : elle normalise l’idée que le contenu n’a pas besoin d’être humain pour mériter votre attention.
Le vrai drame n'est pas dans la vidéo — il est dans le miroir
Ce que nos clics disent de nous
Il serait facile de blâmer l’algorithme. De pointer du doigt les fermes à contenu. De dénoncer TikTok. Et tout cela serait justifié. Mais il y a une question plus inconfortable que personne ne veut poser : pourquoi est-ce que ça marche ?
Pourquoi est-ce que des dizaines de millions d’êtres humains, dotés de conscience, de libre arbitre et d’un accès illimité à toute la connaissance jamais produite par l’humanité, choisissent de passer leur temps à regarder des fruits artificiels vivre des drames sentimentaux préfabriqués ?
La réponse est dérangeante. Le contenu IA ne crée pas un besoin — il comble un vide. Un vide de connexion sociale. Un vide de sens. Un vide narratif dans des vies où la complexité du réel est devenue si écrasante que la simplicité d’un drame entre agrumes représente un refuge émotionnel accessible, peu coûteux en énergie cognitive, et immédiatement gratifiant.
La falaise de l’attention
Le chercheur en économie de l’attention Tim Wu, auteur de The Attention Merchants, l’avait prédit dès 2016 : la dernière frontière de l’exploitation commerciale, ce ne serait ni la terre, ni le pétrole, ni même les données. Ce serait l’attention humaine elle-même — cette ressource finie, non renouvelable, dont nous disposons chacun d’environ 16 heures par jour éveillé.
Les fruits IA représentent l’étape suivante de cette colonisation. Un contenu tellement facile à consommer, tellement dépourvu de friction intellectuelle, qu’il capture l’attention sans même que le spectateur en ait conscience. Vous ne décidez pas de regarder Bananito. Vous vous retrouvez en train de le regarder. Et quand vous relevez la tête, vingt minutes ont disparu.
Vingt minutes que vous n’avez pas passées à lire. À penser. À créer. À parler à quelqu’un de réel.
Quand l'absurde devient norme, c'est la norme qui est en danger
Le syndrome de la grenouille et de l’eau tiède, version numérique
Il y a cinq ans, si vous aviez dit à quelqu’un que les vidéos les plus regardées sur la plus grande plateforme de divertissement au monde seraient des fruits générés par IA dans des situations amoureuses, on vous aurait ri au nez. On vous aurait dit que c’était une dystopie satirique, un épisode de Black Mirror trop caricatural pour être crédible.
Et pourtant, nous y sommes. Et personne ne rit.
C’est précisément le mécanisme de la normalisation. Chaque étape, prise isolément, semble anodine. Des filtres amusants. Des deepfakes de célébrités. Des avatars IA. Des animaux qui parlent. Des fruits qui draguent. Chaque étape franchie rend la suivante acceptable. Et quand vous relevez la tête pour mesurer la distance parcourue, vous réalisez que vous êtes très, très loin du point de départ.
La question n’est plus : comment en est-on arrivé là ? La question est : où est-ce que ça s’arrête ?
Le précédent historique que personne ne cite
Dans les années 1950, la télévision américaine a traversé une crise similaire. Les quiz shows truqués — Twenty-One, The $64,000 Question — captivaient des dizaines de millions de téléspectateurs. Les audiences étaient astronomiques. Les annonceurs étaient ravis. Et tout le monde savait, plus ou moins confusément, que quelque chose ne tournait pas rond.
Quand le scandale a éclaté et que le public a découvert que les résultats étaient truqués, la confiance dans le medium télévisuel a subi un dommage dont certains historiens estiment qu’il n’a jamais été pleinement réparé.
Les fruits IA de TikTok sont le quiz show truqué de notre époque. La différence, c’est que cette fois, tout le monde sait que c’est truqué — et que personne ne s’en soucie.
L'industrie créative regarde le tsunami arriver
Les chiffres de la submersion
Selon les estimations les plus conservatrices, le contenu généré par IA représente désormais entre 15 et 25 % de tout ce qui est publié quotidiennement sur les principales plateformes sociales. Sur TikTok spécifiquement, certains analystes estiment que ce pourcentage dépasse les 30 % si l’on inclut les vidéos partiellement assistées par IA.
À ce rythme, la majorité du contenu visible sur les réseaux sociaux sera d’origine synthétique avant la fin de la décennie. Ce n’est pas une prédiction alarmiste — c’est une projection linéaire basée sur les taux de croissance actuels.
Pour les créateurs humains, cela signifie une chose très concrète : ils ne sont plus en compétition avec d’autres humains. Ils sont en compétition avec des machines capables de produire en une minute ce qui leur prend des heures, à un coût infiniment inférieur, avec un taux de viralité souvent supérieur.
La tragédie de l’artisan face à l’usine
Imaginez un ébéniste qui passe six mois à sculpter une table en bois massif. Chaque détail est pensé. Chaque jointure est parfaite. Le résultat est un objet d’art. Puis un jour, une usine s’installe en face de chez lui et commence à produire des tables en plastique qui ressemblent, de loin, à des tables en bois — pour un centième du prix.
La plupart des clients choisissent la table en plastique. Non pas parce qu’ils pensent qu’elle est meilleure — ils savent qu’elle ne l’est pas — mais parce que la différence de qualité ne justifie pas, à leurs yeux, la différence de prix.
C’est exactement ce qui se passe sur TikTok. Et la table en plastique, cette fois, c’est une banane qui fait du charme.
Ce que les plateformes devraient faire — et ne feront pas
Les solutions qui existent mais qui coûtent trop cher
La technologie pour étiqueter systématiquement le contenu généré par IA existe. Les watermarks numériques — des signatures invisibles intégrées dans chaque image ou vidéo produite par un générateur IA — sont techniquement au point. Des entreprises comme Google, OpenAI et Adobe ont développé des standards. Le consortium C2PA propose un cadre d’authentification complet.
Mais aucune de ces solutions n’est obligatoire. Aucune loi n’impose aux plateformes de les implémenter de manière systématique. Et aucune plateforme n’a d’incitation économique à le faire, puisque l’étiquetage du contenu IA réduirait l’engagement — et donc les revenus.
C’est le paradoxe fondamental : les outils de transparence existent, mais les utiliser reviendrait, pour les plateformes, à scier la branche sur laquelle elles sont assises. Et dans un marché où chaque point de pourcentage d’engagement se traduit en milliards de dollars de capitalisation boursière, personne ne veut être le premier à scier.
Le vide réglementaire est un choix politique
L’Union européenne, avec son AI Act entré en application progressive depuis 2024, a posé les premières pierres d’un cadre réglementaire. Mais le texte est lent, les exemptions sont nombreuses, et l’application reste embryonnaire. Aux États-Unis, le vide est encore plus béant : aucune législation fédérale ne régule spécifiquement le contenu synthétique sur les réseaux sociaux.
Et pourtant, si un industriel alimentaire vendait des produits sans étiquetage, sans liste d’ingrédients, sans mention de la présence d’additifs, il serait poursuivi en justice dans les 24 heures. Pourquoi accepte-t-on pour la nourriture cognitive ce que l’on refuserait catégoriquement pour la nourriture physique ?
Parce que les lobbies technologiques sont plus puissants que les lobbies alimentaires. Parce que les élus qui devraient légiférer sont eux-mêmes dépendants des plateformes pour leur communication politique. Et parce que le public, anesthésié par le divertissement permanent, n’a pas encore compris que cette question le concerne directement.
La question que Bananito ne posera jamais
Qu’est-ce qu’on perd quand on ne sait plus distinguer le vrai du fabriqué ?
Il y a une expérience psychologique célèbre, menée dans les années 1970 par le chercheur Stanley Milgram, dans laquelle des participants acceptaient d’infliger ce qu’ils croyaient être des chocs électriques douloureux à d’autres personnes, simplement parce qu’une figure d’autorité le leur demandait. L’expérience démontrait la facilité terrifiante avec laquelle les êtres humains abdiquent leur jugement face à un cadre institutionnel.
Les algorithmes de recommandation sont la nouvelle figure d’autorité. Ils ne portent pas de blouse blanche. Ils ne donnent pas d’ordres explicites. Mais ils façonnent, seconde après seconde, ce que vous voyez, ce que vous ressentez, et progressivement, ce que vous pensez. Et contrairement à l’expérimentateur de Milgram, ils n’ont aucune conscience morale.
Quand une génération entière grandit dans un environnement où la frontière entre contenu humain et contenu synthétique est invisible, ce n’est pas seulement la notion d’authenticité qui s’effondre. C’est la capacité même à évaluer la réalité qui se dégrade.
Le test de Turing inversé
On a longtemps posé la question : une machine peut-elle penser comme un humain ? C’était le test de Turing. La question pertinente en 2026 est exactement l’inverse : un humain peut-il encore distinguer ce qui est humain de ce qui ne l’est pas ?
Et si la réponse est non — si des centaines de millions de personnes regardent du contenu synthétique en sachant qu’il est synthétique et en s’en moquant — alors ce n’est pas la machine qui a passé le test. C’est l’humain qui l’a échoué.
Bananito ne passera jamais le test de Turing. Il n’en a pas besoin. Il a réussi quelque chose de bien plus inquiétant : il a prouvé que le test n’a plus d’importance.
Et maintenant, qu'est-ce qu'on fait ?
Pas de recette miracle — mais des gestes de résistance
La première chose à faire est de nommer le problème. AI slop. Bouillie algorithmique. Appelez ça comme vous voulez, mais cessez de l’appeler un trend. Un trend, c’est une mode passagère. Ce qui se passe sur TikTok est un changement structurel dans la manière dont le contenu est produit, distribué et consommé. C’est une mutation, pas une mode.
La deuxième chose est de protéger les enfants. Pas avec des discours. Avec des lois. Des lois qui imposent l’étiquetage du contenu synthétique, des lois qui limitent l’exposition algorithmique des mineurs, des lois qui tiennent les plateformes responsables de ce qu’elles amplifient.
La troisième chose est de soutenir les créateurs humains. Pas par charité — par survie culturelle. Chaque fois que vous partagez le travail d’un artiste, d’un musicien, d’un écrivain, d’un vidéaste humain, vous posez un acte de résistance face à la machine. Un petit acte. Mais les petits actes, additionnés, construisent des digues.
Le choix qui vous appartient encore
Votre attention est la dernière chose que vous possédez et que les algorithmes ne peuvent pas vous prendre de force. Ils peuvent vous séduire. Ils peuvent vous manipuler. Ils peuvent rendre la résistance inconfortable. Mais le pouce qui scrolle, c’est le vôtre.
La prochaine fois que l’algorithme vous proposera un fruit qui pleure, vous aurez exactement deux secondes pour décider. Deux secondes pour choisir entre le confort anesthésiant de la bouillie et l’effort — parfois inconfortable, souvent exigeant, toujours nécessaire — de chercher quelque chose de vrai.
Deux secondes. C’est tout ce qui sépare un spectateur passif d’un citoyen éveillé.
Ce que Bananito dit de notre époque — et ce que notre époque refuse d'entendre
Le fruit le plus honnête du monde
Paradoxalement, Bananito est peut-être le miroir le plus fidèle de notre condition numérique. Il est vide — et nous le regardons quand même. Il est fabriqué — et nous nous y attachons quand même. Il est jetable — et nous en redemandons quand même.
Et pourtant, quelque part dans cette frénésie absurde, il y a une vérité que ni l’algorithme ni la machine n’ont voulu révéler. Cette vérité, c’est que l’appétit humain pour les histoires est si profond, si fondamental, si ancré dans notre câblage neurologique, qu’il peut être satisfait même par la plus pauvre des imitations.
C’est à la fois notre plus grande vulnérabilité et notre plus grand espoir. Vulnérabilité, parce que cet appétit nous rend manipulables. Espoir, parce qu’il signifie que le jour où nous déciderons collectivement de nourrir cet appétit avec de vraies histoires, de vrais visages, de vraies voix — ce jour-là, les fruits en plastique de l’algorithme retourneront dans le néant numérique d’où ils n’auraient jamais dû sortir.
Le dernier mot
En attendant, Bananito continuera de draguer, de pleurer, de trahir et de se réconcilier — devant un public de centaines de millions de paires d’yeux qui ont oublié que regarder n’est pas la même chose que voir.
Et quelque part, dans un bureau de ByteDance, quelqu’un regardera les chiffres d’engagement grimper, et sourira. Parce que dans l’économie de l’attention, le contenu le plus rentable est celui qui coûte le moins cher à produire et qui capture le plus longtemps.
Une banane avec des yeux. Zéro centime de créativité humaine. Des centaines de millions de vues.
Si ça, ce n’est pas le signe d’une civilisation qui a un problème, alors le mot problème n’a plus de sens.
Signé Jacques PJ Provost
Encadré de transparence
Méthodologie
Cet article est une chronique d’opinion fondée sur l’analyse du phénomène viral des fruits IA sur TikTok, documenté par NBC News et observé directement sur la plateforme. L’analyse s’appuie sur des travaux académiques en neurosciences de l’attention, en économie des plateformes numériques et en psychologie comportementale.
Limites
Les chiffres exacts de vues et d’engagement pour les vidéos de fruits IA varient selon les sources et évoluent rapidement. Les estimations du pourcentage de contenu IA sur les plateformes sont des projections issues d’analyses tierces, non confirmées officiellement par TikTok. Le phénomène étant en cours, certaines dynamiques décrites pourraient évoluer après publication.
Positionnement éditorial
Mon rôle est d’interpréter ces faits, de les contextualiser dans le cadre des dynamiques technologiques et culturelles contemporaines, et de leur donner un sens cohérent dans le grand récit des transformations qui façonnent notre époque. Ces analyses reflètent une expertise développée à travers l’observation continue des mutations numériques et la compréhension des mécanismes qui régissent l’économie de l’attention.
Toute évolution ultérieure de la situation pourrait naturellement modifier les perspectives présentées ici. Cet article sera mis à jour si de nouvelles informations officielles majeures sont publiées, garantissant ainsi la pertinence et l’actualité de l’analyse proposée.
Sources
Sources primaires
NBC News — AI fruit videos and Love Island-style TikTok slop draw millions of views — Mars 2026
Parlement européen — EU AI Act: first regulation on artificial intelligence — 2024
Sources secondaires
Tim Wu — The Attention Merchants — Columbia University — 2016
Titres alternatifs :
1. ANALYSE : TikTok, l’algorithme et vous — pourquoi une banane IA est devenue la plus grande star de la planète
2. BILLET : 50 millions de vues pour un fruit en plastique — requiem pour la créativité humaine
3. OPINION : Bananito ne vous veut aucun mal — c’est bien pire que ça
4. ESSAI : La civilisation du slop — quand l’IA remplace l’humain dans nos histoires d’amour
5. COMMENTAIRE : Vos enfants regardent des bananes draguer des fraises — et personne ne trouve ça grave
Ce contenu a été créé avec l'aide de l'IA.