Le robot qui n’obéit à personne
Pour comprendre l’ampleur du problème, il faut plonger dans les entrailles techniques de Perplexity AI. Au cœur de son système se trouve PerplexityBot, un robot d’exploration web qui parcourt Internet en permanence, indexant des milliards de pages. Contrairement aux robots traditionnels comme Googlebot qui respectent généralement les règles établies par les sites web via le fichier robots.txt, PerplexityBot aurait adopté des tactiques beaucoup plus agressives. En août 2024, Cloudflare, l’une des plus grandes entreprises d’infrastructure Internet au monde, a publié un rapport accablant. Selon leurs analyses, Perplexity utilisait des robots non déclarés, des crawlers furtifs qui contournaient délibérément les interdictions d’accès mises en place par les sites web. Ces robots se faisaient passer pour des navigateurs normaux, masquant leur véritable identité pour échapper aux systèmes de détection. Cloudflare a comparé ces techniques à celles utilisées par des hackers nord-coréens, une accusation dévastatrice pour une entreprise qui se veut respectable.
Mais le problème ne s’arrête pas là. Perplexity ne se contente pas d’indexer les contenus publics. Selon les plaintes déposées, l’entreprise accéderait également aux contenus protégés par des paywalls, ces barrières payantes que les médias érigent pour protéger leur modèle économique. Comment ? En exploitant des failles techniques, en utilisant des comptes d’essai, ou simplement en ignorant les restrictions d’accès. Le New York Times affirme que Perplexity a copié des millions d’articles, y compris des enquêtes exclusives, des analyses approfondies, des reportages qui ont coûté des mois de travail et des centaines de milliers de dollars. Ces contenus sont ensuite intégrés dans les bases de données de Perplexity, utilisés pour entraîner ses modèles d’intelligence artificielle, et redistribués aux utilisateurs sous forme de réponses synthétisées. Le tout sans autorisation, sans compensation, sans même un remerciement. C’est du vol à l’échelle industrielle, automatisé, systématique, impitoyable.
Les hallucinations qui détruisent des réputations
Mais il y a pire que le vol. Il y a la fabrication pure et simple d’informations fausses. Dans sa plainte, le New York Times donne un exemple glaçant. Un utilisateur a demandé à Perplexity quelles caractéristiques Wirecutter, le site de recommandations de produits du Times, appréciait dans le Boppy Lounger, un coussin pour bébé. La réponse de Perplexity ? Une liste détaillée de fonctionnalités prétendument louées par Wirecutter. Le problème ? Wirecutter n’a jamais testé ce produit. Jamais. Et pour cause : le Boppy Lounger a été rappelé après avoir causé la mort de plusieurs nourrissons. En inventant de toutes pièces un avis positif sur un produit mortel, Perplexity n’a pas seulement commis une erreur technique. Elle a potentiellement mis en danger des vies humaines. Et elle a détruit la crédibilité du New York Times, en associant son nom à une recommandation qu’il n’a jamais faite. C’est ce que l’industrie de l’IA appelle pudiquement une hallucination, un terme qui minimise la gravité du problème.
Ces hallucinations ne sont pas des bugs isolés. Elles sont inhérentes au fonctionnement même des modèles de langage. Ces systèmes ne comprennent pas vraiment ce qu’ils disent. Ils prédisent simplement le mot le plus probable dans une séquence, en se basant sur des milliards d’exemples vus pendant leur entraînement. Quand les données sont incomplètes ou ambiguës, le modèle invente, comble les trous avec des informations plausibles mais fausses. Et quand ces inventions sont présentées avec le logo du New York Times, accompagnées de citations qui semblent authentiques, les utilisateurs n’ont aucun moyen de distinguer le vrai du faux. Le Times affirme que ces fausses attributions violent non seulement ses droits d’auteur, mais aussi ses marques déposées sous le Lanham Act, la loi américaine qui protège les marques commerciales. En associant son nom à des contenus qu’il n’a pas produits, Perplexity dilue la valeur de la marque New York Times, trompe les consommateurs, et détruit la confiance patiemment construite pendant plus d’un siècle.
Imaginez un instant que vous soyez journaliste au New York Times. Vous passez six mois sur une enquête, vous interviewez des dizaines de sources, vous vérifiez chaque fait trois fois. Vous publiez votre article, fier de votre travail. Et le lendemain, vous découvrez que Perplexity a copié votre texte, l’a résumé en trois paragraphes, et l’a redistribué à des millions d’utilisateurs qui ne viendront jamais lire votre article original. Pire encore, l’IA a ajouté des informations fausses, des citations inventées, et a mis votre nom dessus. Comment vous sentiriez-vous ? Volé ? Trahi ? Impuissant ? C’est exactement ce que vivent des milliers de journalistes aujourd’hui. Et personne ne semble s’en soucier, tant que l’IA nous donne des réponses rapides.
Le modèle économique du parasitisme : comment Perplexity s'enrichit sur le dos des autres
Une valorisation construite sur du sable
Perplexity AI vaut aujourd’hui 20 milliards de dollars. Vingt milliards. Pour une entreprise créée il y a trois ans, qui n’a jamais publié ses chiffres de revenus, et dont le produit principal repose entièrement sur le contenu volé à d’autres. Comment est-ce possible ? La réponse tient en un mot : hype. L’intelligence artificielle est devenue la nouvelle ruée vers l’or de la Silicon Valley. Les investisseurs jettent des milliards sur tout ce qui ressemble de près ou de loin à de l’IA, sans vraiment comprendre les modèles économiques, sans se soucier de la viabilité à long terme. Perplexity a bénéficié de cette frénésie. En septembre 2024, l’entreprise a levé 200 millions de dollars lors d’un tour de financement qui l’a valorisée à 20 milliards. Parmi les investisseurs : Jeff Bezos, Nvidia, et une ribambelle de fonds de capital-risque prestigieux. Ces gens ne sont pas stupides. Ils savent que le modèle de Perplexity repose sur une zone grise légale. Mais ils parient que l’entreprise sera trop grosse pour échouer quand les procès arriveront.
Le modèle économique de Perplexity est simple : offrir un service gratuit financé par la publicité et les abonnements premium. La version gratuite permet des recherches illimitées, avec cinq recherches avancées par jour. La version Pro, à 20 dollars par mois ou 200 dollars par an, débloque 600 recherches avancées quotidiennes, l’accès à des modèles plus puissants comme GPT-4 et Claude 3, et des fonctionnalités supplémentaires comme l’analyse de documents et la génération d’images. Sur le papier, c’est un modèle classique de SaaS (Software as a Service). Le problème, c’est que contrairement à d’autres services qui créent leur propre contenu ou paient pour l’utiliser, Perplexity se contente de le voler. Imaginez un restaurant qui servirait des plats volés dans les cuisines des voisins, et qui facturerait quand même ses clients. C’est exactement ce que fait Perplexity. Elle prend le travail des journalistes, le repackage avec une interface élégante, et le revend. Sans jamais payer les créateurs originaux.
La destruction systématique du trafic web
Mais le véritable dommage n’est pas seulement le vol de contenu. C’est la destruction du trafic web vers les sites d’origine. Quand vous utilisez Google, vous tapez une requête, vous obtenez une liste de liens, et vous cliquez sur celui qui vous intéresse. Ce clic génère du trafic pour le site, ce qui permet aux éditeurs de monétiser leur contenu via la publicité ou les abonnements. C’est un écosystème imparfait, mais qui fonctionne. Avec Perplexity, ce modèle s’effondre. L’IA vous donne directement la réponse, synthétisée à partir de multiples sources. Vous n’avez plus besoin de cliquer sur les liens. Vous n’avez même plus besoin de savoir d’où vient l’information. Résultat : les sites d’origine ne reçoivent plus de trafic, ne génèrent plus de revenus, et finissent par mourir. C’est un cercle vicieux. Moins de revenus signifie moins de journalistes, moins d’enquêtes, moins de contenu de qualité. Et moins de contenu de qualité signifie que les IA n’auront plus rien à aspirer, condamnant finalement leur propre modèle.
Le New York Times a calculé que chaque article copié par Perplexity représente une perte potentielle de revenus. Multipliez ça par des millions d’articles, et vous obtenez des centaines de millions de dollars de manque à gagner. Mais au-delà des chiffres, c’est toute une industrie qui est menacée. Les médias locaux, déjà fragilisés par la crise de la presse, sont les premières victimes. Ils n’ont pas les moyens de se battre juridiquement contre des géants de la tech. Ils ferment, les uns après les autres, laissant des déserts informationnels où plus personne ne couvre les conseils municipaux, les tribunaux locaux, les écoles. Et dans ces déserts, la désinformation prospère. Les fake news se propagent sans contradiction, les théories du complot trouvent un terreau fertile, et la démocratie s’érode. Tout ça parce qu’une startup de la Silicon Valley a décidé que l’information devait être gratuite, sans se soucier des conséquences.
Je me demande parfois si les investisseurs de Perplexity réalisent ce qu’ils financent. Ils se voient comme des visionnaires, des pionniers d’une nouvelle ère. Mais en réalité, ils sont les fossoyeurs du journalisme. Chaque dollar investi dans Perplexity est un dollar qui accélère la mort des médias indépendants. Et quand il n’y aura plus de journalistes pour enquêter, pour vérifier, pour tenir les puissants responsables, qui protégera la démocratie ? Les algorithmes ? Les IA qui inventent des faits ? C’est une blague sinistre.
Les précédents juridiques : une bataille qui dépasse Perplexity
Le New York Times contre OpenAI et Microsoft
Le procès contre Perplexity n’est pas le premier du genre. En décembre 2023, le New York Times a déposé une plainte retentissante contre OpenAI et Microsoft, accusant les deux géants d’avoir utilisé des millions d’articles du Times pour entraîner leurs modèles d’IA, notamment ChatGPT et Bing Chat. La plainte, déposée devant le tribunal fédéral de Manhattan, affirme que OpenAI a copié des milliards de mots protégés par le droit d’auteur, créant un substitut qui menace directement le modèle économique du Times. Contrairement à Perplexity, OpenAI ne se contente pas de synthétiser des informations. Ses modèles peuvent reproduire des articles entiers, presque mot pour mot, quand on leur demande. Le Times a fourni des dizaines d’exemples où ChatGPT régurgite des passages complets d’articles payants, sans attribution, sans lien vers la source originale. C’est du plagiat à l’échelle industrielle, automatisé par des algorithmes qui ne connaissent ni la morale ni la loi.
OpenAI s’est défendu en invoquant le fair use, cette doctrine du droit américain qui permet l’utilisation limitée d’œuvres protégées sans autorisation, notamment à des fins éducatives ou de recherche. Selon OpenAI, l’entraînement de modèles d’IA constitue une utilisation transformative, créant quelque chose de nouveau qui ne remplace pas l’œuvre originale. Mais le Times réfute cet argument. L’utilisation n’est pas transformative si le résultat final reproduit l’œuvre originale. Et elle n’est certainement pas éducative quand elle sert à générer des profits commerciaux. En avril 2025, un juge a rejeté la demande d’OpenAI de classer l’affaire, permettant au procès de continuer. Le juge a ordonné à OpenAI de fournir 20 millions de logs de ChatGPT, des enregistrements détaillés des interactions entre les utilisateurs et l’IA, pour prouver l’ampleur de la copie. Cette décision a été saluée comme une victoire majeure pour le Times, et un avertissement pour toute l’industrie de l’IA. Les tribunaux ne laisseront pas passer le vol de propriété intellectuelle, même quand il est habillé dans les atours de l’innovation technologique.
Les autres batailles en cours
Le New York Times n’est pas seul dans sa croisade. Des dizaines de procès similaires sont en cours à travers les États-Unis, opposant créateurs de contenu et entreprises d’IA. En 2023, un groupe d’auteurs, dont Sarah Silverman, Christopher Golden et Richard Kadrey, a poursuivi OpenAI et Meta pour avoir utilisé leurs livres sans autorisation pour entraîner leurs modèles. En 2024, Getty Images, l’une des plus grandes banques d’images au monde, a attaqué Stability AI, créateur du générateur d’images Stable Diffusion, pour avoir copié 12 millions de photos protégées. En 2025, des milliers de musiciens, représentés par la Recording Industry Association of America, ont déposé une plainte collective contre plusieurs startups d’IA musicale, accusées d’avoir aspiré des millions de chansons pour entraîner leurs systèmes de génération de musique. La liste s’allonge chaque mois, transformant les tribunaux en champs de bataille entre l’ancien monde et le nouveau.
Mais tous les médias ne choisissent pas la voie judiciaire. Certains préfèrent négocier. En 2024, News Corp, l’empire médiatique de Rupert Murdoch, a signé un accord de licence avec OpenAI, permettant à l’entreprise d’utiliser les contenus du Wall Street Journal, du New York Post et d’autres publications en échange d’une compensation financière non divulguée. En 2025, le New York Times lui-même a conclu un partenariat avec Amazon, autorisant le géant du e-commerce à utiliser ses contenus pour entraîner ses modèles d’IA moyennant un paiement annuel d’au moins 20 millions de dollars. Ces accords montrent qu’une coexistence est possible entre médias et IA, à condition que les créateurs soient respectés et compensés. Mais Perplexity refuse cette voie. L’entreprise continue de voler, de copier, de redistribuer, sans jamais négocier, sans jamais payer. Et c’est pour ça qu’elle se retrouve aujourd’hui avec une dizaine de procès sur les bras.
Il y a quelque chose de profondément révélateur dans le fait que certaines entreprises d’IA acceptent de payer pour le contenu qu’elles utilisent, tandis que d’autres refusent catégoriquement. Ça montre que le problème n’est pas technique. Il n’est pas insurmontable. C’est une question de volonté, de respect, de reconnaissance que le travail des créateurs a une valeur. OpenAI, malgré tous ses défauts, a compris qu’il fallait négocier. Perplexity, elle, s’en fiche. Elle préfère voler et payer des avocats plutôt que de rémunérer les journalistes. Ça en dit long sur les valeurs de cette entreprise.
La réponse arrogante de Perplexity : déni et mépris
Des déclarations qui choquent
Face à l’avalanche de procès, on pourrait s’attendre à ce que Perplexity fasse profil bas, présente des excuses, propose des solutions. Mais non. L’entreprise a choisi la voie de l’arrogance et du déni. Le 5 décembre 2025, quelques heures après le dépôt de la plainte du New York Times, Jesse Dwyer, responsable de la communication de Perplexity, a publié un communiqué cinglant : « Les éditeurs poursuivent les nouvelles entreprises technologiques depuis cent ans, en commençant par la radio, la télévision, Internet, les réseaux sociaux et maintenant l’IA. Heureusement, ça n’a jamais marché, sinon nous parlerions tous de ça par télégraphe. » Cette déclaration, d’une condescendance rare, compare le vol de propriété intellectuelle à l’innovation technologique. Comme si copier illégalement des millions d’articles était équivalent à inventer la radio ou Internet. C’est une insulte à l’intelligence, une tentative grossière de se draper dans le manteau des pionniers technologiques pour masquer des pratiques illégales.
Mais ce n’est pas la première fois que Perplexity adopte cette posture. En octobre 2024, après avoir reçu la première lettre de mise en demeure du New York Times, le CEO Aravind Srinivas avait déclaré : « Nous sommes très intéressés à travailler avec chaque éditeur. Nous n’avons aucun intérêt à être l’antagoniste de qui que ce soit. » Des paroles apaisantes, mais suivies d’aucun acte. Perplexity a continué d’aspirer les contenus du Times, ignorant complètement la demande d’arrêt. En juillet 2025, le Times a envoyé une deuxième lettre, plus ferme. Toujours aucune réponse. Perplexity a préféré continuer son pillage plutôt que de négocier. Cette attitude révèle une stratégie délibérée : voler d’abord, s’excuser plus tard si nécessaire, et espérer que les tribunaux seront cléments. C’est la stratégie classique de la Silicon Valley : move fast and break things, même si les choses que tu casses sont les lois et les vies des gens.
Les accusations de Cloudflare : des pratiques dignes de hackers
L’arrogance de Perplexity ne se limite pas aux déclarations publiques. Elle se manifeste aussi dans ses pratiques techniques. En août 2024, Cloudflare a publié un rapport détaillé accusant Perplexity d’utiliser des robots furtifs non déclarés pour contourner les interdictions d’accès mises en place par les sites web. Selon Cloudflare, Perplexity utilisait des techniques de masquage pour faire passer ses robots pour des navigateurs normaux, échappant ainsi aux systèmes de détection. Ces pratiques sont comparables à celles utilisées par des hackers malveillants, notamment des groupes nord-coréens connus pour leurs cyberattaques. Cloudflare a fourni des preuves techniques détaillées, montrant comment Perplexity modifiait les en-têtes HTTP de ses requêtes, utilisait des adresses IP changeantes, et ignorait délibérément les fichiers robots.txt qui indiquent aux crawlers quelles parties d’un site peuvent être indexées.
Perplexity a nié ces accusations, affirmant que ses robots respectaient toutes les normes de l’industrie. Mais les preuves de Cloudflare sont accablantes. Et elles ont été corroborées par d’autres entreprises, notamment Forbes et Wired, qui ont constaté que Perplexity copiait leurs articles presque en temps réel, parfois quelques minutes seulement après leur publication. Dans un cas particulièrement ironique, Wired a publié un article intitulé « Perplexity Is a Bullshit Machine » (Perplexity est une machine à conneries), détaillant les pratiques de plagiat de l’entreprise. Quelques heures plus tard, Perplexity avait copié cet article et l’avait résumé pour ses utilisateurs, prouvant exactement le point que Wired essayait de faire. C’est d’un cynisme absolu. Perplexity ne se contente pas de voler. Elle vole les articles qui l’accusent de voler, et elle le fait ouvertement, sans la moindre honte.
L’arrogance de Perplexity me sidère. Cette entreprise se comporte comme si les règles ne s’appliquaient pas à elle. Comme si le fait d’être une startup d’IA lui donnait un passe-droit pour ignorer les lois, les normes, la décence de base. Et le pire, c’est que ça marche. Les investisseurs continuent de jeter des milliards sur cette entreprise, les utilisateurs continuent d’utiliser son service, et les médias continuent de la traiter comme une innovatrice plutôt que comme une voleuse. C’est révoltant. Mais c’est aussi révélateur de notre époque, où l’innovation est devenue une excuse pour tout, même pour le crime.
L'impact sur le journalisme : une industrie au bord du gouffre
La crise existentielle des médias
Pour comprendre pourquoi le procès contre Perplexity est si important, il faut comprendre l’état catastrophique du journalisme aujourd’hui. Depuis vingt ans, l’industrie de la presse est en crise permanente. L’arrivée d’Internet a détruit le modèle économique traditionnel basé sur les petites annonces et la publicité. Les lecteurs se sont habitués à accéder gratuitement à l’information, refusant de payer pour des contenus qu’ils peuvent trouver ailleurs. Les revenus publicitaires ont été captés par Google et Facebook, qui monopolisent 70% du marché de la publicité en ligne. Résultat : des milliers de journaux ont fermé, des dizaines de milliers de journalistes ont perdu leur emploi, et des régions entières sont devenues des déserts informationnels où plus personne ne couvre l’actualité locale. Aux États-Unis, plus de 2500 journaux ont disparu depuis 2005. En France, la situation n’est guère meilleure, avec des titres historiques qui survivent grâce aux subventions publiques.
Dans ce contexte déjà fragile, l’arrivée de l’intelligence artificielle représente une menace existentielle. Les IA comme Perplexity ne se contentent pas de capter les revenus publicitaires. Elles détruisent le trafic web, la dernière source de revenus qui restait aux médias en ligne. Quand un utilisateur obtient sa réponse directement via Perplexity, il n’a plus besoin de visiter le site du New York Times. Il ne voit pas les publicités, il ne s’abonne pas, il ne contribue pas financièrement au travail des journalistes. Et sans revenus, les médias ne peuvent plus payer leurs journalistes, ne peuvent plus financer des enquêtes coûteuses, ne peuvent plus maintenir leurs standards de qualité. C’est un cercle vicieux qui mène inexorablement à la mort du journalisme professionnel. Et quand il n’y aura plus de journalistes, qui enquêtera sur la corruption ? Qui tiendra les politiciens responsables ? Qui vérifiera les faits ? Les algorithmes ? Les IA qui inventent des informations ?
Les conséquences pour la démocratie
Le journalisme n’est pas qu’une industrie comme une autre. C’est un pilier de la démocratie. Sans presse libre et indépendante, il n’y a pas de démocratie fonctionnelle. Les journalistes jouent un rôle crucial de contre-pouvoir, enquêtant sur les abus, révélant les scandales, informant les citoyens pour qu’ils puissent prendre des décisions éclairées. Quand ce contre-pouvoir disparaît, la corruption prospère, les abus se multiplient, et la démocratie s’érode. On le voit déjà dans les régions où les journaux locaux ont fermé. Les élus locaux sont moins surveillés, les dépenses publiques moins contrôlées, les scandales moins révélés. Et dans ce vide, la désinformation se propage. Les fake news, les théories du complot, les manipulations politiques trouvent un terreau fertile. Sans journalistes pour vérifier les faits, pour contextualiser l’information, pour séparer le vrai du faux, les citoyens sont livrés à eux-mêmes, vulnérables à toutes les manipulations.
L’intelligence artificielle aggrave ce problème. Les IA comme Perplexity ne vérifient pas les faits. Elles ne contextualisent pas l’information. Elles se contentent de synthétiser ce qu’elles trouvent sur Internet, sans distinguer les sources fiables des sources douteuses. Pire encore, elles inventent des informations quand leurs données sont incomplètes, créant des hallucinations qui se propagent comme des vérités. Et quand ces hallucinations sont présentées avec le logo du New York Times, les utilisateurs n’ont aucun moyen de savoir qu’elles sont fausses. C’est une catastrophe pour la confiance dans les médias, déjà au plus bas. Une étude récente a montré que 60% des Américains ne font plus confiance aux médias traditionnels. Imaginez ce chiffre quand les IA commenceront à attribuer massivement de fausses informations aux journaux respectables. C’est la fin de la vérité partagée, la fin du consensus factuel qui permet à une société de fonctionner.
Je pense souvent à ce que sera le monde dans dix ans si nous laissons Perplexity et ses semblables détruire le journalisme. Un monde où l’information est gratuite, mais fausse. Un monde où les algorithmes remplacent les journalistes, mais où personne ne vérifie ce que disent les algorithmes. Un monde où la vérité n’a plus de valeur, où chacun croit ce qu’il veut croire, où les faits sont devenus optionnels. C’est un cauchemar dystopique. Et nous sommes en train de le construire, une startup à la fois, un procès perdu à la fois.
Les enjeux juridiques : vers une redéfinition du droit d'auteur à l'ère de l'IA
Le fair use face à l’intelligence artificielle
Au cœur de tous ces procès se trouve une question juridique fondamentale : l’entraînement de modèles d’IA constitue-t-il une utilisation équitable (fair use) d’œuvres protégées par le droit d’auteur ? Le fair use est une doctrine du droit américain qui permet l’utilisation limitée d’œuvres protégées sans autorisation, notamment à des fins de critique, de commentaire, d’enseignement, de recherche ou de parodie. Pour déterminer si une utilisation est équitable, les tribunaux examinent quatre facteurs : le but et le caractère de l’utilisation, la nature de l’œuvre protégée, la quantité utilisée par rapport à l’ensemble de l’œuvre, et l’effet de l’utilisation sur le marché potentiel de l’œuvre. Les entreprises d’IA comme Perplexity et OpenAI affirment que l’entraînement de leurs modèles constitue une utilisation transformative, créant quelque chose de nouveau qui ne remplace pas l’œuvre originale. Selon elles, copier des millions d’articles pour entraîner une IA est similaire à citer des passages dans une critique littéraire ou à utiliser des extraits dans un cours universitaire.
Mais cette analogie est trompeuse. Une critique littéraire cite quelques passages pour analyser une œuvre, sans la reproduire intégralement. Un cours universitaire utilise des extraits à des fins éducatives, sans but commercial. L’entraînement d’une IA, en revanche, copie des œuvres entières, les intègre dans une base de données commerciale, et les utilise pour générer des profits. De plus, le résultat final peut reproduire l’œuvre originale presque mot pour mot, comme l’ont démontré les exemples fournis par le New York Times. Comment peut-on parler d’utilisation transformative quand ChatGPT régurgite des articles entiers du Times ? Comment peut-on parler d’utilisation éducative quand Perplexity vend des abonnements premium basés sur du contenu volé ? Les tribunaux devront trancher ces questions dans les années à venir, et leurs décisions auront des conséquences énormes pour toute l’industrie de l’IA. Si le fair use est étendu à l’entraînement de modèles d’IA, ce sera un feu vert pour le pillage massif de la propriété intellectuelle. Si au contraire les tribunaux jugent que cette utilisation n’est pas équitable, les entreprises d’IA devront négocier des licences et payer pour le contenu qu’elles utilisent.
Les précédents historiques et leurs limites
Pour défendre leur position, les entreprises d’IA invoquent souvent des précédents historiques où les tribunaux ont autorisé l’utilisation de contenus protégés à des fins technologiques. Le cas le plus cité est Authors Guild v. Google, un procès qui a duré dix ans et qui opposait des auteurs à Google pour son projet de numérisation massive de livres. En 2015, la Cour d’appel du deuxième circuit a jugé que le projet Google Books constituait un fair use, car il permettait aux utilisateurs de rechercher des informations dans des millions de livres sans remplacer l’achat des livres originaux. Mais ce précédent est-il applicable à l’IA ? Pas vraiment. Google Books ne reproduit que de courts extraits des livres, jamais l’intégralité. Il renvoie les utilisateurs vers les librairies pour acheter les livres complets. Et surtout, il ne génère pas de contenu concurrent. Perplexity, en revanche, reproduit des articles entiers, ne renvoie pas vers les sources originales, et crée un substitut direct qui remplace la lecture de l’article original.
Un autre précédent souvent invoqué est Perfect 10 v. Amazon, où la Cour d’appel du neuvième circuit a jugé que l’affichage de miniatures d’images protégées dans les résultats de recherche constituait un fair use. Mais là encore, l’analogie est limitée. Les miniatures sont de basse résolution, ne remplacent pas les images originales, et servent uniquement à aider les utilisateurs à trouver ce qu’ils cherchent. Les réponses générées par Perplexity, en revanche, sont des synthèses complètes qui éliminent le besoin de consulter les sources originales. C’est une différence fondamentale. Les tribunaux devront donc créer de nouveaux précédents, adaptés à l’ère de l’intelligence artificielle. Et ces précédents détermineront l’avenir non seulement de Perplexity, mais de toute l’industrie de l’IA générative. Si les tribunaux sont trop permissifs, ils ouvriront la porte à un pillage généralisé de la propriété intellectuelle. S’ils sont trop restrictifs, ils risquent d’étouffer l’innovation technologique. Trouver le bon équilibre sera l’un des défis juridiques majeurs de notre époque.
Le droit d’auteur a été créé pour protéger les créateurs, pour leur donner un monopole temporaire sur leurs œuvres afin qu’ils puissent en tirer profit. C’est un contrat social : la société accorde aux créateurs des droits exclusifs, et en échange, les créateurs enrichissent la culture commune. Mais ce contrat est en train de se briser. Les entreprises d’IA veulent tous les avantages de la création sans aucune des obligations. Elles veulent utiliser librement le travail des autres, sans payer, sans demander la permission, sans même reconnaître la source. C’est du parasitisme pur et simple. Et si nous laissons faire, nous détruirons les fondations mêmes de la création culturelle.
Les solutions possibles : comment sortir de l'impasse
Le modèle de la licence obligatoire
Face à cette crise, plusieurs solutions ont été proposées. La plus prometteuse est le modèle de la licence obligatoire, inspiré de l’industrie musicale. Dans la musique, quand un artiste veut reprendre une chanson existante, il n’a pas besoin de négocier individuellement avec l’auteur original. Il peut obtenir une licence obligatoire en payant un tarif fixé par la loi. Ce système permet à la fois de protéger les droits des créateurs et de faciliter la création de nouvelles œuvres. Un système similaire pourrait être mis en place pour l’IA. Les entreprises d’IA pourraient utiliser des contenus protégés pour entraîner leurs modèles, à condition de payer une redevance aux créateurs originaux. Cette redevance serait calculée en fonction de la quantité de contenu utilisé, de la valeur commerciale de l’IA, et de l’impact sur le marché des œuvres originales. Un organisme de gestion collective, similaire à la SACEM en France ou à l’ASCAP aux États-Unis, pourrait collecter ces redevances et les redistribuer aux créateurs.
Ce modèle présente plusieurs avantages. Il reconnaît la valeur du travail des créateurs et leur assure une compensation financière. Il permet aux entreprises d’IA d’accéder légalement aux contenus dont elles ont besoin pour entraîner leurs modèles. Et il évite les batailles juridiques interminables qui paralysent actuellement l’industrie. Mais il présente aussi des défis. Comment déterminer le tarif juste ? Comment identifier tous les créateurs dont le contenu a été utilisé ? Comment s’assurer que les redevances sont équitablement distribuées ? Ces questions nécessitent une réflexion approfondie et une coopération entre toutes les parties prenantes : créateurs, entreprises d’IA, législateurs, et société civile. Plusieurs pays, dont l’Union européenne avec son AI Act, commencent à explorer ces pistes. Mais le processus est lent, et en attendant, le pillage continue.
La transparence comme prérequis
Une autre solution essentielle est d’imposer la transparence aux entreprises d’IA. Actuellement, ces entreprises refusent de divulguer les données utilisées pour entraîner leurs modèles, invoquant le secret commercial. Mais cette opacité rend impossible toute vérification. Comment savoir si une IA a utilisé vos contenus si l’entreprise refuse de le dire ? Comment négocier une compensation si vous ne savez même pas que votre travail a été volé ? La transparence devrait être une obligation légale. Les entreprises d’IA devraient être tenues de publier la liste complète des sources utilisées pour entraîner leurs modèles, avec des détails sur la quantité de contenu copié et l’usage qui en a été fait. Cette information devrait être accessible publiquement, permettant aux créateurs de vérifier si leurs œuvres ont été utilisées et de réclamer une compensation si nécessaire. Certains proposent même d’aller plus loin, en créant un registre public des données d’entraînement, géré par une autorité indépendante, où toutes les entreprises d’IA devraient déclarer leurs sources.
La transparence aurait également un autre avantage : elle permettrait de détecter les biais et les problèmes de qualité dans les modèles d’IA. Si nous savons quelles données ont été utilisées pour entraîner une IA, nous pouvons mieux comprendre ses limites, ses angles morts, ses préjugés potentiels. Actuellement, les IA sont des boîtes noires. Nous ne savons pas comment elles prennent leurs décisions, quelles informations elles privilégient, quelles sources elles considèrent comme fiables. Cette opacité est dangereuse, surtout quand ces IA sont utilisées pour des décisions importantes : diagnostics médicaux, décisions judiciaires, recommandations financières. La transparence n’est pas seulement une question de droits d’auteur. C’est une question de responsabilité, de confiance, de démocratie. Si nous voulons que l’IA serve l’intérêt public, nous devons pouvoir l’auditer, la contrôler, la réguler. Et pour ça, nous avons besoin de transparence.
La transparence devrait être la norme, pas l’exception. Quand une entreprise utilise le travail de millions de créateurs pour construire son produit, elle devrait au minimum avoir la décence de le reconnaître publiquement. Mais les entreprises d’IA préfèrent l’opacité. Elles se cachent derrière le secret commercial, comme si révéler leurs sources allait détruire leur avantage concurrentiel. C’est ridicule. Leur avantage concurrentiel ne vient pas des données qu’elles volent, mais de la qualité de leurs algorithmes, de leur interface utilisateur, de leur capacité à innover. La transparence ne les tuerait pas. Elle les forcerait juste à être honnêtes.
L'avenir incertain : scénarios possibles
Le scénario catastrophe : la victoire de Perplexity
Imaginons un instant que Perplexity gagne tous ses procès. Que les tribunaux jugent que l’entraînement de modèles d’IA constitue un fair use, que le vol massif de propriété intellectuelle est légal tant qu’il sert l’innovation technologique. Que se passerait-il ? D’abord, ce serait un feu vert pour toutes les entreprises d’IA. Elles pourraient aspirer librement tous les contenus disponibles sur Internet, sans autorisation, sans compensation. Les médias perdraient leur dernière source de revenus, le trafic web, et seraient contraints de fermer les uns après les autres. Les journalistes perdraient leur emploi par milliers. Les enquêtes coûteuses, les reportages approfondis, le journalisme d’investigation disparaîtraient, remplacés par du contenu généré par IA, superficiel, non vérifié, souvent faux. Les déserts informationnels s’étendraient, la désinformation prospérerait, et la démocratie s’éroderait. Dans ce monde, l’information serait gratuite, mais sans valeur. Accessible, mais invérifiable. Abondante, mais toxique.
Mais les conséquences iraient au-delà du journalisme. Si le vol de propriété intellectuelle devient légal pour l’IA, pourquoi s’arrêter aux articles de presse ? Les livres, les films, la musique, les œuvres d’art, tout deviendrait du matériau gratuit pour les algorithmes. Les auteurs, les musiciens, les artistes perdraient leurs revenus, leur motivation à créer. La création culturelle s’effondrerait, remplacée par du contenu généré par IA, dérivé, répétitif, sans âme. Et à terme, les IA elles-mêmes souffriraient. Car sans nouveaux contenus humains pour les entraîner, elles stagneraient, régurgitant indéfiniment les mêmes informations obsolètes, les mêmes idées recyclées. C’est un cercle vicieux qui mène à l’appauvrissement culturel généralisé. Un monde où la création n’a plus de valeur, où l’innovation est étouffée, où l’humanité perd ce qui la rend unique : sa capacité à créer, à imaginer, à raconter des histoires.
Le scénario optimiste : une régulation équilibrée
Mais il existe un autre scénario, plus optimiste. Imaginons que les tribunaux reconnaissent que l’entraînement de modèles d’IA ne constitue pas un fair use, que les créateurs ont droit à une compensation pour l’utilisation de leurs œuvres. Que les législateurs mettent en place un cadre réglementaire équilibré, imposant la transparence, créant des mécanismes de licence obligatoire, protégeant les droits des créateurs tout en permettant l’innovation technologique. Dans ce monde, les entreprises d’IA devraient négocier avec les médias, payer des licences, respecter les droits d’auteur. Les médias recevraient une nouvelle source de revenus, leur permettant de continuer à financer du journalisme de qualité. Les journalistes garderaient leur emploi, les enquêtes continueraient, la démocratie serait préservée. Et les IA elles-mêmes bénéficieraient de cette régulation, car elles auraient accès à des contenus de qualité, vérifiés, à jour, leur permettant d’offrir de meilleurs services.
Ce scénario n’est pas utopique. Il existe déjà des exemples de coopération réussie entre médias et IA. Le partenariat entre le New York Times et Amazon, l’accord entre News Corp et OpenAI montrent qu’une coexistence est possible. Mais pour que ce modèle se généralise, il faut une volonté politique forte. Les législateurs doivent agir rapidement, avant que le mal ne soit irréversible. Ils doivent créer des lois qui protègent les créateurs sans étouffer l’innovation. Ils doivent imposer la transparence, faciliter les négociations, sanctionner les abus. Et surtout, ils doivent résister aux pressions des lobbies technologiques qui veulent maintenir le statu quo. Car le temps presse. Chaque jour qui passe, des milliers d’articles sont volés, des millions de dollars de revenus sont perdus, des dizaines de journalistes perdent leur emploi. Si nous n’agissons pas maintenant, il sera bientôt trop tard.
Je veux croire au scénario optimiste. Je veux croire que nous sommes capables de créer un monde où l’innovation technologique et la création culturelle coexistent harmonieusement. Où les IA nous aident à accéder à l’information sans détruire ceux qui la produisent. Où les créateurs sont respectés, compensés, valorisés. Mais pour ça, il faut se battre. Il faut que les médias continuent de poursuivre les entreprises d’IA qui volent leur contenu. Il faut que les législateurs créent des lois justes. Il faut que les citoyens exigent la transparence et la responsabilité. Et il faut que nous tous, utilisateurs d’IA, prenions conscience que chaque fois que nous utilisons Perplexity ou ChatGPT, nous participons à un système qui détruit le journalisme. Ce n’est pas inévitable. Nous avons le choix.
Les leçons de l'histoire : quand la technologie bouleverse les industries
Les précédents qui éclairent le présent
L’histoire de la technologie est jalonnée de moments où une innovation a bouleversé une industrie établie, créant des conflits entre l’ancien et le nouveau. Quand la photographie a été inventée au XIXe siècle, les peintres ont craint pour leur survie. Quand le cinéma est apparu, les acteurs de théâtre ont protesté. Quand la télévision s’est démocratisée, les studios de cinéma ont paniqué. Et quand Internet a explosé, toute l’industrie des médias a été secouée. À chaque fois, les défenseurs de l’ancien ordre ont prédit la catastrophe, tandis que les promoteurs du nouveau clamaient que l’innovation était inévitable et bénéfique. Et à chaque fois, la société a dû trouver un équilibre, créer de nouvelles règles, adapter les lois existantes. Parfois, cet équilibre a été trouvé rapidement. Parfois, il a fallu des décennies de batailles juridiques et politiques. Mais toujours, l’histoire a montré qu’ignorer les droits des créateurs mène à l’appauvrissement culturel.
Prenons l’exemple de la musique. Quand Napster a lancé le partage de fichiers peer-to-peer en 1999, permettant aux utilisateurs de télécharger gratuitement des millions de chansons, l’industrie musicale a crié au scandale. Les maisons de disques ont poursuivi Napster, qui a finalement été fermé en 2001. Mais le mal était fait. Les ventes de CD se sont effondrées, les revenus des artistes ont chuté, et l’industrie a mis des années à se reconstruire. Ce n’est qu’avec l’arrivée de services légaux comme Spotify et Apple Music, qui paient des redevances aux artistes, que l’industrie a retrouvé un modèle économique viable. La leçon ? L’innovation technologique ne doit pas se faire au détriment des créateurs. Il faut trouver des modèles qui permettent à la fois l’accès facile à la culture et la rémunération équitable de ceux qui la produisent. Sinon, on tue la poule aux œufs d’or.
Les erreurs à ne pas répéter
Mais l’histoire nous enseigne aussi les erreurs à éviter. L’une des plus grandes erreurs de l’industrie musicale face à Napster a été de réagir trop lentement et trop agressivement. Au lieu de s’adapter rapidement, de créer des services légaux attractifs, les maisons de disques ont passé des années à poursuivre des adolescents qui téléchargeaient des chansons. Cette stratégie a été un désastre de relations publiques, transformant l’industrie en méchant et les pirates en héros. Quand les services légaux sont finalement apparus, il était trop tard. Une génération entière s’était habituée à la gratuité et refusait de payer. L’industrie du journalisme risque de commettre la même erreur. Si les médias se contentent de poursuivre les entreprises d’IA sans proposer d’alternatives, sans s’adapter aux nouvelles réalités technologiques, ils perdront la bataille de l’opinion publique. Les utilisateurs continueront d’utiliser Perplexity et ChatGPT, parce que ces services sont pratiques, rapides, gratuits. Et les médias seront perçus comme des dinosaures qui refusent le progrès.
La solution n’est pas de rejeter l’IA, mais de l’encadrer. Les médias doivent travailler avec les entreprises d’IA pour créer des modèles gagnant-gagnant. Ils doivent négocier des accords de licence, comme l’ont fait le New York Times avec Amazon et News Corp avec OpenAI. Ils doivent innover, créer leurs propres outils d’IA, offrir des services que les utilisateurs sont prêts à payer. Et surtout, ils doivent expliquer au public pourquoi le journalisme de qualité a un coût, pourquoi il est important de soutenir les médias indépendants, pourquoi la gratuité apparente de l’IA cache en réalité un vol massif. C’est une bataille culturelle autant que juridique. Et elle se gagnera en convainquant les citoyens que l’information a une valeur, que la vérité mérite d’être protégée, que le journalisme est essentiel à la démocratie.
L’histoire ne se répète pas, mais elle rime. Ce que nous vivons aujourd’hui avec l’IA ressemble étrangement à ce que l’industrie musicale a vécu avec Napster. La même disruption technologique, les mêmes arguments sur l’innovation et le progrès, les mêmes batailles juridiques. Mais nous avons l’avantage de connaître la fin de l’histoire. Nous savons que laisser le pillage se poursuivre détruit l’industrie. Nous savons qu’il faut trouver un équilibre entre innovation et protection des créateurs. Alors pourquoi répétons-nous les mêmes erreurs ? Pourquoi laissons-nous Perplexity faire ce que Napster a fait ? Nous avons les outils, les connaissances, les précédents. Il ne nous manque que la volonté d’agir.
Le rôle des utilisateurs : complices ou victimes ?
La responsabilité individuelle dans l’ère numérique
Dans cette bataille entre médias et IA, il y a un acteur souvent oublié : nous, les utilisateurs. Chaque fois que nous utilisons Perplexity, chaque fois que nous obtenons une réponse synthétisée sans cliquer sur les sources originales, nous participons au système qui détruit le journalisme. Nous sommes complices, même involontairement. Car notre comportement envoie un signal aux entreprises d’IA : continuez, ce que vous faites fonctionne, les utilisateurs adorent. Et il envoie un signal aux médias : votre modèle économique est mort, personne ne veut payer pour l’information. Mais sommes-nous vraiment coupables ? Après tout, nous ne faisons qu’utiliser un service gratuit et pratique. Nous ne savons pas forcément que Perplexity vole du contenu. Nous ne comprenons pas nécessairement les implications de nos choix. Nous sommes autant victimes que complices, piégés dans un système qui nous offre la facilité au prix de la destruction d’une industrie essentielle.
Pourtant, nous avons un pouvoir. Le pouvoir de choisir. Nous pouvons décider d’utiliser des services qui respectent les créateurs, qui paient des licences, qui renvoient vers les sources originales. Nous pouvons décider de nous abonner aux médias que nous apprécions, de soutenir financièrement le journalisme de qualité. Nous pouvons décider de cliquer sur les liens, de lire les articles complets, de partager les contenus originaux plutôt que les synthèses générées par IA. Ces choix individuels peuvent sembler insignifiants, mais collectivement, ils ont un impact énorme. Si des millions d’utilisateurs abandonnent Perplexity pour des alternatives plus éthiques, l’entreprise sera forcée de changer ses pratiques. Si des millions de lecteurs s’abonnent aux médias, ces derniers auront les moyens de continuer leur travail. Nous ne sommes pas impuissants. Nous avons le pouvoir de voter avec nos clics, avec nos portefeuilles, avec nos choix quotidiens.
L’éducation comme clé du changement
Mais pour que les utilisateurs fassent des choix éclairés, ils doivent d’abord comprendre les enjeux. Et c’est là que l’éducation devient cruciale. Combien de personnes savent vraiment comment fonctionne Perplexity ? Combien comprennent que chaque réponse générée par l’IA repose sur du contenu volé à des journalistes ? Combien réalisent que leur utilisation gratuite de ces services contribue à la destruction du journalisme ? Très peu. La plupart des utilisateurs voient simplement un outil pratique qui leur fait gagner du temps. Ils ne voient pas les conséquences à long terme, les emplois perdus, les enquêtes non réalisées, la démocratie affaiblie. C’est pourquoi il est essentiel d’éduquer le public sur ces questions. Les médias doivent expliquer leur modèle économique, montrer le coût réel du journalisme de qualité, révéler les pratiques des entreprises d’IA. Les écoles doivent enseigner la littératie numérique, apprendre aux élèves à distinguer les sources fiables des sources douteuses, à comprendre comment fonctionnent les algorithmes, à évaluer de manière critique l’information qu’ils consomment.
L’éducation doit aussi porter sur les alternatives. Beaucoup d’utilisateurs ne savent pas qu’il existe des moteurs de recherche plus éthiques, des agrégateurs d’actualités qui rémunèrent les médias, des outils d’IA qui respectent les droits d’auteur. Ils utilisent Perplexity par défaut, parce que c’est ce qu’ils connaissent, parce que c’est ce qui est promu par les investisseurs et les médias technologiques. Mais si nous leur montrons qu’il existe d’autres options, plus respectueuses, plus durables, beaucoup seront prêts à changer. Car contrairement à ce que pensent les cyniques, la plupart des gens ne sont pas indifférents au sort des créateurs. Ils veulent faire le bien, soutenir le journalisme, protéger la démocratie. Ils ont juste besoin qu’on leur montre comment. Et c’est notre responsabilité collective de le faire.
Je me demande souvent si je suis trop dur avec les utilisateurs. Après tout, ils ne sont pas les méchants de cette histoire. Ils veulent juste des réponses rapides à leurs questions. Ils ne cherchent pas à détruire le journalisme. Mais l’ignorance n’est pas une excuse. Nous vivons à une époque où l’information est abondante, où il est facile de se renseigner sur les implications de nos choix. Si nous continuons d’utiliser des services qui volent du contenu, nous sommes complices. Pas par malveillance, mais par négligence. Et la négligence peut être aussi destructrice que la malveillance. Alors oui, nous avons une responsabilité. Celle de nous informer, de faire des choix éclairés, de soutenir les créateurs. Ce n’est pas difficile. Ça demande juste un peu d’attention, un peu de conscience.
Conclusion : un moment décisif pour l'avenir de l'information
Le procès qui changera tout
Le procès du New York Times contre Perplexity n’est pas qu’une affaire judiciaire parmi d’autres. C’est un moment décisif qui déterminera l’avenir de l’information à l’ère de l’intelligence artificielle. Si Perplexity gagne, ce sera un signal que le vol de propriété intellectuelle est acceptable tant qu’il sert l’innovation technologique. Les entreprises d’IA pourront continuer d’aspirer librement tous les contenus disponibles, sans autorisation, sans compensation. Les médias s’effondreront, le journalisme disparaîtra, et nous entrerons dans une ère où l’information est gratuite mais sans valeur, accessible mais invérifiable. Si au contraire le New York Times gagne, ce sera une victoire pour tous les créateurs, tous les journalistes, tous ceux qui croient que le travail intellectuel mérite d’être respecté et rémunéré. Ce sera un message clair aux entreprises d’IA : vous devez jouer selon les règles, négocier des licences, payer pour le contenu que vous utilisez. Et ce sera le début d’une nouvelle ère, où innovation technologique et protection des créateurs coexistent harmonieusement.
Mais le procès ne sera que le début. Quelle que soit l’issue, il faudra des années pour que les tribunaux tranchent définitivement ces questions. En attendant, le pillage continue, les médias souffrent, et le journalisme s’affaiblit. C’est pourquoi nous ne pouvons pas nous contenter d’attendre les décisions judiciaires. Nous devons agir maintenant, à tous les niveaux. Les législateurs doivent créer des lois qui protègent les créateurs. Les entreprises d’IA doivent adopter des pratiques plus éthiques. Les médias doivent innover et s’adapter. Et nous, les utilisateurs, devons faire des choix plus conscients, soutenir le journalisme de qualité, exiger la transparence et la responsabilité. C’est un effort collectif qui nécessite la participation de tous. Car l’enjeu n’est pas seulement économique. C’est un enjeu de civilisation. Voulons-nous vivre dans un monde où l’information a une valeur, où la vérité est protégée, où le journalisme est respecté ? Ou acceptons-nous de glisser vers un monde où tout est gratuit, mais où rien n’est fiable ?
Je regarde cette bataille et je ressens un mélange d’espoir et de désespoir. Espoir, parce que le New York Times se bat, parce que d’autres médias se joignent à la lutte, parce que les tribunaux commencent à prendre ces questions au sérieux. Désespoir, parce que le temps presse, parce que chaque jour qui passe voit des médias fermer, des journalistes perdre leur emploi, des enquêtes abandonnées. Nous sommes à un tournant. Les décisions que nous prenons aujourd’hui détermineront le monde dans lequel nous vivrons demain. Et je refuse d’accepter un monde où Perplexity et ses semblables peuvent voler impunément, où le journalisme est réduit à une marchandise gratuite, où la vérité n’a plus de gardiens. Je refuse. Et j’espère que vous refusez aussi.
L’appel à l’action : ce que nous devons faire maintenant
Alors que faire ? D’abord, s’informer. Comprendre comment fonctionnent les IA, quelles données elles utilisent, quelles entreprises respectent les créateurs et lesquelles les volent. Lire les articles, suivre les procès, se tenir au courant des développements. Ensuite, agir. Choisir des services éthiques, s’abonner aux médias qu’on apprécie, cliquer sur les sources originales plutôt que de se contenter des synthèses. Partager les articles complets, pas les résumés générés par IA. Soutenir financièrement le journalisme, même modestement. Chaque abonnement compte, chaque clic compte, chaque partage compte. Puis, exiger. Exiger que les entreprises d’IA soient transparentes sur leurs sources. Exiger que les législateurs créent des lois justes. Exiger que les médias innovent et s’adaptent. Utiliser notre voix, notre vote, notre pouvoir de consommateur pour faire pression. Et enfin, éduquer. Parler de ces enjeux autour de nous, expliquer à nos proches pourquoi c’est important, enseigner aux jeunes générations la valeur de l’information de qualité.
Le combat contre Perplexity et les autres entreprises d’IA qui volent du contenu n’est pas perdu. Mais il ne sera gagné que si nous nous mobilisons tous. Les médias ne peuvent pas gagner seuls. Les législateurs ne peuvent pas agir sans pression publique. Les tribunaux ne peuvent pas créer de bons précédents sans comprendre les enjeux. C’est un effort collectif qui nécessite la participation de chacun. Et c’est urgent. Chaque jour qui passe, le journalisme s’affaiblit un peu plus. Chaque jour, des articles sont volés, des revenus sont perdus, des emplois disparaissent. Nous n’avons plus le luxe d’attendre. Nous devons agir maintenant, avec détermination, avec courage, avec la conviction que l’information a une valeur, que la vérité mérite d’être protégée, que le journalisme est essentiel à la démocratie. L’avenir de l’information est entre nos mains. Que choisirons-nous ?
Je termine cet article avec un sentiment d’urgence. Pas l’urgence factice des titres clickbait, mais l’urgence réelle d’un moment historique. Nous sommes à la croisée des chemins. D’un côté, un avenir où l’IA et le journalisme coexistent, où l’innovation technologique enrichit notre accès à l’information sans détruire ceux qui la produisent. De l’autre, un avenir dystopique où l’information est gratuite mais fausse, où les algorithmes remplacent les journalistes, où la vérité n’a plus de valeur. Le choix nous appartient. Pas aux entreprises d’IA. Pas aux tribunaux. Pas aux législateurs. À nous. À chacun d’entre nous. Alors je vous pose la question : de quel côté serez-vous ? Continuerez-vous d’utiliser Perplexity en fermant les yeux sur ses pratiques ? Ou ferez-vous le choix de soutenir le journalisme, de protéger la vérité, de défendre la démocratie ? La réponse à cette question déterminera le monde dans lequel nous vivrons. Choisissez bien.
Sources
Sources primaires
Courthouse News Service, « New York Times joins copyright fight against AI startup Perplexity », 5 décembre 2025. The Guardian, « New York Times sues AI startup for ‘illegal’ copying of millions of articles », 5 décembre 2025. Reuters, « New York Times sues Perplexity AI for ‘illegal’ copying of copyrighted works », 5 décembre 2025. Yahoo Finance via The Wall Street Journal, « New York Times Escalates Battle Against Perplexity With New Lawsuit », 5 décembre 2025. Chicago Tribune, « Chicago Tribune sues Perplexity AI for copyright infringement », 4 décembre 2025.
Sources secondaires
Les Numériques, « Qu’est-ce que Perplexity AI et comment l’utiliser », 5 janvier 2025. Cloudflare Blog, « Perplexity is using stealth, undeclared crawlers to evade website no-crawl directives », août 2024. The Verge, « The New York Times warns AI search engine Perplexity to stop scraping », 15 octobre 2024. McKool Smith, « AI Infringement Case Updates », diverses dates 2024-2025. Reuters, « Perplexity AI loses bid to dismiss or transfer News Corp copyright case », 21 août 2025.
Ce contenu a été créé avec l'aide de l'IA.