L’actu du jour – 8 août 2025
Panorama express d’une journée décisive pour la bataille de la recherche IA. Pour ne rien manquer de l’actualité IA et des actualités IA, voici les faits clés, sourcés et datés.
Yomiuri Shimbun attaque Perplexity AI au Japon
Le Yomiuri Shimbun, premier quotidien japonais par diffusion, a déposé le 7 août 2025 une plainte auprès du tribunal de district de Tokyo contre Perplexity AI pour violation du droit d’auteur et » free‑riding « . Le groupe réclame une injonction pour faire cesser toute reproduction et exiger la suppression des contenus litigieux, ainsi que 2,16 à 2,2 milliards de yens (≈ 14,7 M$) de dommages et intérêts – voir Nikkei Asia, The Asahi Shimbun et The Japan Times. Plusieurs reprises évoquent jusqu’à 120 000 articles utilisés sans autorisation (Daily Sun; WebProNews).
Truth Social lance » Truth Search AI » (Perplexity)
Trump Media & Technology Group a annoncé le 6 août le démarrage de la bêta publique de Truth Search AI sur le web, avec un déploiement mobile à venir (GlobeNewswire). L’outil est propulsé par Perplexity et met en avant des réponses citées. Selon TechCrunch, la plateforme peut restreindre les sources, nourrissant les débats sur d’éventuelles bulles informationnelles. D’autres analyses confirment l’intégration via les API de Perplexity (TMCnet).
Signaux produit chez Perplexity
- Génération vidéo discrète : Perplexity a commencé à tester la création de courtes vidéos, d’abord via @AskPerplexity sur X en juin (The Tech Portal), puis en élargissant la disponibilité (Tom’s Guide, 8 août).
- Polémique en Inde (Airtel) : après l’annonce d’un an de Perplexity Pro gratuit pour 360 millions d’abonnés (Airtel), des utilisateurs ont dénoncé une offre » dégradée « . Perplexity dément toute version » Pro‑Lite » (Moneycontrol; Free Press Journal). Contexte d’usage : jusqu’à 300 recherches/jour et upload de fichiers (Indian Express).
Contexte marché : GPT‑5 et monétisation de la recherche
OpenAI a dévoilé GPT‑5, avec des progrès en fiabilité, navigation outillée et agentivité (OpenAI; The Guardian). Dans le même temps, xAI prévoit d’insérer des publicités dans les réponses de Grok – un signal fort pour la monétisation de l’AI Search (TechCrunch; Engadget).
Pour un pas de recul sur la désintermédiation induite par les LLM, lire notre analyse sur la désintermédiation générative.
Pourquoi ces mouvements sont stratégiques pour l’écosystème
Ce moment concentre trois tensions du marché de l’IA générative appliquée à la recherche IA : l’économie de l’attention, la conformité/licensing et la politisation.
- Modèle économique : les moteurs de réponse compressent le trafic sortant au profit d’une captation publicitaire. L’annonce d’annonces dans Grok (xAI) confirme la bascule vers des AI search ads susceptibles d’atteindre 25 Md$ de revenus, selon des estimations citées par CoinCentral. Avec GPT‑5, l’agent conversationnel » tout‑en‑un » (browsing, outils, automations) devient plus attractif que jamais (OpenAI).
- Équilibre éditeurs vs risque juridique : la soutenabilité des answer engines LLM dépend d’attribution, d’opt‑outs, d’audits de provenance et de licensing. Le cas Yomiuri illustre l’exposition, pendant que des deals comme le partenariat avec Le Monde montrent une voie de co‑création. En France, la guerre du scraping a déjà commencé.
- Politisation du moteur : l’intégration de Perplexity dans Truth Social révèle comment un » agent de recherche » peut devenir un filtre idéologique si l’ensemble des sources est paramétré de façon univoque (TechCrunch). C’est un enjeu de confiance pour les marques, et de régulation pour les autorités.
- Pression réglementaire : l’AI Act (GPAI) pousse à documenter les cartes de risques, fiches modèle, et étiquetages des contenus générés. Les équipes doivent intégrer ces exigences dès la conception.
Pour suivre l’actu intelligence artificielle, les actus intelligence artificielle et l’actualité intelligence artificielle au fil des annonces (Perplexity, OpenAI, xAI…), nos dossiers offrent une vue d’ensemble, de la RAG industrialisée à l’attribution passage‑level.
Impacts opérationnels et check-list par profil (CTO, PM, Data/Legal, Marketing)
CTO / Head of Data
- Lawful‑by‑design : ingestion respectant
robots.txt
/noai
, licences explicites, journaux d’accès, consentements. Mettre en place une RAG avec listes blanches/rouges de sources. - Observabilité : logs de requêtes, citations passage‑level, traçabilité des chunks, stockage des preuves d’autorisation.
- Gouvernance AI Act : cartes de risques, fiches modèle, étiquetage des sorties.
Product / PM
- UX des citations : surfacer les sources originales avec deep links cliquables; piloter un KPI de confiance corrélé au CTR sortant.
- Anti‑bulles : diversifier et signaler la pluralité des sources; suivre un indicateur de pluralisme.
- Tests d’alignement : audits biais/idéologie; A/B sur prompts » neutres vs dirigés « .
Legal / Compliance
- Cartographier les juridictions sensibles (Japon, UE), clauses éditeurs; gérer DMCA/équivalents et injonctions.
- Politique de réponse aux retraits, blocages et opt‑outs éditeurs.
Marketing / SEO
- Préparer un AI‑SEO : contenus structurés, schémas enrichis, passages citables, licences claires.
- Brand safety : évaluer les intégrations (ex. Truth Social) et assurer une veille e‑réputation dans les réponses d’IA.
Métriques à suivre
Métrique | Définition | Cible initiale |
---|---|---|
Taux de citation | % de réponses avec sources passage‑level | > 95% |
CTR sortant | Part d’utilisateurs cliquant vers les sources | > 25% |
Part de sources sous licence | % de documents cités couverts par un contrat | > 60% (puis 80%) |
Score de diversité | Indice de pluralisme (idéologie/pays/médias) | > 0,7 (échelle 0–1) |
Taux d’abstention | Réponses » je ne sais pas » si confiance < seuil | 2–5% |
Pour approfondir le cadre réglementaire, voir notre dossier AI Act.
Le point technique: bâtir une recherche IA responsable (patrons 2025)
Architecture de référence
- Ingestion sous licence → contrôles
robots.txt
/noai
, contrats éditeurs, empreintes/horodatage. - Index vecteur → chunking, métadonnées de provenance, normalisation des URL.
- RAG réversible → capacité de replay pour prouver le contexte documentaire.
- Génération LLM (GPT‑5, Mistral, Claude…) avec contraintes de citation et attribution passage‑level.
- Vérification → fact‑check automatique, filtres juridiques, » answer abstention » si score de confiance < seuil.
- Télémetrie & audit → journaux complets, conservation des preuves (hash, licences), tableaux de bord biais.
Bonnes pratiques dev
- Empêcher les » réponses sans source « ; bloquer la sortie si aucune citation fiable.
- Détection et dé‑duplication d’URL; snippets passage‑level pour augmenter le CTR sortant.
- Réduction d’hallucinations par retrieval obligatoire et abstention sous seuil.
- Filtrage idéologique : diversité contrôlée du corpus, politiques de classement explicites, dashboards de biais.
Outils et briques utiles
- Frameworks RAG open source (LangChain, LlamaIndex), connecteurs de licensing, policy‑as‑code pour l’ingestion.
- Mécanismes d’opt‑out/opt‑in éditeurs; monitoring des headers/robots; contrats d’attribution et clauses de replay.
Call‑to‑action : check‑list et backlog 30jours
- Semaine1 : audit corpus (licences/opt‑outs), instrumentation des citations passage‑level, mise en place d’un seuil de confiance et d’un mode abstention.
- Semaine2 : implémentation RAG réversible, normalisation des URL, table de mapping sources (blanc/rouge), premiers dashboards de pluralisme.
- Semaine3 : tests A/B » neutre vs dirigé « , revue brand safety, démarrage des négociations de licences avec 5 éditeurs cibles.
- Semaine4 : fiche de modèle (AI Act), carte de risques, runbook d’injonction/retrait, rapport d’audit provenance + plan d’amélioration.
Astuce : capitaliser sur les capacités de GPT‑5 pour les chaînes d’outils (browsing, code, extraction), tout en gardant une garde‑fou juridique et une attribution systématique.
Conclusion – Vers une recherche IA à deux vitesses
La trajectoire qui se dessine : d’un côté, des acteurs capables de signer des licences massives et d’auditer la provenance à grande échelle; de l’autre, des plateformes plus » politiques » qui ferment ou restreignent leurs sources. Le procès du Yomiuri contre Perplexity AI au Japon, l’arrivée de Truth Search AI et le lancement de GPT‑5 accélèrent cette fracture.
À surveiller cette semaine :
- Les suites procédurales à Tokyo (plaintes, injonctions, positions des éditeurs) : voir Japan Times, Asahi.
- Les premiers retours utilisateurs de Truth Search AI et les paramètres de sources communiqués (TechCrunch).
- Les annonces GPT‑5 côté recherche/agents (API, browsing, automations) : OpenAI.
- De nouveaux accords éditeurs (à l’image du partenariat avec Le Monde) et les impacts sur la désintermédiation (notre analyse).
Recommandation : prioriser la conformité (AI Act), l’attribution transparente et la diversité des sources. À la clé : avantage concurrentiel durable, réduction du risque juridique et meilleure expérience utilisateur. Pour des synthèses continues et une veille des actus intelligence artificielle, abonnez‑vous à nos dossiers thématiques.