Tribune Juive

Scroll Zero #2 – Février 2°26. Par Jérôme Deiss

Illustration générée par IA (OpenAI | DALL·E)

Stargate, un an après : quand l’IA construit son propre pays

500 milliards de dollars. C’est le montant annoncé par Donald Trump lui-même, depuis la Maison Blanche, le 21 janvier 2025. À ses côtés : Masayoshi Son (SoftBank), Sam Altman (OpenAI) et Larry Ellison (Oracle).¹ Le message était clair, l’IA est désormais considérée comme une infrastructure stratégique nationale.

Un an plus tard, Stargate n’est plus une promesse de campagne. C’est un chantier industriel sans précédent.

Cinq sites sont en construction au Texas, au Nouveau-Mexique, dans le Wisconsin et en Ohio.² Le campus principal d’Abilene, au Texas, est déjà opérationnel avec des racks de puces NVIDIA.³ Capacité totale visée : près de 7 gigawatts, avec un objectif de 10 GW à terme.² L’équivalent de plusieurs réacteurs nucléaires, uniquement pour faire tourner des modèles d’IA.

Face à cette démesure énergétique, OpenAI a dû inventer un nouveau rôle : celui de quasi-service public. Le 21 janvier 2026, un an jour pour jour après l’annonce initiale, l’entreprise a présenté son « Community Plan » avec une promesse inhabituelle pour une tech company : financer intégralement les infrastructures électriques locales pour que les habitants ne voient pas leur facture augmenter.

Derrière ce geste, une nécessité stratégique. Sans acceptation locale, pas de permis. Sans énergie stable, pas de data centers. OpenAI n’achète pas seulement du terrain, elle négocie un contrat social avec des communautés entières.

Dave Eggers imaginait dans « The Circle » une entreprise tech devenue plus puissante que les gouvernements. Avec Stargate, on n’en est pas encore là. Mais quand une société privée promet aux habitants d’une région qu’elle ne fera pas augmenter leur facture d’électricité, la frontière devient floue.

IA et numérique : les Français entre curiosité et méfiance

60% curieux. 50% anxieux. 75% y voient une menace pour la démocratie. L’ambivalence est la posture dominante et c’est probablement la réponse la plus lucide qu’on puisse avoir.

La consultation citoyenne du CIANum (déc. 2025 – janv. 2026, 6 122 participants) révèle une fracture nette : ce ne sont pas les moins connectés qui ont peur de l’IA, ce sont les plus exposés économiquement. Les 18-25 ans sont les plus anxieux (61%), devant les seniors (45%).

Trois attentes dominent : former la population (58%), réguler les acteurs (54%), réduire la dépendance aux plateformes non-européennes (61%). L’autorégulation des plateformes ne convainc que 3%.

Et la priorité sociétale n°1 ? La fiabilité de l’information est citée par 64% des participants.

Source : Synthèse CIANum -DITP, janvier 2026. Synthèse en PDF

Pourquoi le cadrage du prompt change tout

Illustration générée par IA (Open AI | DALL·E)

Un prompt imprécis produit du bruit organisé. Un prompt structuré produit de la valeur. La question n’est donc pas « quelle IA utiliser ? » mais « comment formulons-nous nos demandes ? »

Pour comprendre l’enjeu, il faut savoir comment un modèle de langage traite réellement un texte. Il ne le lit pas : il le découpe en petits fragments appelés tokens, attribue à chacun un poids statistique selon son contexte, puis prédit le mot le plus probable à chaque étape. Ce mécanisme a une conséquence directe : un prompt vague produit une réponse probable, pas nécessairement utile. Un prompt structuré, avec un rôle défini, un périmètre explicite et un format attendu, réduit l’espace des possibles.

Harvard Business School et BCG ont quant à eux mesuré l’écart sur 758 consultants : +40% de qualité avec un bon cadrage, -19 points de précision quand l’IA est mal sollicitée.¹ L’outil ne fait pas la différence. La méthode, si.

Les chercheurs de Stanford ont par ailleurs démontré en 2023 que les informations placées au milieu d’un prompt long sont systématiquement sous-pondérées « Lost in the middle ».² Ce que vous mettez en premier et en dernier compte davantage.

En pratique : placez les contraintes en début de prompt, décomposez les demandes complexes en étapes, et laissez le modèle poser des questions avant de produire. C’est ce que les professionnels du digital appellent désormais le méta-prompt.³

FOCUS : Publicité et abonnements IA : les lignes de fracture se dessinent

Illustration générée par IA (Open AI | DALL·E)

La publicité dans les assistants IA conversationnels est en train de devenir un marqueur stratégique. Derrière le débat économique se joue un enjeu d’alignement : financement par l’utilisateur ou financement par l’attention.

Le 9 février 2026, OpenAI a lancé un test publicitaire dans ChatGPT aux États-Unis, pour les utilisateurs gratuits et Go. Les abonnés Plus, Pro et Enterprise restent sans publicité. L’entreprise promet la séparation entre réponses et contenus sponsorisés, la protection des données et l’absence d’influence des annonceurs sur les réponses (openai.com, « Testing ads in ChatGPT », 9 février 2026).

Anthropic a pris la position inverse en publiant le 4 février 2026 un engagement formel : Claude restera sans publicité. L’entreprise a diffusé un spot au Super Bowl avec le slogan « Ads are coming to AI. But not to Claude » (anthropic.com, « Claude is a space to think », 4 février 2026).

Perplexity, pionnier des formats sponsorisés en 2024, a abandonné la publicité début 2026 pour des raisons de crédibilité. Un dirigeant a résumé : « La publicité fait douter l’utilisateur de tout » (Financial Times, février 2026).

Du côté des écosystèmes existants, Meta utilise depuis décembre 2025 les conversations Meta AI pour cibler les publicités sur ses plateformes. Google nie tout projet publicitaire dans Gemini, mais intègre déjà des annonces dans AI Overviews et AI Mode. Microsoft insère des publicités sponsorisées dans les réponses Copilot via Bing.

Mistral AI reste sur un modèle B2B et API, sans dimension publicitaire.

Deux visions s’affrontent : l’IA comme espace de confiance ou comme nouveau canal d’attention monétisable.

Le petit dico de l’IA

Illustration générée par IA (Open AI | DALL·E)

L’intelligence artificielle s’accompagne d’un vocabulaire spécialisé. Six termes essentiels pour décoder l’actualité de ce mois.

LLM (Large Language Model) : modèle de langage entraîné sur de grandes quantités de texte, capable de générer du contenu. ChatGPT, Claude ou Le Chat reposent sur des LLM.

Token : unité de base qu’un modèle de langage manipule. Un mot court, une syllabe ou un signe de ponctuation.

Prompt : instruction ou demande formulée en langage naturel soumise à un modèle d’IA.

RAG (Retrieval-Augmented Generation) : technique qui connecte un modèle d’IA à des sources externes pour enrichir ses réponses au-delà de son entraînement initial.

Hallucination : réponse incorrecte ou inventée produite par un modèle d’IA avec un niveau de confiance apparent.

Agent IA : système capable d’effectuer une séquence de tâches de manière autonome, en planifiant, décidant et agissant sans intervention humaine à chaque étape. On parle aussi d’IA agentique pour désigner cette approche.

Prochain numéro en mars.

Jérôme Deiss

Responsable projets numériques Social Media & IA • Expert Data-driven Direction des Médias et des Publics | Académie Digitale | France Télévisions

Quitter la version mobile