Première leçon de la formation Claude 6h. Avant d'utiliser Claude, on situe son éditeur Anthropic dans le paysage concurrentiel de l'IA générative et on identifie les critères qui doivent structurer le choix d'un éditeur pour une organisation. Cette leçon est conceptuelle, sans manipulation outil, et donne le cadre stratégique des 24 leçons suivantes. Les arbitrages présentés ici sont réutilisables pour tout outil d'IA générative qui se présentera à votre comité dans les douze prochains mois.
Le stagiaire situe Claude dans le paysage concurrentiel et identifie les différenciateurs qui justifient un choix B2B.
Avant d'apprendre à utiliser un outil, un professionnel doit savoir pourquoi cet outil plutôt qu'un autre. Cette leçon ne fait pas un comparatif marketing — la qualité technique change tous les trois mois et n'engage que celui qui la lit. Elle donne une grille de critères durable, applicable à tout outil d'IA générative qui se présentera dans les prochains mois.
L'objectif est volontairement modeste : à l'issue de la leçon, vous savez nommer les acteurs principaux du marché, distinguer leurs forces, et formuler en comité un argumentaire de choix qui dépasse les seules considérations techniques. Cette base est nécessaire avant les leçons d'usage qui suivront.
Anthropic est née d'une scission OpenAI en 2021, autour de désaccords sur l'approche de la sûreté des modèles. Cette filiation a une conséquence concrète à l'usage : Claude est conçu pour être prévisible, transparent sur ses limites, et il refuse certaines demandes sans en faire un théâtre.
Pour un usage en entreprise, c'est exactement ce qu'on cherche — un outil qui dit non quand il faut, qui documente publiquement ses principes, et sur lequel on peut bâtir une politique d'usage défendable face à un audit interne ou externe.
La société est privée, valorisée à plusieurs dizaines de milliards de dollars, et dispose d'un horizon de financement qui couvre les prochaines années. Pour un professionnel qui s'engage sur trois ans, c'est un point à vérifier avant de signer un déploiement à l'échelle.
Quand on dit « Claude », on désigne en réalité une famille de surfaces qui partagent le même moteur sous-jacent. Chacune répond à un usage professionnel précis.
Au centre, Claude.ai : la conversation web, le point d'entrée pour 90% des cas bureautiques. Claude Code en orbite pour le développement assisté en ligne de commande. Cowork comme agent desktop autonome capable de mener une tâche en plusieurs étapes. Excel et Chrome en add-ins beta pour intégrer Claude dans les outils du quotidien. Design en research preview pour la génération d'interfaces.
Pour cette formation Claude, on se concentre sur Claude.ai (sections 2-3) et Cowork (section 4). Code et Design sont hors scope — un professionnel ne fera pas de Claude Code et Design est trop instable pour un usage non technique.
| Acteur | Force | Limite |
|---|---|---|
| ClaudeAnthropic | Qualité d'écriture, posture éditoriale traçable | Notoriété grand public moindre |
| ChatGPTOpenAI | Notoriété maximale, écosystème de plugins | Verbosité, refus inégaux |
| GeminiGoogle | Intégration native Workspace | Adhérence forte à Google |
| Perplexity | Recherche web sourcée, citations | Faible en rédaction longue |
Quatre acteurs structurent le marché professionnel en 2026 : Claude sur la qualité éditoriale et la conformité, ChatGPT sur la polyvalence et l'écosystème, Gemini sur l'intégration Google Workspace, Perplexity sur la recherche sourcée temps réel.
Ce ne sont pas des concurrents équivalents : chacun excelle sur un usage différent. La question n'est pas « lequel est le meilleur » mais « lequel correspond à mon besoin principal ». Pour la rédaction et l'analyse documentaire en français, Claude domine. Pour la veille temps réel, Perplexity. Pour l'intégration Google, Gemini.
Mention à part pour Mistral, éditeur français : argument souveraineté européenne pertinent pour le secteur public, la défense, la santé. L'écart de qualité éditoriale en français reste perceptible à l'usage par rapport aux leaders américains, mais l'écart se resserre.
Ces cinq critères sont volontairement classés par ordre de priorité décroissante. Choix délibéré : la qualité du modèle (critère 4) vient seulement en quatrième position. À ce niveau de gamme, les écarts entre les leaders sont plus faibles que les écarts entre les contrats.
Un comité qui choisit son éditeur d'IA en 2026 doit d'abord regarder la conformité (qui passe le DPO), puis la posture éditoriale (publication des principes, communication d'incidents), puis la gouvernance opérationnelle (plans entreprise, SSO, audit).
La qualité technique se vérifie ensuite par essai côte à côte sur ses propres prompts. La pérennité financière clôture la liste : signer avec un acteur qui pourrait disparaître dans 18 mois revient à imposer une migration coûteuse à terme.
Anthropic publie ses principes, documente l'évolution de ses modèles, communique sur ses refus et incidents.
Sur les tâches qui structurent le travail d'un professionnel — note, synthèse, intervention — Claude se distingue.
Plans Team et Enterprise, contrats DPA, SSO, conformité, support. Ce qu'un comité attend pour signer.
Cette formation porte sur Claude, mais cela ne signifie pas que Claude est l'unique réponse à tous les besoins d'IA en entreprise. Cela signifie que sur les cinq critères qui précèdent, Claude se positionne aujourd'hui comme le meilleur point d'entrée pour un professionnel.
Pour la recherche web sourcée massive, Perplexity reste pertinent en complément. Pour des organisations déjà profondément intégrées Google Workspace, Gemini a sa place. Pour des contraintes de souveraineté européenne strictes (secteur public, défense, santé), Mistral mérite examen.
Mais pour la majorité des PME et ETI françaises qui démarrent un déploiement IA en 2026, Claude est le meilleur défaut B2B. C'est le pari pédagogique de cette formation.
Un professionnel qui pose à Claude une question factuelle datée — chiffres concurrents, actualité réglementaire — et qui prend la réponse au pied de la lettre commet une erreur structurelle. Les modèles de langage produisent du texte plausible, pas des faits vérifiés.
Pour la recherche datée : activez la recherche web (cf. leçon 10) ou utilisez Perplexity en complément. À cadrer dans la politique d'usage IA de votre organisation (leçon 22). Cette précaution est non négociable pour tout usage qui débouche sur une décision opérationnelle.
Les sources retenues pour cette formation sont strictement officielles : éditeur (anthropic.com, docs.claude.com), institutionnel (cnil.fr). Pas de blog tiers, pas de sites de revue produit, pas de contenus aggrégés. Politique éditoriale YOAT : tout ce qu'on enseigne doit être vérifiable à la source primaire, sans intermédiaire. Cette discipline vous protège en cas d'audit : vos supports citent des sources que l'auditeur peut lui-même consulter.
La section 1 « Cadrer Claude dans son entreprise » continue avec trois leçons complémentaires qui complètent le cadrage stratégique : les trois modèles (Haiku, Sonnet, Opus) et leurs arbitrages de coût, le choix du plan (Free, Pro, Max, Team, Enterprise), et le budget mensuel avec ordres de grandeur réalistes pour une équipe.
À l'issue de la section 1, vous aurez le cadrage complet pour décider quel plan acheter, pour quelle équipe, à quel coût, et avec quels modèles. La section 2 ouvrira ensuite la pratique de Claude.ai au quotidien.