GitHub Copilot peut utiliser une variété de modèles IA. Cet article explique comment ces modèles sont hébergés et servis.
Modèles OpenAI
Utilisé pour les tâches suivantes :
- GPT-4.1
- GPT-5-Codex (pris en charge dans Visual Studio Code v1.104.1 ou supérieur)
- GPT-5 mini
- GPT-5
- o3
- o4-mini
GPT-4.1 est hébergé par le locataire Azure de GitHub lorsqu'il est utilisé dans GitHub Copilot.
GPT-5-Codex, GPT-5, GPT-5 mini, o3 et o4-mini sont hébergés par OpenAI et le locataire Azure de GitHub. OpenAI prend l’engagement suivant en matière de données : Nous [OpenAI] n’entraînons pas nos modèles sur vos données commerciales par défaut. GitHub a conclu un accord de conservation des données zéro avec OpenAI.
Lors de l'utilisation d’OpenAI, les prompts d'entrée et les réponses de sortie continuent de passer par les filtres de contenu de GitHub Copilot pour la correspondance avec le code public, lorsqu'ils sont appliqués, ainsi que par les filtres de contenu nuisible ou offensant.
Modèles anthropices
Utilisé pour les tâches suivantes :
- Claude Sonnet 4.5
- Claude Opus 4.1
- Claude Opus 4
- Claude Sonnet 3.5
- Claude Sonnet 3.7
- Pensif Claude Sonnet 3.7
- Claude Sonnet 4
Claude Opus 4.1 est hébergé par Anthropic PBC. Claude Opus 4 et Claude Sonnet 4 sont hébergés par Anthropic PBC et Google Cloud Platform. Claude Sonnet 4.5 et Claude Sonnet 3.7 sont hébergés par Amazon Web Services, Anthropic PBC et Google Cloud Platform. Claude Sonnet 3.5 est hébergé exclusivement par Amazon Web Services. GitHub a mis en place des accords avec les fournisseurs afin de garantir que les données ne sont pas utilisées pour l’entraînement des modèles. Vous trouverez ci-dessous des informations supplémentaires pour chaque fournisseur :
- Amazon Bedrock : Amazon prend les engagements suivants en matière de données : Amazon Bedrock ne stocke ni n’enregistre vos prompts et vos réponses. Amazon Bedrock n'utilise pas vos invites et vos réponses pour former des modèles AWS et ne les distribue pas à des tiers.
- Anthropic PBC : GitHub a conclu un accord de conservation des données zéro avec Anthropic.
- Google Cloud : dans ses conditions d’utilisation, Google s’engage à ne pas entraîner ses modèles avec les données issues de GitHub. De plus, GitHub n’est pas soumis à l’enregistrement des prompts pour la surveillance des abus.
Afin de fournir une meilleure qualité de service et de réduire la latence, GitHub utilise la mise en cache des prompts. Vous pouvez en savoir plus sur la mise en cache des prompts sur Anthropic PBC, Amazon Bedrock et Google Cloud.
Lors de l'utilisation de Claude, les invites d'entrée et les compléments de sortie continuent de passer par les filtres de contenu de GitHub Copilot pour la correspondance avec le code public, lorsqu'ils sont appliqués, ainsi que par les filtres de contenu nuisible ou offensant.
Modèles Google
Utilisé pour les tâches suivantes :
- Gemini 2.5 Pro
- Flash Gemini 2.0
GitHub Copilot utilise Flash Gemini 2.0 et Gemini 2.5 Pro hébergés sur Google Cloud Platform (GCP). Lorsque vous utilisez des modèles Gemini, des prompts et des métadonnées sont envoyés à GCP, ce qui entraîne le commit de données suivant : Gemini n’utilise pas vos prompts, ni ses réponses, comme données pour entraîner ses modèles.
Afin de fournir une meilleure qualité de service et de réduire la latence, GitHub utilise la mise en cache des prompts.
Lors de l’utilisation des modèles Gemini, les prompts d’entrée et les complétions de sortie continuent de passer par les filtres de contenu de GitHub Copilot pour la correspondance de code public, lorsqu’elle est appliquée, ainsi que pour les contenus nuisibles ou offensants.
Modèles xAI
L’accès gratuit à Grok Code Fast 1 est disponible jusqu’à 12h PDT le mercredi 10 septembre 2025. Le tarif normal s’applique après cette date.
Grok Code Fast 1 est hébergé par xAI lorsqu’il est utilisé dans GitHub Copilot.
xAI exploite Grok Code Fast 1 dans GitHub Copilot conformément à une politique d’API sans conservation des données. Cela signifie que xAI s’engage à ce que le contenu utilisateur (à la fois les entrées envoyées au modèle et les sorties générées par celui-ci) :
Ne soit pas :
- Journalisé à quelque fin que ce soit, y compris pour une révision humaine
- Enregistré sur disque ou conservé sous quelque forme que ce soit, y compris comme métadonnées
- Accessible par le personnel de xAI
Soit uniquement :
- Présent temporairement en mémoire vive (RAM) le temps minimum nécessaire pour traiter et répondre à chaque requête
- Immédiatement supprimé de la mémoire une fois la réponse transmise
Lors de l’utilisation de xAI, les prompts d’entrée et les complétions de sortie continuent de passer par les filtres de contenu de GitHub Copilot pour la correspondance avec du code public (lorsque ces filtres sont appliqués), ainsi que par les filtres destinés à détecter le contenu nuisible ou offensant.