GitHub Copilot peut utiliser un large éventail de modèles IA. Cet article explique comment ces modèles sont hébergés et servis.
Modèles OpenAI
Utilisé pour les tâches suivantes :
- GPT-4.1
- GPT-5 mini
- GPT-5.1
- GPT-5.2
- GPT-5.2-Codex
- GPT-5.3-Codex
- GPT-5.4
- GPT-5.4 mini
Ces modèles sont hébergés par OpenAI et GitHubl’infrastructure Azure.
OpenAI prend l’engagement de données suivant : nous [OpenAI] n’entraînent pas de modèles sur les données métier des clients. Le traitement des données suit les commentaires de confidentialité de l’entreprise d’OpenAI.
GitHub maintient un [contrat de rétention de données zéro](https://platform.openai.com/docs/guides/your-data) avec OpenAI.
Toutes les demandes d’entrée et réponses de sortie traitées par GitHub Copilotles modèles continuent de passer via les systèmes de filtrage de contenu de GitHub Copilot. Ces filtres incluent des vérifications des correspondances de code public (lorsqu’elles sont appliquées) ainsi que des mécanismes permettant de détecter et de bloquer le contenu dangereux ou offensant.
Modèles OpenAI affinés par Microsoft
Utilisé pour les tâches suivantes :
- Raptor mini
- Goldeneye
Ces modèles sont déployés sur un GitHub locataire Azure OpenAI managé.
Modèles Anthropic
Utilisé pour les tâches suivantes :
- Claude Haiku 4.5
- Claude Sonnet 4.5
- Claude Opus 4.5
- Claude Opus 4.6
- Claude Opus 4.6 (mode rapide) (préversion)
- Claude Sonnet 4
- Claude Sonnet 4.6
Ces modèles sont hébergés par Amazon Web Services, PBC anthropic et Google Cloud Platform. GitHub a des contrats de fournisseur en place pour s’assurer que les données ne sont pas utilisées pour l’entraînement. Des détails supplémentaires pour chaque fournisseur sont indiqués ci-dessous :
- Amazon Bedrock : Amazon prend les engagements de données suivants : Amazon Bedrock ne stocke ni n’enregistre vos prompts et complétions. Amazon Bedrock n’utilise pas vos prompts et complétions pour entraîner des modèles AWS et ne les distribue pas à des tiers.
- Anthropic PBC : GitHub maintient un contrat d'absence de rétention de données avec Anthropic pour les fonctionnalités d'Anthropic en disponibilité générale dans GitHub Copilot. Certaines fonctionnalités anthropices en version bêta ou préversion publique, y compris la recherche d’outils via l’API Messages, ne sont pas couvertes par ce contrat. Pour ces fonctionnalités, les données peuvent être conservées par Anthropic conformément à la documentation ZDR d’Anthropic. GitHub mettra à jour cette page au fur et à mesure que la couverture ZDR évolue.
- Google Cloud : Google s'engage à ne pas utiliser les données pour l'entraînement dans le cadre de ses conditions de service. GitHub n'est pas soumis non plus à la journalisation immédiate pour la surveillance des abus.
Pour offrir une meilleure qualité de service et réduire la latence, GitHub utilise la mise en cache des invites. Vous pouvez en savoir plus sur la mise en cache des prompts chez Anthropic PBC, Amazon Bedrock et Google Cloud.
Lors de l’utilisation de Claude, les invites d’entrée et les achèvements de sortie continuent à s’exécuter via GitHub Copilot les filtres de contenu pour la correspondance de code public, lorsqu'ils sont appliqués, ainsi que ceux pour le contenu dangereux ou offensant.
Modèles Google
Utilisé pour les tâches suivantes :
-
Gemini 2.5 Pro
-
Gemini 3 Flash
-
Gemini 3.1 Pro
GitHub Copilot utilise Gemini 3.1 Pro, Gemini 3 Flashet Gemini 2.5 Pro hébergé sur Google Cloud Platform (GCP). Lorsque vous utilisez Gemini des modèles, des invites et des métadonnées sont envoyées à GCP, ce qui rend [l’engagement de données suivant](https://cloud.google.com/vertex-ai/generative-ai/docs/data-governance) : _Gemini n’utilise pas vos invites ou ses réponses, en tant que données pour entraîner ses modèles._
Pour offrir une meilleure qualité de service et réduire la latence, GitHub utilise la mise en cache des demandes.
Lors de l’utilisation des modèlesGemini, les invites d’entrée et les achèvements de sortie continuent à s’exécuter via GitHub Copilot les filtres de contenu pour la correspondance de code public, lorsqu'ils sont appliqués, ainsi que ceux pour le contenu dangereux ou offensant.
Modèles xAI
Ces modèles sont hébergés sur xAI. xAI fonctionne Code Grok Rapide 1 avec GitHub Copilot une politique d'API sans rétention de données. Cela signifie que xAI s’engage à ce que le contenu utilisateur (à la fois les entrées envoyées au modèle et les sorties générées par le modèle) :
Ne sera pas :
- consigné à quelque fin que ce soit, y compris pour une revue humaine
- enregistré sur disque ou conservé sous quelque forme que ce soit, y compris en tant que métadonnées
- accessible au personnel de xAI.
- Utilisé pour l’entraînement de modèle
Sera uniquement :
- conservé temporairement en RAM pendant le temps minimal nécessaire pour traiter et répondre à chaque requête
- immédiatement supprimé de la mémoire dès que la réponse est transmise.
Lors de l’utilisation de xAI, les invites d’entrée et les achèvements de sortie continuent à s’exécuter via GitHub Copilot les filtres de contenu pour la correspondance de code public, lorsqu'ils sont appliqués, ainsi que ceux pour le contenu dangereux ou offensant.
Pour plus d’informations, consultez les conditions d’utilisation d’entreprise de xAI sur le site web xAI.