GitHub Copilot puede usar diferentes modelos de IA. En este artículo se explica cómo se hospedan y sirven estos modelos.
Modelos de OpenAI
Se usa para:
- GPT-4.1
- GPT-5-Codex (compatible con Visual Studio Code v1.104.1 o versiones superiores)
- GPT-5 mini
- GPT-5
- o3
- o4-mini
GPT-4.1 se hospeda en el inquilino de Azure de GitHub cuando se usa en GitHub Copilot.
Los modelos GPT-5-Codex, GPT-5, GPT-5 mini, o3 y o4-mini se hospedan en OpenAI y el inquilino de Azure de GitHub. OpenAI realiza el siguiente compromiso de datos: [OpenAI] no entrena a sus modelos con tus datos empresariales de forma predeterminada. GitHub tiene un acuerdo de cero retención de datos con OpenAI.
Al usar modelos de OpenAI, las solicitudes de entrada y las respuestas de salida se siguen ejecutando mediante los filtros de contenido de GitHub Copilot para la coincidencia con código público, cuando corresponde, junto con aquellos para contenido dañino u ofensivo.
Modelos antrópicos
Se usa para:
- Claude Sonnet 4.5
- Claude Opus 4.1
- Claude Opus 4
- Claude Sonnet 3.5
- Claude Sonnet 3.7
- Pensamiento de Claude Sonnet 3.7
- Claude Sonnet 4
Claude Opus 4.1 se hospeda en Anthropic PBC. Claude Opus 4 y Claude Sonnet 4 están hospedados por Anthropic PBC y Google Cloud Platform. Claude Sonnet 4.5 y Claude Sonnet 3.7 están hospedados por Amazon Web Services, Anthropic PBC y Google Cloud Platform. Claude Sonnet 3.5 se hospeda exclusivamente en Amazon Web Services. GitHub tiene acuerdos de proveedor para asegurarse de que los datos no se usan para el entrenamiento. A continuación se incluyen detalles adicionales para cada proveedor:
- Amazon Bedrock: Amazon realiza los siguientes compromisos de datos: Amazon Bedrock no almacena ni registra tus solicitudes y finalizaciones. Amazon Bedrock no usa tus indicaciones y finalizaciones para entrenar los modelos de AWS y no los distribuye a terceros.
- Anthropic PBC: GitHub tiene un acuerdo de cero retención de datos con Anthropic.
- Google Cloud: Google se compromete a no entrenar con los datos de GitHub como parte de sus términos de servicio. Además, GitHub no está sujeto al registro de indicaciones para la supervisión de abusos.
Para proporcionar una mejor calidad del servicio y reducir la latencia, GitHub usa el almacenamiento en caché de indicaciones. Puedes obtener más información sobre el almacenamiento en caché de indicaciones en Anthropic PBC, Amazon Bedrock y Google Cloud.
Al usar Claude, las indicaciones de entrada y las finalizaciones de salida siguen ejecutándose mediante los filtros de contenido de GitHub Copilot para la coincidencia con código público, cuando corresponde, junto con aquellos para contenido dañino u ofensivo.
Modelos de Google
Se usa para:
- Gemini 2.5 Pro
- Gemini 2.0 Flash
GitHub Copilot usa Gemini 2.0 Flash y Gemini 2.5 Pro hospedados en Google Cloud Platform (GCP). Al usar modelos de Gemini 2.0 Flash, los mensajes y los metadatos se envían a GCP, que realiza el siguiente compromiso de datos: Gemini no usa tus mensajes, ni sus respuestas, como datos para entrenar sus modelos.
Para proporcionar una mejor calidad del servicio y reducir la latencia, GitHub usa el almacenamiento en caché de indicaciones.
Al usar modelos de Gemini, las indicaciones de entrada y las finalizaciones de salida se siguen ejecutando mediante los filtros de contenido de GitHub Copilot para la coincidencia con código público, cuando corresponde, junto con aquellos para contenido dañino u ofensivo.
Modelos de xAI
El acceso gratuito para Grok Code Fast 1 está disponible hasta las 12:00. PDT el miércoles 10 de septiembre de 2025. Después de ese momento se aplicarán los precios normales.
Grok Code Fast 1 se hospeda en xAI cuando se usa en GitHub Copilot.
xAI opera Grok Code Fast 1 en GitHub Copilot bajo una directiva de API de cero retención de datos. Esto significa que xAI confirma el contenido del usuario (tanto las entradas enviadas al modelo como las salidas que generada):
No:
- Se registrará para ningún propósito, incluida la revisión humana
- Se guardará en disco ni se conservará en ningún formato, incluido como metadatos
- Será accesible para el personal de xAI
Solo:
- Existirá temporalmente en la memoria RAM durante el tiempo mínimo necesario para procesar y responder a cada solicitud
- Se eliminará inmediatamente de la memoria una vez que se entregue la respuesta
Al usar xAI, los mensajes de entrada y las finalizaciones de salida se siguen ejecutando mediante los filtros de contenido de GitHub Copilot para la coincidencia con código público, cuando corresponda, junto con aquellos para contenido dañino u ofensivo.