Skip to main content

Cómo Copilot sirve modelos de IA

Aprende cómo Copilot Chat sirve distintos modelos de IA.

GitHub Copilot puede usar diferentes modelos de IA. En este artículo se explica cómo Copilot sirve estos modelos.

Modelos de OpenAI

Se usa para:

  • o3
  • o4-mini

Estos modelos se hospedan en OpenAI y el inquilino de Azure de GitHub cuando se usa en GitHub Copilot. OpenAI realiza el siguiente compromiso de datos: [OpenAI] no entrena a sus modelos con tus datos empresariales de forma predeterminada. GitHub tiene un acuerdo de cero retención de datos con OpenAI.

Al usar modelos de OpenAI, las solicitudes de entrada y las respuestas de salida se siguen ejecutando mediante los filtros de contenido de GitHub Copilot para la coincidencia con código público, cuando corresponde, junto con aquellos para contenido dañino u ofensivo.

Modelos antrópicos

Se usa para:

  • Claude Opus 4
  • Claude Sonnet 3.5
  • Claude Sonnet 3.7
  • Pensamiento de Claude Sonnet 3.7
  • Claude Sonnet 4

Claude Opus 4 y Claude Sonnet 4 están hospedados por Anthropic PBC y Google Cloud Platform. Claude Sonnet 3.7 se hospeda en Amazon Web Services, Anthropic PBC y Google Cloud Platform. Claude Sonnet 3.5 se hospeda exclusivamente en Amazon Web Services. GitHub tiene acuerdos de proveedor para asegurarse de que los datos no se usan para el entrenamiento. A continuación se incluyen detalles adicionales para cada proveedor:

Para proporcionar una mejor calidad del servicio y reducir la latencia, GitHub usa el almacenamiento en caché de indicaciones. Puedes obtener más información sobre el almacenamiento en caché de indicaciones en Anthropic PBC, Amazon Bedrock y Google Cloud.

Al usar Claude, las indicaciones de entrada y las finalizaciones de salida siguen ejecutándose mediante los filtros de contenido de GitHub Copilot para la coincidencia con código público, cuando corresponde, junto con aquellos para contenido dañino u ofensivo.

Modelos de Google

Se usa para:

  • Gemini 2.5 Pro
  • Gemini 2.0 Flash

GitHub Copilot usa Gemini 2.0 Flash y Gemini 2.5 Pro hospedados en Google Cloud Platform (GCP). Al usar modelos de Gemini 2.0 Flash, los mensajes y los metadatos se envían a GCP, que realiza el siguiente compromiso de datos: Gemini no usa tus mensajes, ni sus respuestas, como datos para entrenar sus modelos.

Al usar modelos de Gemini, las indicaciones de entrada y las finalizaciones de salida se siguen ejecutando mediante los filtros de contenido de GitHub Copilot para la coincidencia con código público, cuando corresponde, junto con aquellos para contenido dañino u ofensivo.