Vergleich von KI-Modellen für GitHub Copilot
GitHub Copilot unterstützt mehrere KI-Modelle mit unterschiedlichen Funktionen. Das von Ihnen ausgewählte Modell beeinflusst die Qualität und Relevanz der Antworten bei Copilot-Chat und Copilot inline-Vorschlägen. Einige Modelle bieten eine geringere Latenz, andere weniger Halluzinationen oder eine bessere Leistung bei bestimmten Aufgaben. In diesem Leitfaden können Sie das beste Modell basierend auf Ihrer Aufgabe und nicht nur basierend auf Modellnamen auswählen.
Hinweis
- Die verschiedenen Modelle weisen unterschiedliche Multiplikatoren für Premiumanfragen auf, was sich auf den Verbrauch deines monatlichen Nutzungskontingents auswirken kann. Ausführliche Informationen findest du unter Anforderungen in GitHub Copilot.
- Wenn Sie Copilot-Chat in unterstützten IDEs verwenden, wählt Auto automatisch je nach Verfügbarkeit das beste Modell für Sie aus. Du kannst ein andere Modell manuell auswählen, um diese Auswahl zu überschreiben. Weitere Informationen findest du unter Informationen zur Copilot automatischen Modellauswahl und Ändern des KI-Modells für GitHub Copilot Chat.
Empfohlene Modelle nach Aufgabe
Verwende diese Tabelle, um schnell ein geeignetes Modell zu finden. Weitere Details findest du in den folgenden Abschnitten.
| Modell | Aufgabenbereich | Hervorragende Leistung (primärer Anwendungsfall) | Weiterführende Themen |
|---|---|---|---|
| GPT-4.1 | General-purpose coding and writing | Fast, accurate code completions and explanations | GPT-4.1 model card |
| GPT-5 mini | General-purpose coding and writing | Fast, accurate code completions and explanations | GPT-5 mini model card |
| GPT-5.2 | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | GPT-5.2 model card |
| GPT-5.2-Codex | Agentic software development | Agentic tasks | GPT-5.2-Codex model card |
| GPT-5.3-Codex | Agentic software development | Agentic tasks | GPT-5.3-Codex model card |
| GPT-5.4 | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | GPT-5.4 model card |
| GPT-5.4 mini | Agentic software development | Codebase exploration and is especially effective when using grep-style tools | Not available |
| Claude Haiku 4.5 | Fast help with simple or repetitive tasks | Fast, reliable answers to lightweight coding questions | Claude Haiku 4.5 model card |
| Claude Opus 4.5 | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Claude Opus 4.5 model card |
| Claude Opus 4.6 | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Claude Opus 4.6 model card |
| Claude Opus 4.6 (fast mode) (preview) | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Not available |
| Claude Opus 4.7 | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Not available |
| Claude Sonnet 4.0 | Deep reasoning and debugging | Performance and practicality, perfectly balanced for coding workflows | Claude Sonnet 4.0 model card |
| Claude Sonnet 4.5 | General-purpose coding and agent tasks | Complex problem-solving challenges, sophisticated reasoning | Claude Sonnet 4.5 model card |
| Claude Sonnet 4.6 | General-purpose coding and agent tasks | Complex problem-solving challenges, sophisticated reasoning | Claude Sonnet 4.6 model card |
| Gemini 2.5 Pro | Deep reasoning and debugging | Complex code generation, debugging, and research workflows | Gemini 2.5 Pro model card |
| Gemini 3 Flash | Fast help with simple or repetitive tasks | Fast, reliable answers to lightweight coding questions | Gemini 3 Flash model card |
| Gemini 3.1 Pro | Deep reasoning and debugging | Effective and efficient edit-then-test loops with high tool precision | not applicable |
| Grok Code Fast 1 | General-purpose coding and writing | Fast, accurate code completions and explanations | Grok Code Fast 1 model card |
| Qwen2.5 | General-purpose coding and writing | Code generation, reasoning, and code repair / debugging | Qwen2.5 model card |
| Raptor mini | General-purpose coding and writing | Fast, accurate code completions and explanations | Coming soon |
Aufgabe: Allgemeines Programmieren und Schreiben
Verwende diese Modelle für allgemeine Entwicklungsaufgaben, die ein Gleichgewicht zwischen Qualität, Geschwindigkeit und Kosteneffizienz erfordern. Diese Modelle sind ein guter Standard, wenn Sie keine spezifischen Anforderungen haben.
| Modell | Gründe für die Verwendung |
|---|---|
| GPT-5.3-Codex | Stellt Code mit höherer Qualität für komplexe Engineering-Aufgaben wie Features, Tests, Debuggen, Refactors und Überprüfungen ohne lange Anweisungen bereit. |
| GPT-5 mini | Zuverlässiger Standard für die meisten Programmier- und Schreibaufgaben. Schnell, präzise und funktioniert in allen Sprachen und Frameworks gut. |
| Grok Code Fast 1 | Spezialisiert für Programmieraufgaben. Bietet gute Leistung bei der Codegenerierung und beim Debuggen in mehreren Sprachen. |
| Raptor Mini | Spezialisiert auf schnelle, genaue Inlinevorschläge und Erklärungen. |
Verwenden dieser Modelle
Verwenden Sie eines dieser Modelle für folgende Aufgaben:
- Schreiben oder Überprüfen von Funktionen, kurzen Dateien oder Code-diffs.
- Generieren von Dokumentation, Kommentaren oder Zusammenfassungen.
- Schnelles Erläutern von Fehlern oder unerwartetem Verhalten.
- Arbeiten in einer nicht englischen Programmierumgebung.
Verwenden eines anderen Modells
Wenn Sie an komplexer Umgestaltung, Architekturentscheidungen oder mehrstufiger Logik arbeiten, erwägen Sie ein Modell unter Tiefgehende Begründungen und Debuggen. Schnellere, einfachere Aufgaben wie sich wiederholende Bearbeitungen oder einmalige Codeempfehlungen finden Sie unter Schnelle Unterstützung bei einfachen oder sich wiederholenden Aufgaben.
Aufgabe: Schnelle Unterstützung bei einfachen oder sich wiederholenden Aufgaben
Diese Modelle sind für Geschwindigkeit und Reaktionsfähigkeit optimiert. Sie sind hervorragend für schnelle Bearbeitungen, Hilfsfunktionen, Syntaxunterstützung und einfache Prototyperstellung geeignet. Sie erhalten schnelle Antworten, ohne auf unnötige tiefe Begründungen oder lange Begründungsketten zu warten.
Empfohlene Modelle
| Modell | Gründe für die Verwendung |
|---|---|
| Claude Haiku 4.5 | Vereint schnelle Antworten mit einer qualitätsbezogenen Ausgabe. Ideal für kleine Aufgaben und einfache Codeerläuterungen. |
Verwenden dieser Modelle
Verwenden Sie eines dieser Modelle für folgende Aufgaben:
- Schreiben oder Bearbeiten kleiner Funktionen oder Hilfsprogrammcode.
- Stellen schneller Fragen zu Syntax oder Sprachen.
- Prototypideen mit minimalem Setup.
- Erhalten von schnellem Feedback zu einfachen Prompts oder Bearbeitungen.
Verwenden eines anderen Modells
Wenn Sie an komplexer Umgestaltung, Architekturentscheidungen oder mehrstufiger Logik arbeiten, finden Sie weitere Informationen unter Tiefgehende Begründungen und Debuggen. Aufgaben, die eine stärkere allgemeine Begründung oder eine strukturiertere Ausgabe benötigen, finden Sie unter Allgemeines Programmieren und Schreiben.
Aufgabe: Tiefgehende Begründungen und Debuggen
Diese Modelle sind für Aufgaben konzipiert, die eine schrittweise Begründung, eine komplexe Entscheidungsfindung oder ein hohes Kontextbewusstsein erfordern. Sie funktionieren gut, wenn Sie strukturierte Analysen, eine Generierung durchdachten Codes oder ein dateiübergreifendes Verständnis benötigen.
Empfohlene Modelle
| Modell | Gründe für die Verwendung |
|---|---|
| GPT-5 mini | Bietet umfassende Begründungen und Debuggen mit schnelleren Antworten und geringerer Ressourcennutzung als GPT-5. Ideal für interaktive Sitzungen und schrittweise Codeanalyse. |
| GPT-5.4 | Hervorragend geeignet für komplexe Begründungen, Codeanalyse und technische Entscheidungsfindung. |
| Claude Sonett 4.6 | Verbessert Sonnet 4.5 mit zuverlässigeren Abschlüssen und intelligenterem Denken unter Druck. |
| Claude Opus 4.7 | Das leistungsstärkste Modell von Anthropic. Verbessert auf Claude Opus 4.6. |
| Gemini 3.1 Pro | Erweiterte Begründungen für breitgefächerte Kontexte und wissenschaftliche oder technische Analysen. |
| Goldeneye | Komplexe Herausforderungen bei der Problemlösung und anspruchsvolles Denken. |
Verwenden dieser Modelle
Verwenden Sie eines dieser Modelle für folgende Aufgaben:
- Debuggen komplexer Probleme mit dateiübergreifendem Kontext.
- Umgestalten großer oder miteinander verbundener Codebasen.
- Planen schichtübergreifender Features oder Architekturen.
- Abwägen der Kompromisse zwischen Bibliotheken, Mustern oder Workflows.
- Analysieren von Protokollen, Leistungsdaten oder Systemverhalten.
Verwenden eines anderen Modells
Eine schnelle Iteration oder einfache Aufgaben finden Sie unter Schnelle Unterstützung bei einfachen oder sich wiederholenden Aufgaben. Allgemeine Entwicklungsworkflows oder Inhaltsgenerierung finden Sie unter Allgemeines Programmieren und Schreiben.
Aufgabe: Arbeiten mit Visuals (Diagramme, Screenshots)
Verwenden Sie diese Modelle, wenn Sie Fragen zu Screenshots, Diagrammen, Benutzeroberflächenkomponenten oder weiteren visuellen Eingaben stellen möchten. Diese Modelle unterstützen die multimodale Eingabe und sind gut für die Front-End-Arbeit oder das visuelles Debuggen geeignet.
| Modell | Gründe für die Verwendung |
|---|---|
| GPT-5 mini | Zuverlässiger Standard für die meisten Programmier- und Schreibaufgaben. Schnell, präzise und unterstützt die multimodale Eingabe für visuelle Schlussfolgerungsaufgaben. Funktioniert sprachen- und framework-übergreifend gut. |
| Claude Sonett 4.6 | Verbessert Sonnet 4.5 mit zuverlässigeren Abschlüssen und intelligenterem Denken unter Druck. |
| Gemini 3.1 Pro | Umfassende Schlussfolgerungen und umfassendes Debuggen, ideal für komplexe Codegenerierungs-, Debug- und Rechercheworkflows. |
Verwenden dieser Modelle
Verwenden Sie eines dieser Modelle für folgende Aufgaben:
- Stellen von Fragen zu Diagrammen, Screenshots oder Benutzeroberflächenkomponenten.
- Erhalten von Feedback zu visuellen Entwürfen oder Workflows.
- Veranschaulichen des Front-End-Verhaltens im visuellen Kontext.
Tipp
Wenn Sie ein Modell in einem Kontext verwenden, der die Bildeingabe (z. B. einen Code-Editor) nicht unterstützt, entstehen keine Vorteile durch visuelle Begründungen. Möglicherweise können Sie einen MCP-Server verwenden, um indirekten Zugriff auf visuelle Eingaben zu erhalten. Weitere Informationen findest du unter Erweitern von GitHub-Copilot Chat mit MCP-Servern (Model Context Protocol).
Verwenden eines anderen Modells
Wenn Ihre Aufgabe tiefgreifende Begründungen oder eine umfangreiche Umgestaltung erfordert, erwägen Sie ein Modell unter Tiefgreifende Begründungen und Debuggen. Nur-Text-Aufgaben oder eine einfachere Codebearbeitungen finden Sie unter Schnelle Unterstützung bei einfachen oder sich wiederholenden Aufgaben.
Nächste Schritte
Wenn Sie das richtige Modell auswählen, können Sie das Beste aus Copilot herausholen. Wenn Sie nicht sicher sind, welches Modell sie verwenden soll, beginnen Sie mit einer allgemeinen Option wie GPT-4.1z. B. und passen Sie dann basierend auf Ihren Anforderungen an.
- Detaillierte Modellspezifikationen und Preise finden Sie unter Unterstützte KI-Modelle in GitHub Copilot.
- Weitere Beispiele für die Verwendung verschiedener Modelle finden Sie unter Vergleichen von KI-Modellen bei Verwendung unterschiedlicher Aufgaben.
- Informationen zum Wechseln zwischen Modellen findest du unter AUTOTITLE- oder Änderung des KI-Modells für GitHub Copilot-Inline-Vorschläge.
- Informationen dazu, wie Copilot-Chat verschiedene KI-Modelle dienen, finden Sie unter Hosting von Modellen für GitHub Copilot.