Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AI-Powered Development | Optimiere deine Workfl...

AI-Powered Development | Optimiere deine Workflows mit KI-Tools und MCP-Servern

Avatar for Daniel Sogl

Daniel Sogl

August 19, 2025
Tweet

More Decks by Daniel Sogl

Other Decks in Programming

Transcript

  1. Daniel Sogl • Softwarearchitekt @ Thinktecture AG • MVP: Developer

    Technologies • Fokus: Angular und Generative AI • Socialmedia: https://linktr.ee/daniel_sogl Über mich Optimiere deine Workflows mit KI-Tools und MCP-Servern AI-Powered Development
  2. • Du verstehst die Chancen und Risiken von KI-Tools •

    Du kannst beliebige KI-Tools für deine Workflows anpassen - am Beispiel GitHub Copilot • Du lernst, wie du das passende LLM für deinen Workflow auswählst • Du steigerst deine Produktivität mit Hilfe von KI-Tools AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Ziel des Vortrags
  3. Entwicklung beschleunigen: Boilerplate-Code sofort generieren Qualität verbessern: KI kann Best

    Practices vorschlagen oder Probleme erkennen Fokus auf Logik: Weniger Zeit für repetitive Aufgaben Dokumentation, Tests, Konfigurationen – automatisieren AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Welche Versprechungen machen KI-Tools?
  4. Kann falschen oder unsicheren Code erzeugen Ausgabe muss immer von

    Menschen überprüft werden Fehlendes echtes Verständnis des Projektkontexts Rechtliche/ethische Fragen: IP, Lizenzierung, Datenschutz AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Welche Limitierungen und Risiken werden KI-Tools vorgeworfen?
  5. Die Versprechen • Entwickler erledigen Aufgaben 26 % schneller (MIT,

    2023) • Coding-Tasks sind im Durchschnitt 55 % schneller erledigt (GitHub, 2024) Die (aktuelle) Realität • KI-generierter Code mit Sicherheitslücken von 44 % (Stanford, 2025) • Code-Duplikate haben sich durch KI um den Faktor 4 erhöht (GitClear, 2024) AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Produktivitäts Versprechungen über Produktivität Versprechungen https://mitsloan.mit.edu/ideas-made-to-matter/how-generative-ai-affects-highly-skilled-workers https://github.blog/news-insights/research/research-quantifying-github-copilots-impact-in-the-enterprise-with-accenture https://ee.stanford.edu/dan-boneh-and-team-find-relying-ai-more-likely-make-your-code-buggier https://www.gitclear.com/ai_assistant_code_quality_2025_research
  6. AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Google

    State of DevOps 2024: https://cloud.google.com/devops/state-of-devops
  7. AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Google

    State of DevOps 2024: https://cloud.google.com/devops/state-of-devops
  8. • KI reduziert langfristig kritisches Denken und Problemlösungsfähigkeiten • Gefahr

    der kognitiven Faulheit - “automation bias” • Blindes Vertrauen in KI-Ergebnisse erhöht das Fehlerrisiko AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Cognitive offloading
  9. Warum KI-Tools dich nicht unterstützen • LLMs wurden mit älteren

    Daten trainiert • LLMs verstehen deine Architektur nicht ohne Hilfe • LLMs kennen deine Unternehmensdomänen nicht • LLMs kennen deine Code-Standards nicht • Entwickler schreiben keine Prompts, die jeden Sonderfall oder den erforderlichen Kontext zur Lösung von Aufgaben beschreiben • Unterschiedliche Aufgaben erfordern unterschiedlichen Kontext AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Einschränkungen von LLMs
  10. Context. Context. Context. • Wir können sogenannte Custom Instructions definieren,

    um KI-Tools zusätzlichen Kontext mitzugeben • Eine Custom Instruction ist eine Markdown-Datei mit definierten Regeln, Anweisungen und Richtlinien • Custom Instructions können je nach Dateiendung hinzugefügt werden (z.B. nur für TS-Dateien) • Custom Instructions sind Teil eines Projekts und können mit allen anderen Entwicklern geteilt werden • Alle gängigen Tools - Cursor, Windsurf, Claude Code oder Gemini CLI – unterstützen Custom Instructions Achtung: Derzeit gibt es kein einheitliches Format, das von allen Tools unterstützt wird. Sie müssen für jedes Tool einzeln separate Konfigurationsdateien erstellen. AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Wie können dieses Probleme gelöst werden?
  11. Am Beispiel GitHub Copilot • Copilot kennt zwei Arten von

    Instructions: • Globale Instructions: copilot-instructions.md • Feinabgestimmte Instructions: custom.instructions.md • Instructions können so definiert werden, dass sie für definierte Dateitypen wie *.ts, *.html und *.css gelten • Instructions können auch für Copilot-spezifische Aufgaben wie das Generieren von Commit-Nachrichten, das Erstellen von Tests oder das Überprüfen von Code verwendet werden • Dieses Pattern funktioniert auch mit anderen Tools wie Cursor oder Windsurf Tipp: Halte deine Anweisungen kurz. Jede Instruction wird Teil des Kontextfensters sein AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Custom instructions Hierarchie
  12. • Custom Instruction können basierend auf der aktuellen Projektarchitektur und

    vorhandenen Dateien generiert werden • Verwende KI-Tools um Instructions zu generieren • Nutze eine Beispiel-Instructions Datei als Referenz • Generiere mithilfe von KI-Tools Instructions für Architektur, Abhängigkeiten, Best Practices und Codestil und füge zusätzlichen Kontext hinzu – zum Beispiel eine vorhandene ESLint-Datei oder package.json • Plattformen für generierte Instructions • https://codingrules.ai • https://angular.dev/ai/develop-with-ai • https://www.cursordirectory.com • https://github.com/github/awesome-copilot AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Wie erstellt man Custom Instructions?
  13. Fragmentierte KI-Landschaft: Mehrere KI-Anbieter mit unterschiedlichen APIs, Authentifizierungs- und Antworttypen

    (Text, JSON, Binär) Komplexe Integration: Kontextmanagement, Tools und Antwortverarbeitung sind anspruchsvoll Sicherheit: Zugriffskontrolle, Drittanbieter, private Daten können/dürfen nicht abgerufen oder weitergegeben werden AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Warum MCP wichtig ist
  14. Der Schlüssel für „intelligente“ Workflows • Open-Source-Protokoll von Anthropic •

    Bietet LLMs eine einheitliche Schnittstelle zur Interaktion mit externen Ressourcen • Client-Server-Architektur: KI-Tools (Clients) fordern Kontext von externen Diensten (Servern) an • Offizielle Server sind für GitHub, Atlassian, Playwright, Stripe, Datenbanken und mehr verfügbar • MCP ist der Schlüssel zu nützlichen KI-Coding- Setups in komplexen Umgebungen AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Model Context Protocol (MCP)
  15. AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern MCP

    Workflows Developer asks: “Explain failing tests in PR #42.” Copilot calls GitHub MCP → fetches PR diff + CI log LLM reviews context → returns root-cause & fix steps Dev clicks “Apply fix” → Copilot edits code & opens new PR
  16. • Microsoft verified MCP Servers for Agent Mode: https://code.visualstudio.com/mcp •

    MCP GitHub Repo: https://github.com/modelcontextprotocol/servers • Awesome MCP Server: https://github.com/punkpeye/awesome-mcp-servers • MCP Collection: https://glama.ai/mcp • Offizielle Webseiten von Atlassian, GitHub or PayPal AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Wo findet man MCP servers?
  17. GitHub MCP – connect to the GitHub API Atlassian MCP

    – connect to the Atlassian API (Jira, Confluence) Playwright MCP – control the browser Context7 – fetch library documentations (Angular, React, .Net) Perplexity MCP – search for web content File System MCP – access local file system Memory MCP – share memories between sessions and clients AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern MCP server recommendations
  18. • Nicht alle LLMs sind gleich: Die Leistung variiert stark

    • Reasoning- und Non-Reasoning-Modelle • Die Kontextgröße spielt eine große Rolle • Benchmarks helfen bei der Modellauswahl • Kosten pro 1 Million Input-/Output-Token AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Das richtige LLM für deinen Task wählen
  19. Reasoning • Chain-of-thought: Schreibt interne Planungsschritte, bevor eine Antwort generiert

    wird • Tool calls: Es werden aktiv Daten nachgeladen und Tools im Hintergrund aufgerufen • Self-reflection: Bewertet mehrere Lösungswege und wählt die beste Option aus • Optimal für: Debugging, komplexe Algorythmen, Architekturanalyse • Beispiele: GPT-5, Claude 4 Non-Reasoning • Direct token prediction: Output Tokens ohne interne Planung • Optimal für: Schnelle Generierung von Code, einfachen Aufgaben oder boilerplate Code • Beispiele: GPT-4.1, Gemini 2.5-Flash AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Reasoning vs. Non-Reasoning LLMs
  20. • Bestimmt, wie viel Code/Kontext ein LLM gleichzeitig verarbeiten kann

    • Größerer Kontext → einfacheres Refactoring und Verarbeitung mehrerer Dateien • Beispiele: • Small (~4k tokens): Einzelne Dateien, kurze Funktionen • Medium (16k–32k): Ganze Module, komplexe Klassen • Large (100k+): Gesamte Repositories, API- Dokumentationen AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Warum die Kontextgröße wichtig ist
  21. AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Populäre

    LLMs für die Softwareentwicklung Model Provider Reasoning Context Window SWE-bench $ / 1M tokens Claude 4 Opus Anthropic 200k tokens 72.5 % $15 / $75 Claude 4 Sonnet Anthropic 200k tokens 72.7 % $3 / $15 GPT-5 (high) OpenAI 400k tokens 74.9 % $1.25 / $10 GPT-o3-mini (high) OpenAI 200k tokens 49.3 % $1.10 / $4.40 Gemini 2.5 Pro Google 1M tokens 63 % $1.25 / $10 DeepSeek V3 DeepSeek 163k tokens 38.3 % $0.25 / $0.85 Grok 4 xAI 256k tokens 72 % $3 / $15 Kimi K2 Moonshot 131k tokens 65.8 % $0.13 / $0.13
  22. Welches LLM solltest du wählen? Verwende Claude 4 oder GPT-5

    für komplexe Coding-Tasks Nutze Gemini 2.5 Pro für große Kontextfenster Wähle Kimi K2 für simple Tasks um Geld zu sparen Verwende reasoning Modelle zum Debuggen, Planen oder Testen Behalte das Kontextfenster im Blick Verwende Benchmarks als Referenz um LLMs zu vergleichen Vergleiche Preise über z.B. OpenRouter AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Praktische Empfehlungen
  23. • KI-Tools versprechen enorme Produktivitätssteigerungen, doch die Realität sieht oft

    frustrierend aus • Die Erwartungen an LLMs sind entweder zu hoch oder zu niedrig gesetzt • Entwickler müssen die Grenzen von LLMs und den dahinter stehenden KI-Tools verstehen • Verwende Constom Instructions um möglichst viel relevanten Kontext einem Prompt hinzuzufügen, damit das LLM die Ziele versteht • Erweitere den verfügbaren Kontext mithilfe von MCP-Servern • Validiere generierten Code und verfeinere Tools und Instructions basierend auf den Ergebnissen • Schau in mein Demoprojekt: https://github.com/danielsogl/copilot-workflow-demo AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Fazit
  24. AI-Powered Development Optimiere deine Workflows mit KI-Tools und MCP-Servern Die

    besten Entwickler werden nicht durch KI ersetzt, sondern sie werden lernen, sie einzusetzen