KI-Lösungen entwickeln.
Von der API bis zum eigenen Modell.
Die meisten KI-Projekte scheitern nicht an der Technologie, sondern an der Architekturentscheidung. API oder Self-Hosting? RAG oder Fine-Tuning? Cloud oder On-Premises? Wer die Optionen kennt, baut bessere Lösungen.
Wir schulen Entwickler, Architekten und technische Leads in den Technologien, Patterns und Entscheidungsframeworks, die KI-Projekte erfolgreich machen.
Über 20.000 Unternehmen und Behörden vertrauen auf uns
Von der API bis zum
eigenen Modell.
KI-Entwicklung ist kein einzelnes Skill-Set, sondern ein Spektrum von Integrationstiefe. Am einen Ende steht ein einfacher API-Call an OpenAI. Am anderen Ende ein selbst gehostetes, fine-getuntes Modell auf eigener Hardware. Dazwischen liegen RAG-Architekturen, Agenten-Frameworks und Cloud-KI-Services.
Die entscheidende Frage ist nicht „Was ist technisch möglich?“, sondern „Was passt zu unserem Use Case, unserem Budget und unserer Infrastruktur?“ Ein Chatbot für den Kundensupport braucht eine andere Architektur als ein System zur automatischen Vertragsanalyse. Ein Startup mit Cloud-Infrastruktur trifft andere Entscheidungen als ein Maschinenbauer mit strengen Compliance-Vorgaben.
In unseren Schulungen vermitteln wir nicht nur die technische Umsetzung, sondern vor allem das Architektur-Know-how: Wann reicht ein API-Call? Wann brauchst du RAG? Ab wann lohnt sich Fine-Tuning? Und wann ist Self-Hosting die einzig sinnvolle Option? Entwickler, die diese Entscheidungen fundiert treffen können, sparen ihrem Unternehmen Monate an Fehlentwicklung.
Das Ergebnis: Dein Team baut nicht die technisch beeindruckendste Lösung, sondern die richtige Lösung für euer Problem. Und das ist oft einfacher als gedacht.
der erfolgreichen KI-Projekte beginnen mit API-Integration, bevor sie komplexere Architekturen evaluieren.
RAG-basierte Lösungen sind bis zu fünfmal schneller produktionsreif als Fine-Tuning-Projekte.
Self-Hosting von Open-Source-LLMs kann die laufenden Kosten bei hohem Volumen um bis zu 60% senken.
Vom API-Einstieg bis zum LLM-Self-Hosting. Technische Tiefe für jede Integrationsebene.
Vier Wege zur KI-Lösung.
Und wann welcher passt.
Jedes KI-Projekt braucht eine Architekturentscheidung. Diese vier Patterns decken 95% aller Enterprise-Anwendungsfälle ab. Die Kunst liegt darin, das richtige Pattern für dein Problem zu wählen.
API-Integration
Der schnellste Weg
Du rufst ein fertiges Modell per REST-API auf: OpenAI, Claude, Gemini oder Azure OpenAI. Dein Code sendet einen Prompt, bekommt eine Antwort, verarbeitet sie weiter. Kein eigenes Modell, kein Training, keine GPU-Infrastruktur. Die Integration lässt sich in Tagen umsetzen und in bestehende Applikationen einbauen.
Wann einsetzen
Texterzeugung, Zusammenfassungen, Übersetzung, Klassifikation, Code-Generierung. Immer wenn Standard-Modelle ausreichen und Latenz unter einer Sekunde kein Muss ist.
Technologien
OpenAI API, Anthropic API, Azure OpenAI, Google Vertex AI, AWS Bedrock
RAG (Retrieval Augmented Generation)
Eigene Daten, fremdes Modell
Du kombinierst ein vortrainiertes Sprachmodell mit deinen eigenen Dokumenten. Deine Daten werden in Vektoren umgewandelt und in einer Vektordatenbank gespeichert. Bei einer Anfrage sucht das System die relevantesten Dokumente heraus und gibt sie als Kontext an das LLM weiter. Das Modell antwortet auf Basis deiner Daten statt auf Basis seines Trainings.
Wann einsetzen
Wissensdatenbanken, Dokumentensuche, Supportbots, interne Assistenten. Immer wenn das Modell mit aktuellen oder vertraulichen Unternehmensdaten arbeiten soll, ohne dass du es neu trainierst.
Technologien
LangChain, LlamaIndex, Pinecone, Weaviate, Qdrant, Chroma, pgvector
Fine-Tuning
Modell anpassen
Du nimmst ein vortrainiertes Modell und trainierst es mit eigenen Daten weiter. Das Modell lernt deinen Schreibstil, deine Fachsprache, deine Klassifikationslogik. Das Ergebnis: Ein spezialisiertes Modell, das ohne zusätzlichen Kontext die richtigen Antworten liefert. Schneller und günstiger pro Anfrage als RAG, aber mit höherem initialen Aufwand.
Wann einsetzen
Domänenspezifische Sprache, konsistenter Output-Stil, Klassifikation mit vielen Kategorien, Aufgaben mit klarem Input-Output-Muster. Wenn RAG nicht reicht oder die Latenz kritisch ist.
Technologien
OpenAI Fine-Tuning API, Hugging Face Transformers, LoRA/QLoRA, Axolotl, Unsloth
Self-Hosting
Volle Kontrolle
Du betreibst ein Open-Source-Modell auf eigener Infrastruktur: On-Premises-Server, Private Cloud oder dedizierte GPU-Instanzen. Keine Daten verlassen dein Netzwerk. Du kontrollierst Modellversion, Verfügbarkeit und Kosten. Besonders relevant für Unternehmen mit strengen Compliance-Anforderungen oder hohem Anfragevolumen.
Wann einsetzen
Datenschutz-kritische Anwendungen, Branchen mit regulatorischen Auflagen, hohes Anfragevolumen mit planbaren Kosten, Air-Gapped-Umgebungen. Wenn du die Cloud nicht nutzen kannst oder willst.
Technologien
Llama 3, Mistral, DeepSeek, Ollama, vLLM, Text Generation Inference, KI-Apps mit Docker
„Der häufigste Fehler bei KI-Projekten: Zu viel Architektur für zu wenig Problem. Starte mit der einfachsten Lösung, die funktioniert, und skaliere bei Bedarf.“
Aus über 200 technischen KI-Schulungen bei cmt
Die Tools und Plattformen,
die du kennen musst.
Das KI-Ökosystem wächst rasant. Hier die Technologien, die in Unternehmensprojekten tatsächlich im Einsatz sind - nicht die, die nur auf Konferenzen gezeigt werden.
OpenAI API
Kommerzielle APIGPT-4o, o3, o4-mini. Die am weitesten verbreitete LLM-API. Exzellent für Texterzeugung, Code-Generierung, Analyse. Einfache Integration via REST oder Python SDK. Sinnvoll für: schnelle Prototypen, breites Aufgabenspektrum.
Azure OpenAI Service
Enterprise CloudDie gleichen OpenAI-Modelle, aber gehostet in Microsoft Azure. Enterprise-Features wie VNET-Integration, RBAC, EU-Rechenzentren und Data Residency. Pflichtprogramm für Unternehmen mit Microsoft-Infrastruktur und Compliance-Anforderungen.
Claude API (Anthropic)
Kommerzielle APIClaude Opus, Sonnet, Haiku. Besonders stark bei langen Kontexten (bis 200K Token), nuanciertem Reasoning und Code. Extended Thinking für mehrstufige Analysen. Über AWS Bedrock oder direkt nutzbar.
Open-Source-LLMs
Self-HostingLlama 3.x (Meta), Mistral/Mixtral (Mistral AI), DeepSeek V3/R1, Qwen 2.5 (Alibaba). Leistungsfähige Modelle, die du lokal oder in deiner Cloud betreiben kannst. Kein Vendor-Lock-in, volle Datenkontrolle, wachsendes Ökosystem.
Vektordatenbanken
InfrastrukturDas Rückgrat jeder RAG-Architektur. Speichern Texte als mathematische Vektoren und ermöglichen semantische Suche. Pinecone (managed), Weaviate (hybrid), Qdrant (performant), Chroma (leichtgewichtig), pgvector (PostgreSQL-nativ).
Frameworks & Orchestrierung
EntwicklungLangChain und LlamaIndex für RAG-Pipelines. CrewAI und AutoGen für Multi-Agenten-Systeme. Hugging Face Transformers für Modell-Management. FastAPI und Gradio für schnelle Prototypen und APIs.
Die Technologie-Landschaft verändert sich schnell. Unsere Schulungen werden vor jedem Termin aktualisiert, damit du mit dem aktuellen Stand arbeitest - nicht mit dem von vor sechs Monaten.
Coding mit KI:
Wie KI die Entwicklung selbst verändert.
KI ist nicht nur das, was du baust. Es ist auch das, womit du baust. Agentic Coding Tools verändern den Entwicklungsalltag grundlegend. Wer sie beherrscht, ist nicht nur schneller, sondern baut bessere Software.
# Terminal
$ claude
> Refactore die Auth-Middleware: Extrahiere die JWT-Validierung in einen eigenen Service, füge Rate Limiting hinzu und schreibe Tests dafür.
Claude Code analysiert 14 Dateien...
Erstellt: auth-service.ts, rate-limiter.ts
Aktualisiert: middleware.ts, routes.ts
Tests: 12 Tests geschrieben, alle grün
Fertig. 6 Dateien geändert, 247 Zeilen hinzugefügt.
Agentic Coding: Mehr als Autocomplete
Tools wie Claude Code und Codex gehen weit über Code-Vervollständigung hinaus. Sie lesen deine Codebasis, verstehen Zusammenhänge, refactoren über mehrere Dateien hinweg und schreiben Tests. Sie arbeiten wie ein erfahrener Entwickler, der dein Projekt kennt.
GitHub Copilot bleibt der Standard für Inline-Vorschläge und tägliche Produktivität. In Kombination mit agentic Tools entsteht ein Workflow, der repetitive Aufgaben eliminiert und mehr Raum für Architekturentscheidungen lässt.
Der Unterschied zwischen einem Entwickler, der diese Tools nutzt, und einem, der es nicht tut, wächst jeden Monat. Nicht weil die Tools perfekt sind, sondern weil der Produktivitätsmultiplikator bei richtiger Nutzung enorm ist.
Claude Code
Agentic Coding im Terminal. Versteht komplette Codebasen, refactort über Dateigrenzen hinweg, schreibt Tests, führt Befehle aus. Ideal für größere Umbauarbeiten und komplexe Features.
Claude Code SeminarOpenAI Codex
Cloud-basiertes Coding mit Sandbox-Umgebung. Schreibt Code, testet ihn in einer isolierten Umgebung und iteriert autonom. Gut für klar definierte Aufgaben und parallele Entwicklung.
Codex SeminarGitHub Copilot
Der Klassiker für IDE-Integration. Inline-Vorschläge, Chat im Editor, Code-Erklärungen. Am stärksten als täglicher Begleiter beim Schreiben von Code, Tests und Dokumentation.
Alle Dev-Kurse
Build vs. Buy:
Wann lohnt sich Eigenentwicklung?
Nicht jede KI-Lösung muss selbst gebaut werden. Aber nicht jede fertige Lösung passt. Dieses Framework hilft dir bei der Entscheidung.
Build: Selbst entwickeln
- Dein Use Case ist einzigartig und nicht von der Stange abgedeckt
- Du brauchst volle Kontrolle über Daten und Modellverhalten
- KI ist Teil deines Kernprodukts oder Wettbewerbsvorteils
- Du hast (oder baust auf) ein technisches Team mit KI-Kompetenz
- Compliance-Anforderungen schließen SaaS-Lösungen aus
- Langfristig planbare Kosten sind wichtiger als schneller Start
Buy: Fertige Lösung einsetzen
- Dein Use Case ist ein Standard-Problem (Chatbot, Texterstellung, Analyse)
- Time-to-Market ist wichtiger als maximale Anpassung
- Kein internes Entwicklerteam mit KI-Erfahrung verfügbar
- Das Budget reicht nicht für eine eigenständige Entwicklung
- Du willst schnell validieren, ob KI für deinen Prozess funktioniert
- Wartung und Modell-Updates soll der Anbieter übernehmen
Der pragmatische Weg: Hybrid
Die erfolgreichsten KI-Projekte im Mittelstand kombinieren beides: Fertige APIs und Plattformen als Fundament, eigene Logik und Integration als Differenzierung. Du nutzt OpenAI oder Azure OpenAI als Sprachmodell, baust aber eine eigene RAG-Pipeline mit deinen Daten. Du setzt n8n oder Power Automate für die Orchestrierung ein, entwickelst aber die Prompt-Logik und das Evaluierungsframework selbst.
Dieser Ansatz minimiert den initialen Aufwand und maximiert die Anpassbarkeit. Du bleibst flexibel, wenn sich Modelle oder Anforderungen ändern, und du bist nicht von einem einzelnen Anbieter abhängig.
KI-Seminare für Entwickler und Architekten
Die nächsten verfügbaren Termine aus unseren Entwickler-, Cloud- und Architektur-Schulungen. Alle Seminare auch als Inhouse-Training buchbar.
TinyML für Defense: Quantisierung, Edge-Deploy
Automatisierte Analyse von Kundenfeedback mit KI
KI für DBAs: SQL-Automatisierung Aufbaukurs
KI-Content-Distribution, die wirklich skaliert
Multi-Agent-Systeme Grundkurs
Autonome Agenten für Marktforschung: Aufbaukurs
KI-Entwickler-Seminare auf einen Blick
Von API-Integration bis LLM-Self-Hosting. Hier eine Auswahl der relevantesten Kurse für technische Teams, sortiert nach Themenfeld.
Agentic Coding
RAG & Vektordatenbanken
LLM Self-Hosting & Open Source
Cloud KI-Services
KI-Agenten & Automatisierung
Python, ML & Data Science
Fragen zur KI-Entwicklung
Brauche ich ein Data-Science-Team, um KI-Lösungen zu bauen?
Wann lohnt sich RAG statt Fine-Tuning?
Welche Programmiersprache ist die beste für KI-Entwicklung?
Können wir LLMs auch ohne Cloud betreiben?
Wie sicher sind API-basierte KI-Lösungen mit Kundendaten?
Was kostet eine typische KI-Entwicklerschulung?
Wie lange dauert es, eine RAG-Lösung produktionsreif zu machen?
Wie halten eure Schulungen mit der schnellen KI-Entwicklung Schritt?
Weitere häufig gestellte Fragen und Antworten findest du in den FAQs .
Weitere KI-Themen
KI-Entwicklung ist nur ein Baustein. Diese Seiten vertiefen angrenzende Bereiche.
KI-Einstieg für Unternehmen
Grundlagen, erste Tools und Strategie. Für Teams, die bei null anfangen.
Mehr erfahrenProzesse automatisieren mit KI
KI-Agenten, n8n, Power Automate. Routineaufgaben eliminieren statt optimieren.
Mehr erfahrenKI sicher und rechtskonform einsetzen
AI Act, Datenschutz, Governance. Was technisch und rechtlich geregelt werden muss.
Mehr erfahrenKI-Strategie für den Mittelstand
Von der Idee zum Rollout. KI strategisch planen statt planlos ausprobieren.
Mehr erfahrenProduktiver arbeiten mit KI
Microsoft Copilot, ChatGPT & Co. im Büroalltag. Sofort mehr Output, weniger Routinearbeit.
Mehr erfahrenAlle 490+ KI-Seminare
Das komplette KI-Schulungsportfolio. Vom Einstieg bis zur Experten-Zertifizierung.
Mehr erfahrenBereit, KI-Lösungen zu bauen?
Lass uns gemeinsam herausfinden, welche technischen Schulungen dein Team voranbringen. Ob API-Integration, RAG-Architektur oder LLM-Self-Hosting - wir finden den richtigen Einstieg.
Kostenlose Beratung · Mo-Fr 8-17 Uhr · Antwort innerhalb von 24h