KI-Entwicklung & Architektur

KI-Lösungen entwickeln.
Von der API bis zum eigenen Modell.

Die meisten KI-Projekte scheitern nicht an der Technologie, sondern an der Architekturentscheidung. API oder Self-Hosting? RAG oder Fine-Tuning? Cloud oder On-Premises? Wer die Optionen kennt, baut bessere Lösungen.

Wir schulen Entwickler, Architekten und technische Leads in den Technologien, Patterns und Entscheidungsframeworks, die KI-Projekte erfolgreich machen.

Seit 1997
Hands-on Labs
490+ KI-Seminare

Über 20.000 Unternehmen und Behörden vertrauen auf uns

Alle Referenzen
Siemens Logo
Telekom Logo
Rheinmetall Logo
Infineon Logo
MAN Logo
Fraunhofer Logo
ADAC Logo
Munich Re Logo
Deutsche Bahn Logo
Das Spektrum

Von der API bis zum
eigenen Modell.

KI-Entwicklung ist kein einzelnes Skill-Set, sondern ein Spektrum von Integrationstiefe. Am einen Ende steht ein einfacher API-Call an OpenAI. Am anderen Ende ein selbst gehostetes, fine-getuntes Modell auf eigener Hardware. Dazwischen liegen RAG-Architekturen, Agenten-Frameworks und Cloud-KI-Services.

Die entscheidende Frage ist nicht „Was ist technisch möglich?“, sondern „Was passt zu unserem Use Case, unserem Budget und unserer Infrastruktur?“ Ein Chatbot für den Kundensupport braucht eine andere Architektur als ein System zur automatischen Vertragsanalyse. Ein Startup mit Cloud-Infrastruktur trifft andere Entscheidungen als ein Maschinenbauer mit strengen Compliance-Vorgaben.

In unseren Schulungen vermitteln wir nicht nur die technische Umsetzung, sondern vor allem das Architektur-Know-how: Wann reicht ein API-Call? Wann brauchst du RAG? Ab wann lohnt sich Fine-Tuning? Und wann ist Self-Hosting die einzig sinnvolle Option? Entwickler, die diese Entscheidungen fundiert treffen können, sparen ihrem Unternehmen Monate an Fehlentwicklung.

Das Ergebnis: Dein Team baut nicht die technisch beeindruckendste Lösung, sondern die richtige Lösung für euer Problem. Und das ist oft einfacher als gedacht.

80%
starten mit APIs

der erfolgreichen KI-Projekte beginnen mit API-Integration, bevor sie komplexere Architekturen evaluieren.

5x
schnellerer Time-to-Market

RAG-basierte Lösungen sind bis zu fünfmal schneller produktionsreif als Fine-Tuning-Projekte.

60%
weniger Kosten mit Open Source

Self-Hosting von Open-Source-LLMs kann die laufenden Kosten bei hohem Volumen um bis zu 60% senken.

490+
KI-Seminare bei cmt

Vom API-Einstieg bis zum LLM-Self-Hosting. Technische Tiefe für jede Integrationsebene.

Architektur-Patterns

Vier Wege zur KI-Lösung.
Und wann welcher passt.

Jedes KI-Projekt braucht eine Architekturentscheidung. Diese vier Patterns decken 95% aller Enterprise-Anwendungsfälle ab. Die Kunst liegt darin, das richtige Pattern für dein Problem zu wählen.

01

API-Integration

Der schnellste Weg

Du rufst ein fertiges Modell per REST-API auf: OpenAI, Claude, Gemini oder Azure OpenAI. Dein Code sendet einen Prompt, bekommt eine Antwort, verarbeitet sie weiter. Kein eigenes Modell, kein Training, keine GPU-Infrastruktur. Die Integration lässt sich in Tagen umsetzen und in bestehende Applikationen einbauen.

Wann einsetzen

Texterzeugung, Zusammenfassungen, Übersetzung, Klassifikation, Code-Generierung. Immer wenn Standard-Modelle ausreichen und Latenz unter einer Sekunde kein Muss ist.

Technologien

OpenAI API, Anthropic API, Azure OpenAI, Google Vertex AI, AWS Bedrock

02

RAG (Retrieval Augmented Generation)

Eigene Daten, fremdes Modell

Du kombinierst ein vortrainiertes Sprachmodell mit deinen eigenen Dokumenten. Deine Daten werden in Vektoren umgewandelt und in einer Vektordatenbank gespeichert. Bei einer Anfrage sucht das System die relevantesten Dokumente heraus und gibt sie als Kontext an das LLM weiter. Das Modell antwortet auf Basis deiner Daten statt auf Basis seines Trainings.

Wann einsetzen

Wissensdatenbanken, Dokumentensuche, Supportbots, interne Assistenten. Immer wenn das Modell mit aktuellen oder vertraulichen Unternehmensdaten arbeiten soll, ohne dass du es neu trainierst.

Technologien

LangChain, LlamaIndex, Pinecone, Weaviate, Qdrant, Chroma, pgvector

03

Fine-Tuning

Modell anpassen

Du nimmst ein vortrainiertes Modell und trainierst es mit eigenen Daten weiter. Das Modell lernt deinen Schreibstil, deine Fachsprache, deine Klassifikationslogik. Das Ergebnis: Ein spezialisiertes Modell, das ohne zusätzlichen Kontext die richtigen Antworten liefert. Schneller und günstiger pro Anfrage als RAG, aber mit höherem initialen Aufwand.

Wann einsetzen

Domänenspezifische Sprache, konsistenter Output-Stil, Klassifikation mit vielen Kategorien, Aufgaben mit klarem Input-Output-Muster. Wenn RAG nicht reicht oder die Latenz kritisch ist.

Technologien

OpenAI Fine-Tuning API, Hugging Face Transformers, LoRA/QLoRA, Axolotl, Unsloth

04

Self-Hosting

Volle Kontrolle

Du betreibst ein Open-Source-Modell auf eigener Infrastruktur: On-Premises-Server, Private Cloud oder dedizierte GPU-Instanzen. Keine Daten verlassen dein Netzwerk. Du kontrollierst Modellversion, Verfügbarkeit und Kosten. Besonders relevant für Unternehmen mit strengen Compliance-Anforderungen oder hohem Anfragevolumen.

Wann einsetzen

Datenschutz-kritische Anwendungen, Branchen mit regulatorischen Auflagen, hohes Anfragevolumen mit planbaren Kosten, Air-Gapped-Umgebungen. Wenn du die Cloud nicht nutzen kannst oder willst.

Technologien

Llama 3, Mistral, DeepSeek, Ollama, vLLM, Text Generation Inference, KI-Apps mit Docker

„Der häufigste Fehler bei KI-Projekten: Zu viel Architektur für zu wenig Problem. Starte mit der einfachsten Lösung, die funktioniert, und skaliere bei Bedarf.“

Aus über 200 technischen KI-Schulungen bei cmt
Technologie-Landschaft

Die Tools und Plattformen,
die du kennen musst.

Das KI-Ökosystem wächst rasant. Hier die Technologien, die in Unternehmensprojekten tatsächlich im Einsatz sind - nicht die, die nur auf Konferenzen gezeigt werden.

OpenAI API

Kommerzielle API

GPT-4o, o3, o4-mini. Die am weitesten verbreitete LLM-API. Exzellent für Texterzeugung, Code-Generierung, Analyse. Einfache Integration via REST oder Python SDK. Sinnvoll für: schnelle Prototypen, breites Aufgabenspektrum.

Function CallingJSON ModeVisionAssistants API

Azure OpenAI Service

Enterprise Cloud

Die gleichen OpenAI-Modelle, aber gehostet in Microsoft Azure. Enterprise-Features wie VNET-Integration, RBAC, EU-Rechenzentren und Data Residency. Pflichtprogramm für Unternehmen mit Microsoft-Infrastruktur und Compliance-Anforderungen.

EU Data ResidencyVNETContent FilteringPTU Provisioning

Claude API (Anthropic)

Kommerzielle API

Claude Opus, Sonnet, Haiku. Besonders stark bei langen Kontexten (bis 200K Token), nuanciertem Reasoning und Code. Extended Thinking für mehrstufige Analysen. Über AWS Bedrock oder direkt nutzbar.

200K KontextExtended ThinkingTool UseComputer Use

Open-Source-LLMs

Self-Hosting

Llama 3.x (Meta), Mistral/Mixtral (Mistral AI), DeepSeek V3/R1, Qwen 2.5 (Alibaba). Leistungsfähige Modelle, die du lokal oder in deiner Cloud betreiben kannst. Kein Vendor-Lock-in, volle Datenkontrolle, wachsendes Ökosystem.

Llama 3.3DeepSeek R1Mistral LargeQwen 2.5

Vektordatenbanken

Infrastruktur

Das Rückgrat jeder RAG-Architektur. Speichern Texte als mathematische Vektoren und ermöglichen semantische Suche. Pinecone (managed), Weaviate (hybrid), Qdrant (performant), Chroma (leichtgewichtig), pgvector (PostgreSQL-nativ).

PineconeWeaviateQdrantpgvector

Frameworks & Orchestrierung

Entwicklung

LangChain und LlamaIndex für RAG-Pipelines. CrewAI und AutoGen für Multi-Agenten-Systeme. Hugging Face Transformers für Modell-Management. FastAPI und Gradio für schnelle Prototypen und APIs.

LangChainLlamaIndexCrewAIHugging Face

Die Technologie-Landschaft verändert sich schnell. Unsere Schulungen werden vor jedem Termin aktualisiert, damit du mit dem aktuellen Stand arbeitest - nicht mit dem von vor sechs Monaten.

Paradigmenwechsel

Coding mit KI:
Wie KI die Entwicklung selbst verändert.

KI ist nicht nur das, was du baust. Es ist auch das, womit du baust. Agentic Coding Tools verändern den Entwicklungsalltag grundlegend. Wer sie beherrscht, ist nicht nur schneller, sondern baut bessere Software.

# Terminal

$ claude

> Refactore die Auth-Middleware: Extrahiere die JWT-Validierung in einen eigenen Service, füge Rate Limiting hinzu und schreibe Tests dafür.

Claude Code analysiert 14 Dateien...

Erstellt: auth-service.ts, rate-limiter.ts

Aktualisiert: middleware.ts, routes.ts

Tests: 12 Tests geschrieben, alle grün

Fertig. 6 Dateien geändert, 247 Zeilen hinzugefügt.

Agentic Coding: Mehr als Autocomplete

Tools wie Claude Code und Codex gehen weit über Code-Vervollständigung hinaus. Sie lesen deine Codebasis, verstehen Zusammenhänge, refactoren über mehrere Dateien hinweg und schreiben Tests. Sie arbeiten wie ein erfahrener Entwickler, der dein Projekt kennt.

GitHub Copilot bleibt der Standard für Inline-Vorschläge und tägliche Produktivität. In Kombination mit agentic Tools entsteht ein Workflow, der repetitive Aufgaben eliminiert und mehr Raum für Architekturentscheidungen lässt.

Der Unterschied zwischen einem Entwickler, der diese Tools nutzt, und einem, der es nicht tut, wächst jeden Monat. Nicht weil die Tools perfekt sind, sondern weil der Produktivitätsmultiplikator bei richtiger Nutzung enorm ist.

Claude Code

Agentic Coding im Terminal. Versteht komplette Codebasen, refactort über Dateigrenzen hinweg, schreibt Tests, führt Befehle aus. Ideal für größere Umbauarbeiten und komplexe Features.

Claude Code Seminar

OpenAI Codex

Cloud-basiertes Coding mit Sandbox-Umgebung. Schreibt Code, testet ihn in einer isolierten Umgebung und iteriert autonom. Gut für klar definierte Aufgaben und parallele Entwicklung.

Codex Seminar

GitHub Copilot

Der Klassiker für IDE-Integration. Inline-Vorschläge, Chat im Editor, Code-Erklärungen. Am stärksten als täglicher Begleiter beim Schreiben von Code, Tests und Dokumentation.

Alle Dev-Kurse
Entscheidungsrahmen

Build vs. Buy:
Wann lohnt sich Eigenentwicklung?

Nicht jede KI-Lösung muss selbst gebaut werden. Aber nicht jede fertige Lösung passt. Dieses Framework hilft dir bei der Entscheidung.

Build: Selbst entwickeln

  • Dein Use Case ist einzigartig und nicht von der Stange abgedeckt
  • Du brauchst volle Kontrolle über Daten und Modellverhalten
  • KI ist Teil deines Kernprodukts oder Wettbewerbsvorteils
  • Du hast (oder baust auf) ein technisches Team mit KI-Kompetenz
  • Compliance-Anforderungen schließen SaaS-Lösungen aus
  • Langfristig planbare Kosten sind wichtiger als schneller Start

Buy: Fertige Lösung einsetzen

  • Dein Use Case ist ein Standard-Problem (Chatbot, Texterstellung, Analyse)
  • Time-to-Market ist wichtiger als maximale Anpassung
  • Kein internes Entwicklerteam mit KI-Erfahrung verfügbar
  • Das Budget reicht nicht für eine eigenständige Entwicklung
  • Du willst schnell validieren, ob KI für deinen Prozess funktioniert
  • Wartung und Modell-Updates soll der Anbieter übernehmen

Der pragmatische Weg: Hybrid

Die erfolgreichsten KI-Projekte im Mittelstand kombinieren beides: Fertige APIs und Plattformen als Fundament, eigene Logik und Integration als Differenzierung. Du nutzt OpenAI oder Azure OpenAI als Sprachmodell, baust aber eine eigene RAG-Pipeline mit deinen Daten. Du setzt n8n oder Power Automate für die Orchestrierung ein, entwickelst aber die Prompt-Logik und das Evaluierungsframework selbst.

Dieser Ansatz minimiert den initialen Aufwand und maximiert die Anpassbarkeit. Du bleibst flexibel, wenn sich Modelle oder Anforderungen ändern, und du bist nicht von einem einzelnen Anbieter abhängig.

Häufig gestellte Fragen

Fragen zur KI-Entwicklung

Brauche ich ein Data-Science-Team, um KI-Lösungen zu bauen?
Nein. Die meisten KI-Integrationen starten mit API-Aufrufen an bestehende Modelle wie OpenAI, Claude oder Azure OpenAI. Dafür reichen solide Programmierkenntnisse in Python oder JavaScript. Erst wenn du eigene Modelle trainieren oder fine-tunen willst, brauchst du spezialisiertes ML-Wissen. Unsere Full-Stack-KI-Schulung deckt den kompletten Weg ab.
Wann lohnt sich RAG statt Fine-Tuning?
RAG (Retrieval Augmented Generation) eignet sich immer dann, wenn du aktuelle oder unternehmensspezifische Daten nutzen willst, ohne ein Modell neu zu trainieren. Das ist bei den meisten Enterprise-Anwendungen der Fall: Wissensdatenbanken, Dokumentensuche, Supportbots. Fine-Tuning lohnt sich, wenn du das Verhalten des Modells grundlegend anpassen willst, zum Beispiel für einen speziellen Schreibstil oder domänenspezifische Fachsprache.
Welche Programmiersprache ist die beste für KI-Entwicklung?
Python ist das unangefochtene Ökosystem für Machine Learning, Data Science und die meisten KI-Frameworks (PyTorch, LangChain, Hugging Face). Für Webintegration und API-Backends ist auch TypeScript/Node.js sehr gut geeignet. Viele unserer Teilnehmer nutzen Python für die KI-Logik und JavaScript/TypeScript fürs Frontend. Unsere Python-ML-Schulung ist ein guter Startpunkt.
Können wir LLMs auch ohne Cloud betreiben?
Ja, das geht mit Open-Source-Modellen wie Llama, Mistral oder DeepSeek. Du brauchst dafür geeignete GPU-Hardware (on-premises oder in einer privaten Cloud) und Know-how in Deployment und Optimierung. Tools wie Ollama, vLLM oder Text Generation Inference machen den Betrieb deutlich einfacher als noch vor einem Jahr. Unser LLM-Self-Hosting-Seminar zeigt dir den kompletten Weg.
Wie sicher sind API-basierte KI-Lösungen mit Kundendaten?
Das hängt vom Anbieter und der Konfiguration ab. Azure OpenAI und AWS Bedrock bieten Enterprise-Grade-Sicherheit: Daten werden nicht für Modelltraining verwendet, Verarbeitung in EU-Rechenzentren ist möglich, und du behältst die volle Kontrolle. Wichtig: Die Standard-API von OpenAI hat andere Datenschutzrichtlinien als die Azure-Variante. Wir klären in unseren Schulungen, welche Architektur zu deinen Compliance-Anforderungen passt.
Was kostet eine typische KI-Entwicklerschulung?
Offene technische Seminare liegen bei ca. 500 bis 900 EUR pro Tag und Teilnehmer, je nach Thema und Tiefe. Inhouse-Trainings werden pauschal kalkuliert und lohnen sich ab 3 bis 4 Entwicklern. Bei mehrtägigen Programmen oder Paketbuchungen erstellen wir individuelle Angebote. Sprich uns an - wir finden das passende Format.
Wie lange dauert es, eine RAG-Lösung produktionsreif zu machen?
Ein einfacher Proof of Concept mit LangChain, einer Vektordatenbank und einem vorhandenen Dokumentenbestand ist in 1 bis 2 Wochen machbar. Für eine produktionsreife Lösung mit ordentlichem Chunking, Evaluierung, Monitoring und Sicherheitskonzept solltest du 4 bis 8 Wochen einplanen. Unsere RAG-Schulung vermittelt das Fundament dafür.
Wie halten eure Schulungen mit der schnellen KI-Entwicklung Schritt?
Unsere Trainer sind praktizierende Entwickler und Architekten, die täglich mit den aktuellen Frameworks und Modellen arbeiten. Schulungsinhalte werden vor jedem Termin aktualisiert. Wenn zwischen Buchung und Kurstermin ein neues relevantes Modell oder Framework erscheint, fließt das in die Schulung ein. Kein Lehrbuch-Wissen von gestern, sondern Praxis-Know-how von heute.

Weitere häufig gestellte Fragen und Antworten findest du in den FAQs .

Bereit, KI-Lösungen zu bauen?

Lass uns gemeinsam herausfinden, welche technischen Schulungen dein Team voranbringen. Ob API-Integration, RAG-Architektur oder LLM-Self-Hosting - wir finden den richtigen Einstieg.

Kostenlose Beratung · Mo-Fr 8-17 Uhr · Antwort innerhalb von 24h