AI Engineering · DACH

KI-Systeme, die sich an Ihren Bedarf anpassen — nicht umgekehrt.

Ich helfe Unternehmen im DACH-Raum, KI dort einzusetzen, wo sie wirklich Wirkung zeigt — von der Use-Case-Identifikation über die Architektur bis zum produktiven Betrieb.

Projekt besprechen
Steffen Müller

KI-Projekte scheitern selten an der Technologie. Sie scheitern daran, dass die Lösung nicht zum Problem passt.

Ein RAG-System, das auf den falschen Dokumententyp optimiert ist. Ein Chatbot, der am Bedarf der Nutzer vorbei antwortet. Eine KI-Strategie, die technisch beeindruckt, aber keinen Geschäftsprozess verbessert.

Die Ursache ist fast immer dieselbe: Es wurde bei der Technologie angefangen, nicht beim Bedarf.

Erst verstehen, dann bauen.

01

Den richtigen Hebel finden

Nicht jedes Problem braucht ein LLM. Nicht jeder Use Case braucht Self-Hosting. Und nicht jede Aufgabe braucht einen Agenten. Am Anfang steht die Frage: Was ist der konkrete Engpass — und welche Lösung schafft den größten Mehrwert bei vertretbarem Aufwand?

02

Ende-zu-Ende statt Übergabe-Schnittstellen

Ich übernehme KI-Projekte nicht in Scheiben — ein Berater für die Strategie, ein anderer für die Umsetzung, ein dritter für den Betrieb. Ich begleite den gesamten Weg: von der Use-Case-Identifikation über die Implementierung bis zum produktiven Betrieb.

03

Nachvollziehbar und übertragbar

Was ich baue, dokumentiere ich so, dass interne Teams es verstehen, betreiben und weiterentwickeln können. Keine Black Box, kein Vendor-Lock-in auf meine Person. Mein Ziel ist, dass das System ohne mich funktioniert — nicht, dass es mich dauerhaft braucht.

Was ich für Sie bauen kann

Jedes Projekt beginnt mit Ihrem Bedarf — nicht mit meinem Tech-Stack.

KI-Strategie & Use-Case-Identifikation

Wo kann KI in Ihrem Unternehmen tatsächlich Wirkung zeigen? Ich identifiziere die Use Cases mit dem größten Hebel, bewerte die technischen Optionen und liefere eine Roadmap mit konkreten nächsten Schritten — inklusive PoC oder MVP, wenn gewünscht.

RAG-Systeme — Systematisch statt Standard

Chunking, Embedding, Retrieval, Reranking, Synthesis — jede Schicht isoliert auf Ihren Daten experimentiert und optimiert. Alle Experimente nachvollziehbar getrackt, nicht auf generischen Benchmarks validiert, sondern auf Ihren Dokumenten.

Text-RAG Multimodal RAG RAG-Diagnostik

Agentic AI

Tool Use, Multi-Agent-Koordination, Evaluation und Guardrails. Von der Architektur über das Deployment bis zum Betrieb — auf Wunsch vollständig auf eigener Infrastruktur.

MLOps

Automatisierte Pipelines, Quality Gates, Model Registry, Monitoring, Rollback. Ich baue die Grundlage dafür auf Kubernetes — damit Ihr System nicht nur deployed, sondern betrieben wird.

Self-Hosted AI

Wenn DSGVO, BaFin-Anforderungen oder Betriebsgeheimnisse externe APIs ausschließen: Serving, Fine-Tuning, Embedding-Modelle und Evaluation lokal betrieben — kein API-Call verlässt Ihr Netzwerk.

Langjährige Erfahrung als Solutions Architect im regulierten Bankenumfeld (Commerzbank, KfW), danach IT-Beratung, Cloud-Infrastruktur und mehrere Jahre im AI Engineering.

Diesen Hintergrund sehe ich als Vorteil: Ich verstehe nicht nur die Modelle, sondern auch die Infrastruktur, auf der sie laufen, die Compliance-Anforderungen, die sie einhalten müssen, und die Geschäftsprozesse, die sie verbessern sollen.

Kundenprojekte & Open Source

Bank — RAG für Wissensmanagement

Systematische RAG-Evaluierung · Self-Hosted · MLflow · Fine-Tuning

Kundenprojekt

Versicherung — Multimodale Suche

CLIP + YOLO + Qdrant · Triton · Training-Pipelines

Kundenprojekt

Versicherung — AWS Cloud & DevOps

Serverless · Terraform · CI/CD · Monitoring

Kundenprojekt

Open Source & Blog

MLOps on Kubernetes

→ GitHub

Self-Hosted LLMs

→ Blog-Serie

Agentic AI

→ GitHub + Blog
Zertifizierungen

KI-Agenten unter der Haube

12. März 2026

MLflow as the Control Plane for MLOps

15. Feb 2026

Warum gutes MLOps-Setup den Unterschied macht

1. Feb 2026

Lassen Sie uns sprechen.

Ob konkretes Projekt oder erste Orientierung — ich freue mich auf den Austausch.