WIR SUCHEN DICH
DEINE ROLLE
Project Arrakis baut die führende Gruppe für Mittelstandsberatung in Deutschland auf — und im Zentrum der Plattform steht ein KI-Stack, der die operative Mandantenarbeit produktiv unterstützt. Belegerfassung, Buchungs-Klassifikation, Dokumentenanalyse, Mandanten-Drafting, agentic Workflows, die mehrstufige Aufgaben hintereinander erledigen. Das ist kein Hype-Projekt — das ist der Hebel, mit dem Vogel bei 100 Millionen Umsatz mit 50 statt 500 Operationsmitarbeitern auskommt.
Du stehst am Anfang deiner Engineering-Karriere — Berufseinstieg oder ein bis drei Jahre Engineering mit klarem KI-/LLM-Schwerpunkt. Idealerweise hast du eigene Projekte gebaut: einen agentic Workflow, der etwas Reales tut; ein RAG-System mit produktivem Output; eine Tooling-Schicht, die einen manuellen Prozess automatisiert. Du hast den Hype hinter dir gelassen und arbeitest mit den Werkzeugen, die jetzt produktiv sind: Claude, GPT, Cursor, agentic Frameworks.
Du arbeitest direkt mit dem Founding CTO und den drei anderen Founding Engineers (Backend & Platform, Data & Integration, Product & Process) am KI-Stack der Vogel-Plattform — Workflow-Orchestrierung, agentic Systems, KI-Integration in operative Mandantenarbeit. Die natürliche Entwicklung führt nach 24 bis 36 Monaten in eine Senior-AI-Engineer-/AI-Lead-Rolle mit eigenem Themen-Schwerpunkt.
DEINE VERANTWORTUNG
KI-Workflow-Orchestrierung
/ Baue die Orchestrierungslogik, die Claude, GPT und andere LLMs zu produktiven Mandantenarbeit-Workflows verknüpft — Belegerfassung, Buchungs-Klassifikation, Dokumentenanalyse, Drafting.
/ Entwickle agentic Systems, die mehrstufige Aufgaben verlässlich abschließen — mit klarer Eskalationslogik bei Unsicherheit und Mensch-im-Loop, wo es regulatorisch oder fachlich notwendig ist.
/ Halte die Cost- und Latenz-Hygiene des KI-Stacks hoch — Token-Budgets, Caching, Modell-Auswahl pro Anwendungsfall.
KI-Integration in operative Workflows
/ Identifiziere repetitive Workflows in der Mandantenarbeit, die KI-Hebel haben — gemeinsam mit Operations & Automation und den Beraterinnen.
/ Baue Werkzeuge, die Beratern unmittelbaren Mehrwert liefern — vom Drafting-Assistenten über Belegtriage bis zum Mandanten-Briefing-Generator.
/ Sichere die Output-Qualität in regulatorisch sensiblen Bereichen — Steuer, HGB, Mandantengeheimnis — durch klare Validierungs- und Eskalationsmechaniken.
Tooling, Evaluation und Mitwirken im Founding-Engineer-Team
/ Evaluiere kontinuierlich neue KI-Modelle und -Frameworks für konkrete Anwendungsfälle und übersetze sie in produktive Bausteine, nicht in Demos.
/ Arbeite eng mit Data & Integration an den Datenflüssen für KI-Anwendungen — saubere Inputs sind Voraussetzung für saubere Outputs.
/ Liefere Backend & Platform und Product & Process saubere KI-Service-APIs — KI ist hier kein Silo, sondern Enabler für die gesamte Plattform.
Was diese Rolle nicht ist
/ Kein reiner ML-Research-Track. Du baust produktive Systeme, kein Forschungslabor — Modell-Training-from-Scratch ist hier kein Thema.
/ Kein klassisches Trainee-Programm. Aufstieg gibt es bei nachweislicher Output-Qualität, nicht nach Dienstjahr.
/ Keine 45-Stunden-Woche mit lockerem Themen-Spielraum. Die Intensität ist hoch. Anders gerichtet als in Corporate Set-Ups, mit deutlich mehr Ownership — aber nicht weniger Workload.
/ Kein PhD-Themen-Spielplatz. Du arbeitest an einem KI-Stack, der in den nächsten zwölf Monaten produktiv tragen muss — nicht an Konzepten, die intellektuell schön, aber operativ folgenlos sind.
DAS BRINGST DU MIT
Erfahrung & Track Record
/ Du stehst am Anfang deiner Engineering-Karriere — ein bis drei Jahre Engineering mit klarem KI-/LLM-Schwerpunkt oder starke Projekte im Studium und vor dem Einstieg stehend.
/ Du hast einen extrem starken Studienabschluss in Informatik, Mathematik oder einem verwandten technischen Fach — oder einen ebenso starken autodidaktischen Track Record (eigene KI-Projekte, Open-Source-Tools, agentic Systems mit produktiver Nutzung).
/ Du hast mindestens einmal ein KI-System gebaut, das produktiv eingesetzt wurde — auch wenn es klein war.
Skills & Arbeitsweise
/ Du beherrschst Python auf produktivem Niveau und kannst mit den gängigen LLM-APIs (Anthropic, OpenAI), agentic Frameworks (OpenAI Agents SDK, Claude Agent SDK) und Vector-Stores umgehen.
/ Du hast eigene Erfahrung mit Prompt-Engineering, Evaluation-Frameworks und Cost-/Latenz-Optimierung in produktiven Kontexten.
/ Du arbeitest mit KI als selbstverständlichem Werkzeug — Claude Code, Cursor — als Multiplikator deiner Output-Frequenz.
/ Du verstehst, wo KI funktioniert und wo nicht — und kannst klare Eskalationslogiken bauen, die regulatorisch und fachlich tragen.
/ Du dokumentierst sauber und denkst in Schnittstellen — andere Founding Engineers werden auf deinen KI-Services aufsetzen.
Mindset & Persönlichkeit
/ Du willst von Anfang an mitbauen — und du suchst die Aufbau-Energie eines Founding-Engineer-Mandats.
/ Du hast den Hype hinter dir gelassen und arbeitest mit den Werkzeugen, die jetzt produktiv sind — nicht mit denen, die in sechs Monaten relevant sein könnten.
/ Du bist komfortabel mit Unsicherheit — KI-Engineering ist immer noch ein neues Feld, klare Best Practices entstehen erst.
/ Du bringst die Demut mit, von Nicht-Technikern zu lernen — Steuerberater und Mandantenbetreuer wissen, wo KI-Output kippt, und du hörst zu.
WIR BEANTWORTEN
HÄUFIGE FRAGEN.
Wie sind die Gehaltsranges zu verstehen?
Wie viel wird bei Arrakis gearbeitet?
Wie ist die variable Vergütung zu verstehen?
Wie sieht der Bewerbungsprozess aus?
Wie sind die sonstigen Rahmenbedingungen?
Ist auch ein Berufseinstieg möglich?
Was wenn ich jemanden kenne?