
Wissenschaftliche/r Mitarbeiter/in - PhD (w/m/d) Wissenschaftliche/r Mitarbeiter/in - PhD (w/m/d)
Weitere Informationen
Die Einstellung erfolgt im Beschäftigtenverhältnis.
Die Stelle ist zum nächstmöglichen Zeitpunkt zu besetzen und befristet zunächst auf 3 Jahre.
Die befristete Beschäftigung erfolgt im Rahmen der Befristungsmöglichkeiten des Wissenschaftszeitvertragsgesetzes.
Es handelt sich um eine Vollzeitstelle.
Eine Promotionsmöglichkeit besteht.
Die Eingruppierung richtet sich nach dem TV-L.
Die Stelle ist bewertet mit EG 13 TV-L.
Unser Profil
Der Lehrstuhl für Bildgebung und Bildverarbeitung (LFB) betreibt wegweisende Forschung an der Schnittstelle von bildgebender Instrumentierung und computergestützter Bildgebung (Computational Imaging). Unser Spektrum reicht von der Entwicklung neuartiger hybrider Bildgebungssysteme bis hin zu fortgeschrittener Bildrekonstruktion und Videokommunikation. Aufbauend auf dieser breiten interdisziplinären Expertise konzentrieren wir uns speziell auf die robuste 3D-Rekonstruktion anatomischer Strukturen und multimodale Bildanalyse. Durch die Kombination von hybridem maschinellem Lernen mit physikalischer Modellierung entwickeln wir maßgeschneiderte Lösungen, die die Lücke zwischen Rohbilddaten und klinischer Anwendung schließen und so eine verlässliche Entscheidungsunterstützung in komplexen medizinischen Workflows gewährleisten.
Werden Sie Teil der medizinischen KI-Forschung als Mitglied eines neuen interdisziplinären Forschungskonsortiums. Wir entwickeln eine vollautomatisierte Prozesskette für die chirurgische Planung, mit spezifischem Fokus auf Dysgnathie- und Extremitätenchirurgie.
Sie arbeiten in einem starken interdisziplinären Team zusammen mit unseren Konsortialpartnern, darunter klinische Experten großer Universitätsklinika (Bereitstellung von Daten & Validierung), spezialisierte Software-Partner (Plattformintegration) und Experten für Fertigungstechnik (Produktionsautomatisierung).
Das Projekt zielt darauf ab, den „Daten-Flaschenhals“ in der medizinischen KI zu überwinden. Anstatt sich ausschließlich auf massive manuelle Annotationen zu verlassen, wollen wir ungelabelte Daten nutzen, um intelligente Systeme zu bauen, die 3D-Anatomie wirklich „verstehen“. Wir bewegen uns von rohen DICOM-Daten hin zu patientenspezifischen, geometriebasierten chirurgischen Schablonen.
Ihr Profil
* Ausbildung: Abgeschlossenes wissenschaftliches Hochschulstudium (Master oder vergleichbar) in Informatik, Physik, Ingenieurwissenschaften oder einem verwandten Feld mit starkem Fokus auf AI/ML.
* Technische Fähigkeiten: Fundierte Kenntnisse in Python und Deep-Learning-Frameworks (PyTorch). Erfahrung mit Self-Supervised Learning (SSL), Transformern oder modernen Architekturen wie Masked Autoencoders (MAE) / JEPA ist ausdrücklich erwünscht.
* Methodisches Wissen: Starkes Verständnis von Computer Vision, Representation Learning und hochdimensionaler Geometrie.
* Soft Skills: Leidenschaft für die Lösung medizinischer Herausforderungen und die Fähigkeit zur Arbeit in multidisziplinären Teams (Ingenieure, Kliniker).
Ihre Aufgaben
Sie sind verantwortlich für die Erforschung und Entwicklung von KI-Methoden der nächsten Generation für das Verständnis medizinischer 3D-Bilddaten. Ziel ist die Automatisierung komplexer chirurgischer Planungsprozesse unter Verwendung moderner Self-Supervised-Techniken:
* Pioneering Self-Supervised Learning: Erforschung und Adaption moderner Joint Embedding Predictive Architectures (z. B. I-JEPA, V-JEPA) für volumetrische medizinische Daten (CT/DVT). Ihr Ziel ist die Entwicklung einer „Volumetric-JEPA“, die robuste anatomische Repräsentationen aus ungelabelten Daten lernt, ohne auf Pixel-Level-Rekonstruktion angewiesen zu sein.
* Data-Efficient Segmentation: Nutzung dieser vortrainierten semantischen Backbones für die hochpräzise Segmentierung kritischer Strukturen (z. B. Kiefer, Nervenkanäle) mittels Few-Shot Learning. Dies soll den Bedarf an manuellen Annotationen im Vergleich zu traditionellen überwachten Methoden drastisch reduzieren.
* Generative vs. Predictive AI: Systematischer Vergleich der Robustheit prädiktiver Architekturen (JEPA) gegenüber generativen Ansätzen (z. B. Diffusion Models, GANs), insbesondere im Hinblick auf den Umgang mit starken anatomischen Deformationen und Bildartefakten (OOD-Robustheit).
* Multimodal VLM Interface: Entwicklung von Schnittstellen, um die gelernten High-Level-Feature-Embeddings in Multimodal Large Language Models einzuspeisen und so einen semantischen „Safety Layer“ zu schaffen, der chirurgische Pläne basierend auf anatomischem Verständnis validiert.
* Algorithmic Surgical Planning: Implementierung geometrischer Algorithmen (Osteotomie-Ebenen, Kollisionsanalysen), die auf den robusten Features Ihrer KI-Modelle aufbauen, um den Planungsprozess zu automatisieren.
Über uns
Die RWTH ist als familiengerechte Hochschule zertifiziert.
Die RWTH bietet im Rahmen eines Universitären Gesundheitsmanagements eine Vielzahl von Gesundheits-, Beratungs- und Präventionsangeboten (z. B. Hochschulsport) an. Für Tarifbeschäftigte und Beamtinnen und Beamte besteht ein umfangreiches Weiterbildungsangebot und die Möglichkeit, ein Jobticket zu erwerben.
Die Stellenausschreibung richtet sich an alle Geschlechter.
Wir wollen an der RWTH Aachen University besonders die Karrieren von Frauen fördern und freuen uns daher über Bewerberinnen.
Frauen werden bei gleicher Eignung, Befähigung und fachlicher Leistung bevorzugt berücksichtigt, sofern sie in der Organisationseinheit unterrepräsentiert sind und sofern nicht in der Person eines Mitbewerbers liegende Gründe überwiegen.
Bewerbungen geeigneter schwerbehinderter Menschen sind ausdrücklich erwünscht.
Im Sinne der Gleichbehandlung bitten wir Sie, auf ein Bewerbungsfoto zu verzichten.
Informationen zur Erhebung personenbezogener Daten nach Artikeln 13 und 14 Datenschutz-Grundverordnung (DS-GVO) finden Sie https://www.rwth-aachen.de/dsgvo-information-bewerbung
Besoldung / Entgelt
EG 13 TV-L
Art des Abschlusses
- Abschluss Hochschule / Duales Studium / Berufsakademie
