Ihre Aufgaben
Mitarbeit beim Aufbau einer Private-AI-/On-Prem-KI-Umgebung (GPU-Server, Containerisierung, Deployment-Standards, Zugriffsmodelle).
Evaluierung und Prototyping von lokaler Inference (z. B. LLMs/Embeddings) inkl. Dokumentation und Betriebskonzept (Runbooks/SoPs).
Entwicklung erster AIOps-Use-Cases: z. B. Alarm-Korrelation, Log-Analyse, Anomalie-Erkennung, Ticket-Zusammenfassungen, Wissenssuche/RAG auf internen Dokus.
Integration in bestehende Toolchains (z. B. Monitoring/Alerting, GitLab, Automatisierung) und Mitarbeit an CI/CD-Standards.
Erstellung von Technik-Dokumentation, Lessons Learned und Vorschlägen für sichere Governance (Datenklassifizierung, Auditfähigkeit, Nachvollziehbarkeit).