Administrateur Technique IA H/F - Université Côte d'Azur
Publié le 5 Mai 2026Les missions du poste
Vos missions principales :
Administration systèmes & infrastructures kubernetes
Gestion et supervision du cluster Kubernetes RKE/RKE2 (masters / workers / stockage / ingress), supportant des services d'intelligence artificielle (inférence, APIs, traitements distribués).
Exploitation et maintenance de serveurs Linux (Debian/Ubuntu/Red Hat) supportant des services d'intelligence artificielle (inférence, APIs, traitements de données).
Gestion d'environnements virtualisés (VMware vSphere) et conteneurisés (Kubernetes), intégrant des charges de travail spécifiques (CPU/GPU), ainsi que des infrastructures de stockage (NFS, SAN) adaptées aux données IA.
Mise en place et maintien d'outils d'observabilité adaptés aux usages IA : supervision (Prometheus, Grafana), centralisation des journaux (Loki, Promtail), suivi des performances (latence, consommation de ressources, usage des modèles).
Administration plateforme IA
Mettre en place une infrastructure d'IA (briques on-premise et/ou cloud).
Maintien en conditions opérationnelles des workloads IA et applicatifs : déploiement, supervision, troubleshooting avancé, optimisation des performances (CPU/GPU, mémoire, latence), gestion de la montée de version du cluster et des composants associés.
Déployer de façon sécurisée et exploiter des services d'IA: Modèles (inférence/générative, Embedding, Ranking), APIs, outils internes.
Industrialiser les usages (API, mutualisation, supervision)
Sécurité, fiabilité & gouvernance
Définir et faire appliquer les bonnes pratiques d'usage de l'intelligence artificielle au sein du SI.
Encadrer les flux de données liés aux services IA (RGPD, données sensibles, maîtrise des échanges avec des services externes).
Mettre en place des mécanismes de contrôle, d'audit et de traçabilité des usages (journalisation, supervision, suivi des accès).
Contribuer à la définition d'un cadre de gouvernance IA (règles d'usage, validation des cas d'usage, maîtrise des coûts et des risques).
Participer à la sécurisation des services IA (gestion des accès, isolation des environnements, conformité aux politiques de sécurité du SI).
Participer aux choix stratégiques technico-fonctionnels
Le profil recherché
Très bonne maîtrise des environnements Linux (Debian/Ubuntu/RHEL-like).
Compétences solides en Docker, conteneurisation et orchestration.
Connaissance approfondie de Kubernetes (idéalement RKE/RKE2).
Connaissance des concepts liés aux LLM (inférence, prompting, RAG, vectorisation).
Expérience ou appétence pour l'intégration de services IA (API externes ou modèles locaux, ex : OpenAI, Mistral AI).
Connaissance d'outils d'inférence ou d'orchestration, gateway IA, ...(ex : vLLM, Mistral, litellm,...).
Sensibilité aux enjeux de sécurité et de gouvernance des données dans les usages IA.
Capacité d'analyse et de résolution de problèmes complexes.
Curiosité technique et capacité d'adaptation dans un domaine en évolution rapide.
Aptitude à travailler en équipe et à interagir avec des interlocuteurs variés (techniques et métiers).
Capacité à vulgariser et à accompagner les usages autour de l'intelligence artificielle.