15 mai 2026
Actus aiko
Le quotidien d’un Data Scientist chez aiko
Interview de Oussama pour découvrir le métier de Data Scientist chez aiko
Chez aiko, le Data Scientist occupe un rôle clé : il est l’expert de la valorisation des données et de la conception de modèles d’intelligence artificielle capables de répondre à des problématiques métiers concrètes. Son rôle consiste à transformer les données des entreprises en leviers de décision, de performance et d’innovation, en développant des modèles robustes, interprétables et adaptés aux usages réels des clients.
À la croisée de la statistique, du machine learning et de la compréhension métier, le Data Scientist contribue à faire émerger des solutions IA à forte valeur ajoutée, depuis l’exploration des données jusqu’au déploiement des modèles. Ces métiers dédiés à la data et à l’intelligence artificielle incarnent notre positionnement unique : des experts capables d’identifier les opportunités, de concevoir des modèles performants et de mettre en œuvre des solutions concrètes au service de la transformation IA des entreprises.
Comment commences-tu ta journée de travail ?
La journée commence généralement par un daily avec l’équipe projet côté client. C’est un point rapide pour faire le tour des priorités, des éventuels incidents en production et de l’avancement des sujets data et IA.
Après ça, je regarde les tickets sur Jira : nouvelles features, améliorations de modèles, mises en production ou bugs à corriger. Je vérifie aussi le monitoring des modèles déjà déployés pour détecter rapidement d’éventuelles anomalies.
Le planning de la journée change souvent selon les urgences. Certaines journées sont très orientées production, d’autres davantage centrées sur le développement de modèles ou les demandes métier qui arrivent au fil du sprint.
En quoi consiste le cœur de ton travail au quotidien ?
Le rôle est assez transversal entre data science, machine learning et industrialisation.
Une partie importante du travail consiste à préparer les données dans Snowflake : structuration, nettoyage, agrégation, création de features et contrôle de la qualité des datasets avant leur exploitation par les modèles.
Ensuite vient la partie modélisation. Selon les projets, je peux travailler sur des modèles de prédiction, du scoring, du NLP pour analyser du texte ou des documents, de la computer vision sur des cas d’usage retail, ou encore des sujets autour de l’IA générative pour extraire et structurer des données non structurées.
La logique reste toujours la même : comprendre le besoin métier, le transformer en problème ML concret, choisir les bonnes métriques puis tester les approches avant un passage en production.
Mais le travail ne s’arrête pas au modèle. Une grosse partie concerne l’industrialisation : création de pipelines, APIs, batch jobs, monitoring et gestion de la stabilité des systèmes une fois déployés.
Côté stack technique, j’utilise principalement Python, SQL, Snowflake, GitLab, PyTorch, Docker, Kubernetes, VS Code et parfois des frameworks comme LangChain selon les projets IA.
Un projet récent consistait par exemple à analyser l’impact de l’ouverture de magasins physiques sur les ventes e-commerce. L’objectif était de mesurer comment l’implantation d’un point de vente influence les comportements d’achat en ligne dans une zone géographique donnée.
Comment se passent tes interactions avec l’équipe et les clients ?
Le travail se fait en collaboration constante avec les équipes métier, les Data Engineers et les autres profils data.
Avec les équipes métier, l’objectif est surtout de transformer des problématiques business parfois assez floues en sujets IA exploitables, avec des contraintes réalistes et des indicateurs mesurables.
Avec les Data Engineers, on travaille sur la fiabilité des données, les pipelines et toute la partie infrastructure nécessaire aux usages ML et à la production.
Les échanges avec les autres Data Scientists sont aussi fréquents, notamment sur les choix de modélisation, les compromis entre performance et robustesse, ou encore les décisions d’architecture ML.
Les projets évoluent souvent en cours de route. Une simple discussion métier peut parfois modifier complètement la manière de poser un problème ou le type de modèle utilisé.
Quels sont les principaux challenges que tu rencontres au quotidien ?
Dans la pratique, les problèmes rencontrés ne concernent pas uniquement les modèles.
Une grande partie des difficultés vient des données : qualité insuffisante, incohérences entre sources, manque de signal exploitable ou datasets peu représentatifs.
Ensuite, il y a les enjeux liés à la production : stabilité des modèles dans le temps, data drift, différences entre les performances offline et réelles, ou encore intégration dans des systèmes existants.
Selon les cas d’usage IA, il faut aussi gérer des contraintes spécifiques. En NLP, cela peut être la qualité des embeddings ou les ambiguïtés sémantiques. En computer vision, la variabilité des images et les conditions terrain. En IA générative, les hallucinations et la fiabilité des sorties.
Du coup, les approches sont souvent hybrides : modèles interprétables quand le métier a besoin de transparence, deep learning quand le signal est plus complexe, et couches de validation supplémentaires pour sécuriser les résultats en production.
L’objectif final n’est pas seulement d’avoir un modèle performant, mais surtout un système fiable et réellement utilisable opérationnellement.
Quels rituels et quelles façons de travailler adoptes-tu chez aiko ?
Les décisions techniques sont généralement prises de manière collaborative entre Data Scientists, Data Engineers et parfois les équipes produit.
On retrouve les rituels classiques des projets agiles : daily, sprint review, démonstrations… mais aussi beaucoup d’échanges informels pour arbitrer des choix techniques ou métier.
Ce qui est intéressant dans ce type d’environnement, c’est le lien direct entre expérimentation et production. Les modèles ne restent pas longtemps au stade de POC : ils sont rapidement confrontés à des contraintes réelles.
Comment entretiens-tu un apprentissage continu ?
Le domaine évolue très rapidement, donc la veille technique fait partie du quotidien.
Je m’intéresse notamment aux nouvelles approches en deep learning, aux avancées en NLP et IA générative, aux outils MLOps pour mieux industrialiser les modèles, ainsi qu’aux nouvelles méthodes de feature engineering et d’évaluation.
Mais au final, l’apprentissage vient surtout des projets eux-mêmes. Chaque cas d’usage apporte de nouveaux problèmes à résoudre et oblige à adapter les approches techniques.
Qu’est-ce qui te motive au quotidien ?
L’aspect le plus intéressant du métier, c’est de voir une idée passer d’un besoin métier parfois flou à un système IA réellement utilisé en production.
Quand une analyse ou un modèle influence directement une décision business pricing, stratégie retail, optimisation ou analyse d’impact on voit concrètement la valeur créée.
Et surtout, le moment où un modèle cesse d’être un simple prototype pour devenir un outil utilisé au quotidien par les équipes métier, c’est souvent là que le travail devient le plus satisfaisant.
Ces articles peuvent aussi vous intéresser




