Tu souhaites faire partie d’une équipe qui peut concrètement atténuer les changements climatiques?
ChrysaLabs est une entreprise spécialisée en technologies de l’agriculture qui a développé une solution d’analyse des sols basée sur la spectroscopie et l’intelligence artificielle permettant aux agriculteurs de réduire l’utilisation de fertilisants et d’augmenter leur rendement agricole.
Notre mission est de rendre l’agriculture plus durable, plus rentable, et de faciliter l’adoption de pratiques agricoles respectueuses de l’environnement à travers l’utilisation de notre technologie.
L’équipe s’agrandit (encore!) afin de répondre à notre forte croissance et nous sommes présentement à la recherche d’un(e) Ingénieur de données senior.
L’ingénieur de données joue un rôle clé dans le soutien aux efforts de l’équipe de data science pour améliorer les performances des modèles prédictifs de ChrysaLabs et pour développer des projets à grande échelle de traitement des données de sols. Ce rôle combine une expertise technique en ingénierie de données avec une solide compréhension des systèmes cloud, de l’intégration de données en temps réel, et de l’optimisation de l’infrastructure. Le candidat sera responsable de la création de nouveaux pipelines de données tout en collaborant avec l’équipe d’infrastructure pour s’aligner avec les pipelines existants. Il se concentrera sur le stockage, le traitement et la récupération efficaces des données, tout en travaillant étroitement avec des analystes, scientifiques des données, et agronomes pour transformer les données en informations exploitables.
– Concevoir et développer des pipelines de données : Créer et optimiser des pipelines de données pour faciliter l’ingestion, le traitement, et la transformation efficaces des données, soutenant ainsi l’entraînement de modèles et l’analyse automatisée.
– Collaborer avec l’équipe d’infrastructure : Travailler avec l’équipe d’infrastructure pour comprendre l’architecture de données de l’entreprise et créer de nouvelles structures qui répondent mieux aux besoins de la data science.
– Gérer les données pour l’analyse et la modélisation : Assurer que les données sont structurées, nettoyées, et stockées de manière à faciliter leur accès (par exemple, conception de base de données relationnelle basée sur SQL) et traitement pour l’analyse et la modélisation prédictive.
– Flexibilité du Modèle de Données : Analyser et améliorer le modèle de données existant pour créer une structure entité-relation de haute qualité. Assurer que le modèle de données et le schéma puissent s’adapter à l’ajout de nouveaux capteurs, de nouvelles propriétés du sol et de types composites, garantissant ainsi une robustesse face aux exigences évolutives de la science des données.
– Automatiser les processus de données : Développer des outils d’automatisation pour simplifier les workflows de traitement de données, permettant ainsi une analyse et une génération de rapports efficaces pour les clients. Automatisez les processus de pipeline, planifiez les actualisations pour maintenir les pipelines de données efficaces et à jour.
– Optimiser les pipelines de données existants pour l’apprentissage automatique: Apprendre et travailler avec les pipelines de données actuels utilisés pour l’entraînement, le test et le déploiement des modèles. Améliorer et maintenir ces pipelines si nécessaire, en construisant de nouveaux seulement si cela s’avère essentiel pour améliorer la performance et l’évolutivité, et pour garantir une intégration fluide avec l’infrastructure existante. Effectuez régulièrement des optimisations et une surveillance des performances des pipelines pour garantir un fonctionnement fluide et une évolutivité.
– Maintenir la qualité et la cohérence des données : Mettre en place et surveiller des mesures de contrôle qualité pour assurer l’exactitude, l’intégrité et la fiabilité des données dans tous les pipelines. Si nécessaire, établir des couches de staging pour ne transformer que les données brutes, tout en fournissant une couche distincte avec des vérifications indépendantes de la qualité des données pour les requêtes.
– Assurer la traçabilité des données : Mettre en place des processus pour le suivi de la lignée des données, en s’assurant que toutes les transformations et manipulations de données sont traçables. Veiller à ce que la base de données soit résiliante aux écrasements de données historiques, afin de maintenir l’intégrité et la continuité des données.
– Soutenir la création de rapports et de visualisations : Créer les bases pour automatiser la génération de rapports et de visualisations de données destinés aux clients, basés sur les données traitées et les résultats des modèles.
– Innover avec de nouveaux outils et techniques : Rechercher en permanence des opportunités d’amélioration des techniques de gestion et de traitement de données, en intégrant de nouveaux outils, frameworks, et technologies pour améliorer l’efficacité et l’évolutivité.
– Faciliter la collaboration interfonctionnelle : Solides compétences en communication, capacité à travailler en collaboration avec des équipes interfonctionnelles, et attitude autonome avec une approche proactive pour identifier et résoudre les défis. Travailler en étroite collaboration avec les data scientists, les analystes de données et d’autres équipes pour répondre à leurs besoins en matière de données, en veillant à l’alignement avec les objectifs et les buts de l’entreprise.
– Un diplôme universitaire en informatique, technologie de l’information, génie logiciel ou dans un domaine connexe est requis. Un master ou un diplôme supérieur peut être un atout.
– Un minimum de 4 années d’expérience dans un rôle d’ingénieur en données ou équivalent.
Compétences techniques
– Maîtrise des outils d’ingénierie des données couramment utilisés et expérience avec des frameworks de pipelines de données et des outils d’orchestration.
– Expérience solide avec Python pour l’automatisation des pipelines de données, avec une expérience supplémentaire en Golang et GRPC en tant que compétences secondaires.
– Compétence en SQL, modélisation des données, bases de données relationnelles et optimisation des performances. Bonne compréhension des bases de données relationnelles et des bases de données NoSQL (par exemple, MongoDB, DynamoDB).
– Expérience avec les plateformes cloud (AWS, GCP ou Azure), en mettant l’accent sur les services d’infrastructure de données comme S3, Redshift ou BigQuery.
– Maîtrise des outils et frameworks ETL (par ex. Apache Airflow, Spark).
– Compréhension des principes DevOps, de la conteneurisation (Docker, Kubernetes) et des pipelines CI/CD.
– Compréhension des principes de gouvernance des données, d’audit et de sécurité.
– Familiarité avec différentes architectures de données – lacs de données, entrepôts de données, etc.
– Compétence dans la conception et l’optimisation de flux de données pour le traitement et le stockage de grands ensembles de données.
– Connaissance de la gestion des données géoréférencées et familiarité avec la science des sols est un atout.
– Capacité à concevoir et à mettre en œuvre des architectures de données évolutives, garantissant un flux de données et un stockage efficaces dans tous les systèmes.
– Excellentes compétences en communication pour expliquer des structures et processus de données complexes à des publics techniques et non techniques.
Compétences transversales
– Capacité solide à communiquer clairement et efficacement des concepts et processus techniques, tant à l’écrit qu’à l’oral, notamment lors de la rédaction de documentation ou de la présentation de conceptions de systèmes. La capacité à communiquer en anglais est également un atout.
– Aptitude à comprendre les exigences des parties prenantes internes et externes, et à livrer une infrastructure de données et des pipelines qui soutiennent leur prise de décision.
– La connaissance des réglementations sur la protection des données et des meilleures pratiques en matière de gestion et de sécurité des données est un atout.
– Capacité à s’adapter aux changements au sein de l’équipe et à ajuster les processus d’ingénierie des données pour répondre aux besoins évolutifs de l’entreprise et aux exigences du marché.
– “We play as a team, we win as a team.”
– Un esprit de startup qui met en avant le développement durable en contribuant à réduire l’impact de l’agriculture sur l’environnement
– Un environnement de travail stimulant et dynamique. Pour vrai.
– Installations modernes, avec des outils POUR t’aider à faire ton travail facilement
– Bureaux ajustables, des plantes partout, la plus belle luminosité au nord du Mont Royal.
– Cuisine com-plè-te-ment garnie.
– Une excellente culture d’entreprise qui a compris que sans les humains, il n’y aurait pas d’entreprise.
– Un management horizontal et réellement accessible : notre CEO est dans le team de hockey du bureau et la moitié de l’équipe fait du bloc avec notre CTO (Il est pas pire!)
– Assurances collectives et régime de pension avec participation de l’employeur
– Mentalité d’évolution de carrière ancrée dans notre ADN. On veut que tu grandisses.
– Politiques de télétravail, d’horaire flexible et de réalité travail-famille des plus conciliantes
– Allocation annuelle pour ton bien-être.
– Nerf gun à disposition pour combats de boulettes en mousse!
– 5 à 7 fréquents, Lunch & Learn, etc.