IT – Développeur / Developer-Bilingual (French, English)

Assigner ce groupe de champsMontreal
Catégorie d'emploi
SP-ID4935
Type de Poste
Date limite d'inscription 5 novembre, 2020
Expérience Requise10 ans et +
Durée de l'emploi1 année
Éducation RequiseN/A

Our client in Banking & Finance industry is seeking a IT – Developer / Developer -Bilingual (French, English) in Montreal. It is a 12 months contract.
 
Description:
Titre Réel: Développeur Senior, Ingénierie de données Web Sémantique
Bilinguisme (parlé/écrit) français et anglais
Télétravail: Jusqu’à nouvel ordre (par la suite, 2 jours par semaine).

Vous aimez analyser des données massives pour en dégager de la valeur?
Vous êtes un mordu de DataOps, de flux et des solutions de données novatrices?
Le travail d’équipe et les défis vous stimulent?
La Banque du Canada a mis l’intelligence artificielle au cœur de sa stratégie pour offrir une expérience employé différente. L’équipe TI Expérience Employé cherche un Développeur senior Ingénierie de données pour travailler sur des projets innovateurs en Analytique Avancée et Intelligence Artificielle en lien avec les données employés.
Nous cherchons des candidats créatifs, à l’aise dans des équipes multidisciplinaires, qui démontrent une capacité de pensée logique et de décomposition de problèmes complexe, et ce, dans un contexte SAFe/Agile.
 
Qu’en est-il du quotidien?
• Participer activement au design et développement des solutions d’acquisition des données structurées et non-structurées
• Participer activement au développement et l’opérationnalisation des plateformes analytiques avancées
• S’assurer de la qualité et l’intégrité des données utilisées
• Effectuer des analyses ponctuelles et présenter les résultats de façon claire et concise
• Utiliser et explorer de larges volumes de données afin de répondre à différents besoins d’affaires
• Comprendre les requis et données associées, et la modélisation des données nécessaires
• Identifier comment alimenter le modèle cible RDF (ETL), ainsi que les transformations nécessaires et créer les composants de chargement des données en RDF
• Créer des virtual graphs sur des bases de données relationnelles ou NoSQL
• Créer les procédures stockés SPARQL pour les applications consommateur des données et le Machine Learning
• Créer et administrer les bases de données Triplstore (Stardog), les configurer et charger les ontologies
• Configuration et automatisation des déploiements, gestion des licences, rôles utilisateurs, gestions des opérations et support de la plateforme Stardog
• Déploiement de l’ETL et son orchestration, ainsi que le déploiement des procédures stockées
• User de son influence pour recommander des méthodes d’amélioration de la fiabilité, de l’efficience et de la qualité des données

Profil recherché
• Baccalauréat connexe au secteur d’activité et 8 années d’expérience pertinente OU Maîtrise connexe au secteur d’activité et deux années d’expérience pertinente
• Expertise en ingestion et de traitement de données massives à des fins de valorisation des données
• Expérience en développement logiciel de niveau entreprise et en intégration de plateforme technologique dans des processus d’affaires importantes
• Expérience en opérationnalisation de plateformes d’analytiques avancées
• Très bonne expérience dans la conception de pipelines de données et l’automatisation d’applications/de services de plateformes de mégadonnées au moyen de Python, Scala, Spark, Databricks, Datafactory, Azure Data Lake Gen 2; et dans leur automatisation au moyen des processus et des outils de développement et d’exploitation (DevOps)
• Expérience des architectures événementiels (Message broker – un atout)
• Excellente connaissance de Python
• Connaissances en RDF/Web Semantique et Base de données orientée Graphe (ex.: Stardog)
• Être proactif et faire preuve de rigueur
• Bonnes habiletés de communication et d’influence
• Avoir travailler en méthode agile (Scrum, Kanban…), un atout
Étant donné la situation actuelle concernant le coronavirus, le consultant sera en télé-travail jusqu’à nouvel ordre. Toutefois, en temps normal, ce poste offre la possibilité de télé-travail (2 jours par semaine).

ENGLISH
Real Title: Senior Developer, Semantic Web Data Engineering
Bilingualism (spoken / written) French and English
Telecommuting: Until further notice (thereafter, 2 days per week).

Do you like to analyze big data to unlock value?
Are you a fan of DataOps, flows and innovative data solutions?
Teamwork and challenges stimulate you?
The Bank has placed artificial intelligence at the heart of its strategy to provide a different employee experience. The Employee Experience IT team is looking for a Senior Data Engineering Developer to work on innovative projects in Advanced Analytics and Artificial Intelligence related to employee data.
We are looking for creative candidates, comfortable in multidisciplinary teams, who demonstrate a capacity for logical thinking and complex problem decomposition, in a SAFe / Agile context.
 
What about everyday life?
• Actively participate in the design and development of structured and unstructured data acquisition solutions
• Actively participate in the development and operationalization of advanced analytical platforms
• Ensure the quality and integrity of the data used
• Perform ad hoc analyzes and present the results in a clear and concise manner
• Use and explore large volumes of data to meet different business needs
• Understand the requirements and associated data, and the modeling of the necessary data
• Identify how to feed the RDF target model (ETL), as well as the necessary transformations and create the data loading components in RDF
• Create virtual graphs on relational or NoSQL databases
• Create SPARQL stored procedures for data consuming applications and Machine Learning
• Create and administer Triplstore (Stardog) databases, configure them and load ontologies
• Configuration and automation of deployments, license management, user roles, operations management and support for the Stardog platform
• ETL deployment and orchestration, as well as the deployment of stored procedures
• Use its influence to recommend methods of improving the reliability, efficiency and quality of data
 
Required profile
• Bachelor’s degree related to the industry and 8 years of relevant experience OR Master’s degree related to the industry and two years of relevant experience
• Expertise in ingestion and processing of big data for data valuation purposes
• Experience in enterprise level software development and technological platform integration into important business processes
• Experience in operationalizing advanced analytics platforms
• Very good experience in the design of data pipelines and automation of big data platform applications / services using Python, Scala, Spark, Databricks, Datafactory, Azure Data Lake Gen 2; and in their automation through development and operations processes and tools (DevOps)
• Experience in event architectures (Message broker – an asset)
• Excellent knowledge of Python
• Knowledge of RDF / Semantic Web and Graph-oriented Database (ex .: Stardog)
• Be proactive and show rigor
• Good communication and influence skills
• Having worked in an agile method (Scrum, Kanban, etc.), an asset
 
Given the current situation regarding the coronavirus, the consultant will be teleworking until further notice. However, in normal times, this position offers the possibility of teleworking (2 days a week).

Les candidats doivent être au Canada et avoir un permis de travail valide pour pouvoir postuler à ce poste.
 
Veuillez répondre à:
n.vaishakh@maxsys.ca

 
*MST