IT – Développeur / Developer-Bilingual (French, English)
Assigner ce groupe de champs | Montreal |
Catégorie d'emploi | |
SP-ID | 4935 |
Type de Poste | |
Date limite d'inscription | 5 novembre, 2020 |
Expérience Requise | 10 ans et + |
Durée de l'emploi | 1 année |
Éducation Requise | N/A |
Our client in Banking & Finance industry is seeking a IT – Developer / Developer -Bilingual (French, English) in Montreal. It is a 12 months contract.
Description:
Titre Réel: Développeur Senior, Ingénierie de données Web Sémantique
Bilinguisme (parlé/écrit) français et anglais
Télétravail: Jusqu’à nouvel ordre (par la suite, 2 jours par semaine).
Vous aimez analyser des données massives pour en dégager de la valeur?
Vous êtes un mordu de DataOps, de flux et des solutions de données novatrices?
Le travail d’équipe et les défis vous stimulent?
La Banque du Canada a mis lintelligence artificielle au cur de sa stratégie pour offrir une expérience employé différente. Léquipe TI Expérience Employé cherche un Développeur senior Ingénierie de données pour travailler sur des projets innovateurs en Analytique Avancée et Intelligence Artificielle en lien avec les données employés.
Nous cherchons des candidats créatifs, à laise dans des équipes multidisciplinaires, qui démontrent une capacité de pensée logique et de décomposition de problèmes complexe, et ce, dans un contexte SAFe/Agile.
Qu’en est-il du quotidien?
Participer activement au design et développement des solutions dacquisition des données structurées et non-structurées
Participer activement au développement et l’opérationnalisation des plateformes analytiques avancées
Sassurer de la qualité et lintégrité des données utilisées
Effectuer des analyses ponctuelles et présenter les résultats de façon claire et concise
Utiliser et explorer de larges volumes de données afin de répondre à différents besoins daffaires
Comprendre les requis et données associées, et la modélisation des données nécessaires
Identifier comment alimenter le modèle cible RDF (ETL), ainsi que les transformations nécessaires et créer les composants de chargement des données en RDF
Créer des virtual graphs sur des bases de données relationnelles ou NoSQL
Créer les procédures stockés SPARQL pour les applications consommateur des données et le Machine Learning
Créer et administrer les bases de données Triplstore (Stardog), les configurer et charger les ontologies
Configuration et automatisation des déploiements, gestion des licences, rôles utilisateurs, gestions des opérations et support de la plateforme Stardog
Déploiement de lETL et son orchestration, ainsi que le déploiement des procédures stockées
User de son influence pour recommander des méthodes d’amélioration de la fiabilité, de l’efficience et de la qualité des données
Profil recherché
Baccalauréat connexe au secteur d’activité et 8 années d’expérience pertinente OU Maîtrise connexe au secteur d’activité et deux années d’expérience pertinente
Expertise en ingestion et de traitement de données massives à des fins de valorisation des données
Expérience en développement logiciel de niveau entreprise et en intégration de plateforme technologique dans des processus d’affaires importantes
Expérience en opérationnalisation de plateformes d’analytiques avancées
Très bonne expérience dans la conception de pipelines de données et l’automatisation d’applications/de services de plateformes de mégadonnées au moyen de Python, Scala, Spark, Databricks, Datafactory, Azure Data Lake Gen 2; et dans leur automatisation au moyen des processus et des outils de développement et dexploitation (DevOps)
Expérience des architectures événementiels (Message broker un atout)
Excellente connaissance de Python
Connaissances en RDF/Web Semantique et Base de données orientée Graphe (ex.: Stardog)
Être proactif et faire preuve de rigueur
Bonnes habiletés de communication et d’influence
Avoir travailler en méthode agile (Scrum, Kanban
), un atout
Étant donné la situation actuelle concernant le coronavirus, le consultant sera en télé-travail jusqu’à nouvel ordre. Toutefois, en temps normal, ce poste offre la possibilité de télé-travail (2 jours par semaine).
ENGLISH
Real Title: Senior Developer, Semantic Web Data Engineering
Bilingualism (spoken / written) French and English
Telecommuting: Until further notice (thereafter, 2 days per week).
Do you like to analyze big data to unlock value?
Are you a fan of DataOps, flows and innovative data solutions?
Teamwork and challenges stimulate you?
The Bank has placed artificial intelligence at the heart of its strategy to provide a different employee experience. The Employee Experience IT team is looking for a Senior Data Engineering Developer to work on innovative projects in Advanced Analytics and Artificial Intelligence related to employee data.
We are looking for creative candidates, comfortable in multidisciplinary teams, who demonstrate a capacity for logical thinking and complex problem decomposition, in a SAFe / Agile context.
What about everyday life?
Actively participate in the design and development of structured and unstructured data acquisition solutions
Actively participate in the development and operationalization of advanced analytical platforms
Ensure the quality and integrity of the data used
Perform ad hoc analyzes and present the results in a clear and concise manner
Use and explore large volumes of data to meet different business needs
Understand the requirements and associated data, and the modeling of the necessary data
Identify how to feed the RDF target model (ETL), as well as the necessary transformations and create the data loading components in RDF
Create virtual graphs on relational or NoSQL databases
Create SPARQL stored procedures for data consuming applications and Machine Learning
Create and administer Triplstore (Stardog) databases, configure them and load ontologies
Configuration and automation of deployments, license management, user roles, operations management and support for the Stardog platform
ETL deployment and orchestration, as well as the deployment of stored procedures
Use its influence to recommend methods of improving the reliability, efficiency and quality of data
Required profile
Bachelor’s degree related to the industry and 8 years of relevant experience OR Master’s degree related to the industry and two years of relevant experience
Expertise in ingestion and processing of big data for data valuation purposes
Experience in enterprise level software development and technological platform integration into important business processes
Experience in operationalizing advanced analytics platforms
Very good experience in the design of data pipelines and automation of big data platform applications / services using Python, Scala, Spark, Databricks, Datafactory, Azure Data Lake Gen 2; and in their automation through development and operations processes and tools (DevOps)
Experience in event architectures (Message broker – an asset)
Excellent knowledge of Python
Knowledge of RDF / Semantic Web and Graph-oriented Database (ex .: Stardog)
Be proactive and show rigor
Good communication and influence skills
Having worked in an agile method (Scrum, Kanban, etc.), an asset
Given the current situation regarding the coronavirus, the consultant will be teleworking until further notice. However, in normal times, this position offers the possibility of teleworking (2 days a week).
Les candidats doivent être au Canada et avoir un permis de travail valide pour pouvoir postuler à ce poste.
Veuillez répondre à:
n.vaishakh@maxsys.ca
*MST