Ingénieur Pipeline de Données en Cybersécurité / Cyber Data Pipeline Engineer

Montreal, QC

mthree

Are you a graduate unsure how to start your career? An experienced professional looking for a new role? Or a business wanting to upskill? Discover mthree.

View all jobs at mthree

Apply now Apply later

**English version below**

 

Doit être local à Montréal

Vous souhaitez travailler dans le domaine de la technologie au sein d'une banque d'investissement?

Nous recherchons un Ingénieur Pipeline de Données en Cybersécurité pour rejoindre une équipe dynamique chez l’un de nos clients. Dans ce rôle, vous serez chargé de gérer et de maintenir des plateformes critiques de pipelines de données qui collectent, transforment et transmettent des données d’événements cyber vers des plateformes en aval telles qu’ElasticSearch et Splunk. Vous serez responsable de la fiabilité, de l’évolutivité et des performances de l’infrastructure tout en construisant des intégrations complexes avec des systèmes cyber dans le cloud et sur site. Les principales parties prenantes de notre client sont les équipes cybersécurité, y compris la réponse aux incidents, les enquêtes et la menace interne.

À propos de mthree :

Depuis 2010, mthree aide ses clients à relever leurs défis technologiques et commerciaux. Nous sommes un cabinet de conseil en technologie et en affaires avec une présence mondiale, livrant des projets IT et métiers majeurs pour certaines des plus grandes institutions financières au monde.

Services principaux :

  • Conseil et accompagnement

  • Services managés

  • Programme diplômé Alumni

  • Programme professionnel Alumni Pro

Nous sommes présents à l’international et experts dans la prestation de services de qualité dans les domaines suivants : Risque, Réglementation & Conformité ; Produits éditeurs ; Support applicatif ; Développement applicatif ; Cybersécurité & Sécurité de l'information ; Data Science et DevOps.

Notre programme Expert offre aux professionnels expérimentés un accès à des postes de haut niveau dans la tech, la finance, l’aviation et l’assurance. Rejoignez-nous pour travailler sur des projets technologiques de pointe, allant des plateformes de trading internationales aux applications critiques pour les compagnies aériennes.

Profil du poste

Le candidat retenu contribuera à plusieurs initiatives clés, notamment :

  • Collaborer avec les équipes cybersécurité pour identifier, intégrer et connecter de nouvelles sources de données à la plateforme.

  • Concevoir et mettre en œuvre des processus de mappage, de transformation et de routage des données pour répondre aux besoins d’analyse et de surveillance.

  • Développer des outils d’automatisation intégrés aux frameworks de gestion de configuration internes et aux API.

  • Surveiller la santé et les performances de l’infrastructure du pipeline de données.

  • Agir en tant que point d’escalade de haut niveau pour résoudre des problèmes complexes en collaboration avec d’autres équipes d’infrastructure.

  • Créer et maintenir une documentation détaillée sur l’architecture, les processus et les intégrations du pipeline.

Compétences requises

  • Diplôme de licence en informatique ou dans un domaine connexe

  • 3 à 5 ans d’expérience professionnelle pertinente, de préférence dans le secteur financier

  • Expérience pratique dans le déploiement et la gestion de produits de flux de données à grande échelle comme CriblLogstash ou Apache NiFi

  • Expérience d’intégration de pipelines de données avec des plateformes cloud (AWSAzureGoogle Cloud) et des systèmes sur site

  • Maîtrise des expressions régulières pour l’extraction de champs

  • Solide compréhension des systèmes d’exploitation et des concepts réseau : administration Linux/UnixHTTP, chiffrement

  • Bonne connaissance des outils de versionnage, de déploiement et d’intégration continue (GitJenkinsJira) selon les pratiques DevOps

  • Excellentes compétences analytiques et en résolution de problèmes

  • Excellentes compétences en communication écrite et orale

  • Connaissance des méthodologies Agile, en particulier Kanban

Compétences souhaitées

  • Expérience en entreprise avec une plateforme de streaming d’événements distribuée comme Apache KafkaAWS KinesisGoogle Pub/SubMQ

  • Expérience en automatisation et intégration d’infrastructure, idéalement avec Python et Ansible

  • Familiarité avec les concepts de cybersécurité, les types d’événements et les exigences de surveillance

  • Expérience en parsing et normalisation des données dans Elasticsearch en utilisant le Elastic Common Schema (ECS)

Chez mtrois, nos valeurs soutiennent des coéquipiers courageux, des moteurs d'aiguille et des champions de l'apprentissage tout en s'efforçant de soutenir la santé et le bien-être de tous les employés. Nous sommes très fiers de célébrer la diversité de chaque individu qui contribue à faire de mtrois l'entreprise qu'elle est aujourd'hui et qu'elle sera à l'avenir. Nous valorisons la diversité tant au sein de mtrois qu'avec nos entreprises partenaires, et nous sommes fiers de fournir un environnement où tous nos collègues peuvent s'épanouir. Cela signifie promouvoir une forte culture d'égalité mais, surtout, d'inclusion.

Les candidats doivent être actuellement autorisés à travailler au Canada à temps plein. L'entreprise ne sponsorisera pas les candidats pour des visas de travail.

 

**Must be local to Montreal**

Want to work in technology at an investment bank?

We are seeking a Cyber Data Pipeline Engineer to join a dynamic team with our client. In this role, you will manage and maintain critical data pipeline platforms that collect, transform, and transmit cyber events data to downstream platforms, such as ElasticSearch and Splunk. You will be responsible for ensuring the reliability, scalability, and performance of the pipeline infrastructure while building complex integrations with cloud and on-premises cyber systems. Our client's key stakeholders are cyber teams including security response, investigations and insider threat.

 

About mthree:

Since 2010, mthree has been helping clients solve their business and technological challenges. We are a technology and business consultancy with a global workforce delivering significant business and IT projects in some of the largest financial services organizations worldwide.

  • Core Services
  • Consulting and Advisory
  • Managed Services
  • Alumni Graduate Program
  • Alumni Pro Program

We have a global presence and are experts in delivering exceptional quality to our client base, providing consulting services across Risk, Regulation & Compliance; Vendor Products; Application Support; Application Development; Cyber & Information Security; Data Science and DevOps areas.

Our Expert program offers experienced professionals access to top roles in tech, finance, aviation and insurance. Join us to work on groundbreaking technology projects, from international trading platforms to critical applications for leading airlines. We recruit professionals who are eager to fast-track their careers in technology or operations within prestigious global organizations.

 

Role Profile

A successful applicant will contribute to several important initiatives including:

  • Collaborate with Cyber teams to identify, onboard, and integrate new data sources into the platform.
  • Design and implement data mapping, transformation, and routing processes to meet analytics and monitoring requirements.
  • Developing automation tools that integrate with in-house developed configuration management frameworks and APIs
  • Monitor the health and performance of the data pipeline infrastructure.
  • Working as a top-level escalation point to perform complex troubleshoots, working with other infrastructure teams to resolve issues
  • Create and maintain detailed documentation for pipeline architecture, processes, and integrations.

Required Skills

  • Bachelor's degree in Computer Science or related field
  • 3-5 years of relevant work experience preferably in the finance field
  • Hands-on experience deploying and managing large-scale dataflow products like Cribl, Logstash or Apache NiFi
  • Hands-on experience integrating data pipelines with cloud platforms (e.g., AWS, Azure, Google Cloud) and on-premises systems.
  • Hands-on experience in developing and validating field extraction using regular expressions.
  • A solid understanding of Operating Systems and Networking concepts: Linux/Unix system administration, HTTP and encryption.
  • Good understanding of software version control, deployment & build tools using DevOps SDLC practices (Git, Jenkins, Jira)
  • Strong analytical and troubleshooting skills
  • Excellent verbal & written communication skills
  • Appreciation of Agile methodologies, specifically Kanban

Desired Skills

  • Enterprise experience with a distributed event streaming platform like Apache Kafka, AWS Kinesis, Google Pub/Sub, MQ
  • Infrastructure automation and integration experience, ideally using Python and Ansible
  • Familiarity with cybersecurity concepts, event types, and monitoring requirements.
  • Experience in Parsing and Normalizing data in Elasticsearch using Elastic Common Schema (ECS)

At mthree, our values support courageous teammates, needle movers, and learning champions all while striving to support the health and well-being of all employees.  We take great pride in celebrating the diversity of each individual who contributes to making mthree the company it is today and will be in the future. We value diversity both within mthree and with our partner companies, and we're proud to provide an environment where all our colleagues can flourish. That means promoting a strong culture of equality but, most importantly, inclusion.

Applicants must be currently authorized to work in Canada on a full-time basis. The Company will not sponsor applicants for work visas.

Apply now Apply later

* Salary range is an estimate based on our InfoSec / Cybersecurity Salary Index 💰

Job stats:  0  0  0

Tags: Agile Analytics Ansible APIs Automation AWS Azure Cloud Compliance Computer Science DevOps Elasticsearch Encryption Finance GCP Jenkins Jira Kafka Kanban Linux Monitoring Python SDLC Splunk Surveillance UNIX

Perks/benefits: Career development Team events

Region: North America
Country: Canada

More jobs like this

Explore more career opportunities

Find even more open roles below ordered by popularity of job title or skills/products/technologies used.