CREDICORP – DATA ENGINEER

La misión de Credicorp es transformar la sociedad ofreciendo los mejores servicios financieros para ayudar a nuestros clientes a cumplir sus objetivos. Como uno de los 10 principales grupos financieros de Latinoamérica, cubrimos todas las necesidades de nuestros clientes a través de:

- Banca Universal: Banco de Crédito del Perú y Banco de Crédito de Bolivia

- Banca de Inversión y Gestión de Patrimonios: Credicorp Capital y Atlantic Security Bank en Chile, Colombia, Perú, Panamá y EEUU.

- Microfinanzas: MiBanco en Perú y Colombia.

- Emprendimientos disruptivos: Yape, Krealo, IO, Tenpo, Tyba, otros.

- Seguros y Pensiones: Pacífico y Prima AFP en Perú


En Credicorp hemos iniciado un camino para convertirnos en la empresa más centrada en el cliente del país y la región. Si te apasiona innovar en la industria financiera, cambiar paradigmas financieros, facilitar la vida de los clientes a través de soluciones tecnológicas y digitales y, sobre todo, ayudar a nuestros clientes a alcanzar sus metas, este es el momento perfecto para unirte al mejor lugar para los mejores y empezar a generar impacto. El área se encarga de desarrollar capacidades de People Analytics proporcionando insights estratégicos que impacten en la toma de decisiones y la generación de valor.

¿Cómo saber que eres el indicado?

  • Egresado de Computación e Informática, Ingeniería de Sistemas o afines

  • Experiencia de 5 a más años en implementación de soluciones con las tecnologías requeridas.

  • Análisis y desarrollo de flujos de Ingesta y transformación de datos en Data lake o Lake House en plataformas On Premise y/o Cloud.

  • Análisis y Desarrollo utilizando procesamiento distribuido en Spark usando PySpark y Scala (Batch).

  • Optimización de los procesos a desarrollar o existentes con un enfoque de optimización de costos (tiempo de procesamiento y uso del clúster) con Spark.

  • Análisis y schedulamiento de los procesos de acuerdo con los criterios definidos por los usuarios.

  • Despliegue soluciones en producción haciendo uso de herramientas de integración y despliegue continuo (DevSecOps).

  • Desarrollo de soluciones transversales para la mejora continua del framework de desarrollo y despliegue de soluciones.

  • Desarrollo de buenas prácticas, frameworks y estándares de desarrollo en Spark.

  • Consultoría y asesoría técnica en la estrategia de implementación de soluciones en plataformas distribuidas On Premise y/o Cloud.


Funciones

  • Plantear estrategias de implementación eficientes y eficaces de las soluciones de acuerdo con la arquitectura unificada de datos.

  • Dirigir el análisis de la causa raíz de problemas (RCA) y brindar soluciones.

  • Diseñar, desarrollar y desplegar soluciones de datos de calidad, óptimos en costos (tiempo de procesamiento y uso del clúster), seguras y escalables (batch) de acuerdo con la arquitectura unificada de datos (On Premise / Cloud) y estrategias de implementación (To be y transitorias).

  • Desarrollar soluciones utilizando las buenas prácticas, frameworks, componentes y herramientas estandarizadas

  • Co-crear lineamientos, buenas prácticas, estándares de desarrollo y asesoría técnica de las soluciones

  • Demostrar liderazgo técnico y resolver temas complejos de ingeniería de datos, referidos a la programación y procesamiento de datos, en el Data lake On Premise o Lakehouse Cloud.

  • Realizar presentaciones sobre estado de avance del proyecto a nivel de jefaturas y a nivel gerencial.

  • Migración de procesos a Cloud Azure

  • Procesos ETL (Datafactory, Databricks, data flow)

  • Desarrollo sobre plataformas Spark ( Databricks, hadoop, Azure,Stream Analytics)

  • Generación de pipelines de datos

  • Implementar automatizaciones y componentes reutilizables que permita estandarizar las prácticas de desarrollo y construcción de soluciones.

  • Definición de almacenamiento Cloud (Storage Account)

  • Analizar y optimizar procesos en producción que presenten un deterioro en su rendimiento y uso inadecuado de los recursos computacionales con el fin de mantener la estabilidad de la plataforma, y de esta manera recoger las lecciones aprendidas y compartir buenas prácticas


Conocimientos requeridos

  • Python (Pyspark) o Scala como APIs de Spark - Avanzado (indispensable)

  • Experiencia en servicios de data - Cloud Computing (Suscripcion, RG, IAM, Service Principal, Servicios IaaS, PaaS, SaaS)

  • Databricks: Notebooks, Repos, Data Explorer

  • Cluster Managment, Workflows (Jobs, DLTs), Unit Catalog

  • Manejo de Delta Lake (Schemas, Tables, Permissions, Versioning, Optimizing, Vacuuming, Cloning, Streaming Live)

  • Data Factory - Pipelines, Triggers, Actitivies, Linked Services, Datasets, DataFlow, Integration Runtime

  • Big Data - avanzado: Arquitecturas, proyectos y frameworks con BigData

  • Data Lake, HDFS, Hadoop, Hive, Impala, Spark, Shell/Linux

  • Tipos de datos: JSON, Parquet, AVRO

  • Usa y propone buenas prácticas y estándares de desarrollo con Spark

  • Tuning y optimización de procesos con Spark

  • Shell scripting (deseable)

  • Manejo de SQL / PLSQL - Avanzado

  • Conocimiento y experiencia en el ciclo de desarrollo y despliegue de modelos de ML - Deseable


¿Qué te ofrecemos?

  • Pago de Bonos por Desempeño.

  • Flex time.

  • Plan de Salud para Colaboradores

  • Oportunidades de desarrollo

Solicitar ahora el puesto de trabajo