Match score not available

Kafka / Real-Time Engineer

unlimited holidays - extra holidays - extra parental leave - long remote period allowed
Remote: 
Full Remote
Experience: 
Mid-level (2-5 years)
Work from: 

Offer summary

Qualifications:

Bachelor's degree in IT/Telecommunications., 4+ years of experience as Big Data Engineer., 2+ years in real-time data projects., Experience with Kafka architecture and tools., Proficiency in Python, Java, or Scala..

Key responsabilities:

  • Provide technical input for project architectures.
  • Develop real-time data processing solutions with Kafka, Flink, Spark, etc.
  • Optimize tool and platform configurations for performance.
  • Monitor data pipelines to ensure stability.
  • Disaster recovery policy implementation for error minimization.
SDG Group logo
SDG Group Large https://www.sdggroup.com/
1001 - 5000 Employees
See more SDG Group offers

Job description

¡Hola Data Lover! 💙

En SDG, no solo tendrás la oportunidad de formar parte de algo increíble, ¡sino que vivirás lo que significa ser un auténtico especialista en Data & Analytics!

¿Estás preparadx para embarcarte en esta emocionante aventura? con nosotrxs, podrás potenciar todas tus habilidades y capacidades analíticas, tecnológicas y de negocio.

¡Es hora de despegar hacia el futuro mediante el poder de los datos! Únete a nosotros y prepárate para romper las reglas y alcanzar tu mejor versión 🚀✨.

Descubre el poder de SDG: líderes globales en la industria del dato 💥📊

En SDG trabajamos para la mitad de las empresas del IBEX-35, pero también en multitud de compañías internacionales. Gracias al boom de la analítica, estamos en un ritmo constante de crecimiento, y desde 1994 nos hemos convertido en el socio de confianza para empresas que desean maximizar todo el potencial de sus datos.

Si buscas formar parte de una compañía 100% especializada en #Data & #Analytics, ¡te estamos esperando!

Requisitos mínimos 👇

  • Estar graduado en Ingeniería Informática o de Telecomunicaciones.
  • Tener al menos 4 años de experiencia en un rol de Big Data Engineer, implementando y productivizando soluciones de captación, ingesta y transformación de datos.
  • Experiencia de al menos 2 años trabajando en proyectos de tratamiento de datos en tiempo real.
  • Experiencia en arquitectura de datos (formato, estructura, particionado, modelado, capas y ciclo de vida) en ambientes Data Lake, Data Lakehouse, Kafka Topics & Partitioning, Schema Registry, etc.
  • Además será importante que tengas experiencia en algunas de las siguientes herramientas:
  • Lenguajes: Python, Java o Scala.
  • Conocimientos sólidos en algunos de los frameworks y herramientas más relevantes en el procesamiento de eventos en streaming: Spark Structured Streaming, Flink, KStreams y/o ksqlDB.
  • Conocimientos sólidos sobre Kafka u otros brokers de mensajería, independientemente de si son desplegados en on premise o en cualquier de sus variantes cloud (Confluent, MSK, Pub/Sub, Azure Event Hubs,...).
  • Experiencia en todos los servicios adyacentes a Kafka como Kafka Connect, Schema Registry, MirrorMaker, clientes CDC...
  • Conocimiento y experiencia en el uso de sistemas de control de versiones (VCS), esencialmente Git.
  • Experiencia en la utilización de al menos una de las tres grandes nubes (AWS, Microsoft Azure o Google Cloud Platform), especialmente en lo relativo a los servicios orientados a procesamiento y disposición de datos.

 

Requisitos valorables 👇

  • Se valora de forma muy positiva tener formación a través de un Máster u otras alternativas que aumenten tus skills, por ejemplo, un Máster en Big Data y Analytics.
  • Hacemos muchas pruebas en local con el uso de contenedores, así que será importante que puedas manejar Docker. También será muy bien valorado conocimientos en Kubernetes.
  • Qué conozcas lenguajes que están tomando relevancia ahora en el mundo data como Rust o Elixir es algo que valoraremos muy positivamente también.
  • Conocimiento sobre DataOps, Observabilidad, patrones de diseño low-code/no-code,...
  • Cómo trabajamos en un entorno global, será un plus que puedas comunicarte en inglés.
  • Nos gusta estar al día en nuevas tecnologías, así que necesitamos personas que quieran estar en continua evolución y que tengan ganas de aprender nuevas tecnologías y probar nuevas herramientas.
  • Para nosotrxs el trabajo en equipo es primordial, por lo que buscamos personas que impulsen ese buen ambiente y las sinergias entre compañerxs y diferentes equipos de trabajo.

 

Acerca del puesto 🚀

SDG Group es una firma de consultoría global focalizada exclusivamente en soluciones de data & analytics, cubriendo con ello toda la cadena de valor del dato, y proporcionando planes de carrera tanto de consultoría como de especialización para todos aquellos que quieran progresar en el mundo del dato. Además, a través de nuestra cultura Smart Work tendrás la posibilidad de definir el modelo de trabajo que más se adapte a ti y a tus necesidades personales, al mismo tiempo que puedas colaborar en iniciativas de gran impacto para clientes punteros en sus respectivas industrias.

Como Streaming data engineer del área de Data Technologies, tu misión será formar parte de equipos multidisciplinares con el objetivo de ayudar a nuestros clientes a abordar iniciativas de datos en entornos de alta complejidad técnica.

Tendrás la posibilidad de utilizar un amplio espectro de tecnologías innovadoras para la construcción de soluciones de gestión de datos bajo diversos paradigmas de procesamiento y modelado, aplicando para ello los principios adecuados en términos de desarrollo y arquitectura.

Asimismo, gracias a nuestro path de especialista tendrás la oportunidad de crecer como ingeniero y/o arquitecto Big Data, contando con herramientas y recursos para tu continuo aprendizaje y crecimiento profesional, al mismo tiempo que te involucras en diversos retos que permitan tanto a SDG Group como a nuestros clientes explotar al máximo el valor de sus datos.

 

Responsabilidades ✍

  • Dar tu opinión técnica sobre los procesos y arquitecturas que se desarrollen para nutrir las conversaciones que se llevan a cabo durante las fases de diseño de los proyectos que llegan a la compañía, teniendo en cuenta factores como escalabilidad, coste, facilidad de implementación, mantenimiento…
  • Participarás en la toma de requerimientos necesarios para desarrollar arquitecturas y pipelines de datos. Como persona dedicada al mundo Real Time, deberás tener en cuenta cómo integrar soluciones en RT con el resto de tecnologías presentes en el día a día.
  • Desarrollarás procesos de tratamiento de datos en streaming integrando información en tiempo real así como ‘at rest’. Estos desarrollos se llevarán a cabo utilizando tecnologías de procesamiento como Kafka Streams, Flink, Spark,…
  • En los proyectos en los que trabajamos la performance es un factor fundamental, por lo que también te tocará optimizar la configuración de las herramientas de procesamiento, así como de las plataformas que gestionan los datos optimizando el throughput, latencias, orden de consumo, delivery guarantees,.... Aunque actualmente apostamos por Kafka como plataforma de Streaming en nuestras arquitecturas, también hemos desarrollado con otros proveedores como Azure Event Hubs o Kinesis.
  • Tendrás que garantizar la estabilidad de los procedimientos monitorizando los pipelines de datos y generando políticas de disaster recovery que minimicen el impacto de posibles errores.

 

INSCRÍBETE AHORA ¡ESTAMOS DESEANDO CONOCERTE!

Required profile

Experience

Level of experience: Mid-level (2-5 years)
Spoken language(s):
Spanish
Check out the description to know which languages are mandatory.

Other Skills

  • Lifelong Learning
  • Verbal Communication Skills
  • Open Mindset

Data Engineer Related jobs