Help us maintain the quality of our job listings. If you find any issues with this job post, please let us know.
Select the reason you're reporting this job:
SDG Group is a global consulting firm specialized in Data & Analytics. We are committed in unlocking the organizations’ potential and hidden value by offering in-depth analytics expertise that empowers our client´s business model to become successful data-driven enterprises. Innovation is in our DNA. We constantly innovate our value proposition with cutting-edge laboratories and transformational models to provide the ultimate analytics practices and solutions.
SDG Group works on the pillars of a Triple Expertise, incorporating business process skills by domain, with a technological knowledge and a partnership with the most important and innovative software providers. We also add to our portfolio cutting-edge laboratories and the development of advanced analytics & AI technologies.
¿Estás preparadx para embarcarte en esta emocionante aventura? con nosotrxs, podrás potenciar todas tus habilidades y capacidades analÃticas, tecnológicas y de negocio.
¡Es hora de despegar hacia el futuro mediante el poder de los datos! Únete a nosotros y prepárate para romper las reglas y alcanzar tu mejor versión 🚀✨.
Descubre el poder de SDG: lÃderes globales en la industria del dato 💥📊
Si buscas formar parte de una compañÃa 100% especializada en #Data & #Analytics, ¡te estamos esperando!
Requisitos mÃnimos:
Estar graduado en IngenierÃa Informática o de Telecomunicaciones.
Tener al menos 4 años de experiencia en un rol de Big Data Engineer, implementando y productivizando soluciones de captación, ingesta y transformación de datos con herramientas de procesamiento distribuido y/o procesamiento en streaming.
Experiencia en arquitectura de datos (formato, estructura, particionado, modelado, capas y ciclo de vida) en ambientes Data Lake, Data Lakehouse, Kafka Topics & Partitioning, Schema Registry, etc.
Además será importante que tengas experiencia en algunas de las siguientes herramientas:
Lenguajes: Python, Java o Scala.
Herramientas core del entorno de procesamiento en entornos Big Data, especialmente Apache Spark. Además es importante que tengas conocimientos sólidos de HDFS.
Conocimiento de al menos una plataforma de datos con profundidad: Databricks, AWS EMR, AWS Glue, Elastic Search, GCP Dataflow & Dataproc, etc.
Conocimiento en herramientas de orquestación como Apache Airflow, Azure Data Factory, Databricks workflows,...
Conocimiento y experiencia en el uso de sistemas de control de versiones (VCS), esencialmente Git.
Experiencia en la utilización de al menos una de las tres grandes nubes (AWS, Microsoft Azure o Google Cloud Platform), especialmente en lo relativo a los servicios orientados a procesamiento y disposición de datos.
Requisitos valorables:
Nos gusta estar al dÃa en nuevas tecnologÃas, asà que necesitamos personas que quieran estar en continua evolución y que tengan ganas de aprender nuevas tecnologÃas y probar nuevas herramientas.
Para nosotrxs el trabajo en equipo es primordial, por lo que buscamos personas que impulsen ese buen ambiente y las sinergias entre compañerxs y diferentes equipos de trabajo.
Asimismo, gracias a nuestro path de especialista tendrás la oportunidad de crecer como ingeniero y/o arquitecto Big Data, contando con herramientas y recursos para tu continuo aprendizaje y crecimiento profesional, al mismo tiempo que te involucras en diversos retos que permitan tanto a SDG Group como a nuestros clientes explotar al máximo el valor de sus datos.
Somos bastante agnósticos a la tecnologÃa y a la infraestructura en nuestros proyectos, asà que es posible que tengas experiencia proyectos en AWS, Azure, GCP u on-premises, por lo que será importante que no te importe estar cambiando de entorno con frecuencia.