Engenheiro de Dados Pleno

Remote: 
Full Remote
Contract: 
Work from: 

Offer summary

Qualifications:

Knowledge of Airflow and Docker is essential., Experience with relational databases (PostgreSQL) and NoSQL (Elasticsearch) is required., Familiarity with Shell Scripts and Linux is necessary., A degree in Information Systems, Engineering, Computer Science, or related fields is preferred..

Key responsabilities:

  • Create and maintain data ingestion pipelines.
  • Process, automate, and optimize processes involving large volumes of data.
  • Participate in discussions about new architectures and technologies.
  • Monitor performance and suggest infrastructure changes.

Datahub Big Data & Analytics logo
Datahub Big Data & Analytics Information Technology & Services SME https://www.datahub.com.br/
51 - 200 Employees
See all jobs

Job description

JOB DESCRIPTION

A DATAHUB é uma empresa líder no mercado de Dados e Informações, focada na união de tecnologia avançada, inovação e novas fontes de dados. Para conectar os dados e sistemas utilizamos o Big Data Analytics, Aprendizagem de Máquina (AI) e Conhecimento de Clientes (KYC).

Com uma gestão de dados responsável, a DATAHUB se compromete em tornar os negócios dos clientes mais seguros e eficientes, especialmente nas áreas de Marketing, Vendas, Risco e Compliance. A empresa possui uma incomparável capacidade de atualização, com mais de 50 milhões de dados por mês e suas bases de dados seguem as normas da LGPD.

Com mais de 60 milhões de empresas e mais de 258MM de consumidores em sua base, a Datahub oferece soluções customizadas com agilidade, além de um atendimento consultivo e pós-vendas ativo e presente.


RESPONSIBILITIES AND ASSIGNMENTS

  • Criar e manter pipelines de ingestão de dados;  
  • Processar, automatizar e otimizar processos envolvendo grandes volumes de dados; 
  •  Participar de discussões e iniciativas sobre novas arquiteturas e tecnologias; 
  •  Monitorar performance e sugerir mudanças de infraestrutura; 
  • Projetar, construir e manter os repositórios de dados e/ou Data Lake; 
  • Integrar diferentes fontes de dados, garantindo a segurança e a alta disponibilidade. 

REQUIREMENTS AND QUALIFICATIONS

  •   Conhecimento em Airflow e Docker; 
  • Conhecimento de bancos de dados relacionais (PostgrSQL) e NoSql (Elasticsearch); 
  • Conhecimento em Schell Scripts e Linux; 
  • Perfil colaborativo, trabalho em equipe; 
  • Familiaridade com Git; 
  • Graduações: Sistemas de informação, Engenharia ou Ciências da computação ou afins. 



ADDITIONAL INFORMATION

Diferenciais desejáveis:  

  •     Processamento distribuído (ex.: Hadoop em ambientes Cloud – AWS); 
  •    Experiência com tecnologias de Big Data, Spark e ecossistema Hadoop; 



Sobre nós

Fundada em 2004, a Datahub ocupa uma forte posição no mercado de dados e informações unindo tecnologia de ponta, inovação e novas fontes de dados. Tudo isso para criar novas formas de resolver desafios complexos apresentados pelos clientes de maneira clara e coerente.


Operamos sobre o Big Data Brasil, apoiando empresas nacionais e dos Estados Unidos em tomadas de decisões estratégicas, com informações atualizadas de mais de 48 milhões de empresas e seus potenciais consumidores.


Fazemos parte do grupo Nuvini, uma holding de empresas de SaaS B2B que compra empresas de SaaS e potencializa o crescimento.


Required profile

Experience

Industry :
Information Technology & Services
Spoken language(s):
Portuguese
Check out the description to know which languages are mandatory.

Other Skills

  • Teamwork
  • Collaboration

Related jobs