Engenheiro de Dados
Company Description
| Company Description |
Você conhece a LDC? A LDC é uma das principais comercializadoras e processadoras global de produtos agrícolas, com um portfólio diversificado, que abrange toda a cadeia de valor, da originação à distribuição. Com atividades no centro da produção agrícola e de alimentos e guiados pelos nossos fortes valores, por um legado rico e uma visão clara, estamos comprometidos em trabalhar por um futuro seguro e sustentável. Ajudamos a alimentar e vestir cerca de 500 milhões de pessoas todos os anos, originando, processando e transportando aproximadamente 81 milhões de toneladas de produtos. Estruturada como uma organização matricial de 6 regiões geográficas e 10 plataformas, a LDC está ativa em mais de 100 países e emprega cerca de 18.000 pessoas em todo o mundo. Somos guiados por valores que norteiam todos os públicos em nosso trabalho. A ética e integridade fazem parte de todas as relações de negócio, assim como a humildade, comprometimento e diversidade.
Job Description
| Job Description |
- Desenvolver, manter e otimizar pipelines de ETL, garantindo fluxo eficiente de dados e integração entre fontes de dados e plataformas de análise;
- Projetar e implementar soluções robustas em Python / Pyspark, com foco em escalabilidade, desempenho e confiabilidade;
- Trabalhar em parceria com stakeholders de negócio, analistas de dados, cientistas de dados e times de trading para entender suas necessidades, oferecendo soluções técnicas que viabilizem análises eficazes e promovam a alfabetização em dados dos usuários-chave;
- Garantir qualidade e manutenção de código e dados, aplicando princípios de gestão de dados, versionamento de código, testes automatizados e revisões entre pares.
Experience
| Experience |
- Bacharelado ou Mestrado em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas;
- Domínio em programação Python / PySpark e experiência com boas práticas de desenvolvimento de software;
- Conhecimento sólido em processos de ETL, modelagem de dados e data warehousing;
- Conhecimento em princípios de armazenamento de dados, incluindo data lakes e bancos de dados SQL;
- Inglês avançado/fluente;
- Vivência com soluções de visualização de dados (Power BI, Tableau ou similares);
- Experiência com tecnologias e serviços em nuvem, preferencialmente em Azure e Databricks;
- Conhecimento em tecnologias geoespaciais (desejável);
- Experiência prévia em serviços financeiros ou ambientes de trading, especialmente no setor de commodities agrícolas ou supply chain é um diferencial.
Additional Information
| Additional Information |
- Disponibilidade para atuar no modelo híbrido (4x1) em São Paulo-SP.
Você conhece a LDC? A LDC é uma das principais comercializadoras e processadoras global de produtos agrícolas, com um portfólio diversificado, que abrange toda a cadeia de valor, da originação à distribuição. Com atividades no centro da produção agrícola e de alimentos e guiados pelos nossos fortes valores, por um legado rico e uma visão clara, estamos comprometidos em trabalhar por um futuro seguro e sustentável. Ajudamos a alimentar e vestir cerca de 500 milhões de pessoas todos os anos, originando, processando e transportando aproximadamente 81 milhões de toneladas de produtos. Estruturada como uma organização matricial de 6 regiões geográficas e 10 plataformas, a LDC está ativa em mais de 100 países e emprega cerca de 18.000 pessoas em todo o mundo. Somos guiados por valores que norteiam todos os públicos em nosso trabalho. A ética e integridade fazem parte de todas as relações de negócio, assim como a humildade, comprometimento e diversidade.
- Desenvolver, manter e otimizar pipelines de ETL, garantindo fluxo eficiente de dados e integração entre fontes de dados e plataformas de análise;
- Projetar e implementar soluções robustas em Python / Pyspark, com foco em escalabilidade, desempenho e confiabilidade;
- Trabalhar em parceria com stakeholders de negócio, analistas de dados, cientistas de dados e times de trading para entender suas necessidades, oferecendo soluções técnicas que viabilizem análises eficazes e promovam a alfabetização em dados dos usuários-chave;
- Garantir qualidade e manutenção de código e dados, aplicando princípios de gestão de dados, versionamento de código, testes automatizados e revisões entre pares.
- Bacharelado ou Mestrado em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas;
- Domínio em programação Python / PySpark e experiência com boas práticas de desenvolvimento de software;
- Conhecimento sólido em processos de ETL, modelagem de dados e data warehousing;
- Conhecimento em princípios de armazenamento de dados, incluindo data lakes e bancos de dados SQL;
- Inglês avançado/fluente;
- Vivência com soluções de visualização de dados (Power BI, Tableau ou similares);
- Experiência com tecnologias e serviços em nuvem, preferencialmente em Azure e Databricks;
- Conhecimento em tecnologias geoespaciais (desejável);
- Experiência prévia em serviços financeiros ou ambientes de trading, especialmente no setor de commodities agrícolas ou supply chain é um diferencial.
- Disponibilidade para atuar no modelo híbrido (4x1) em São Paulo-SP.