Logo
CI&T

[Job 25587] Data & AI Manager

CI&T, Brazil, Indiana, United States, 47834

Save Job

Somos especialistas em

transformação tecnológica , unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.

Importante : se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.

Buscamos uma liderança sênior, hands‑on, para integrar nosso time de dados CI&T e liderá‑lo na construção de um ecossistema de dados moderno, orientado a produto e a plataforma. Você atuará diretamente com a média e alta gestão, traduzindo necessidades de negócio em arquiteturas e capacidades reutilizáveis, combinando governança como plataforma, Policy-as-Code, Lakehouse/Event‑Driven e uso de GenAI para acelerar Data Discovery, Data Quality, Compliance e adoção.

Responsabilidades

Liderar e desenvolver o time, promovendo boas práticas de engenharia e cultura de Data as a Product (domain ownership, SLOs/SLIs).

Projetar e implementar pipelines de dados complexos (batch e streaming), com automação, orquestração e otimização de ETL/ELT.

Desenvolver transformações em Python/PySpark e SQL, com testes automatizados (PyTest) e padrões de engenharia.

Assegurar Data Quality de ponta a ponta: testes como código, SLOs/SLIs de datasets, alerta proativo e automação de remediação.

Desenhar o blueprint de plataforma: Metadata‑first, Lineage, Policy-as-Code, Data Catalog/Discovery, Semantic Layer, observabilidade.

Incorporar GenAI no fluxo: copilotos para catálogo e documentação, Sensitive Data Classification (PII), geração assistida de políticas e testes, Change Intelligence (impact summaries).

Colaborar com equipes multidisciplinares (dados, produto, segurança, compliance, negócio), traduzindo requisitos de negócio em soluções técnicas escaláveis e mensuráveis.

Conduzir decisões de arquitetura (Lakehouse, Delta/Parquet, real‑time com Pub/Sub/Kafka, microservices) com foco em escalabilidade, custo e segurança.

Operar mecanismos de Compliance “always‑on” (LGPD/PII): classificação, mascaramento, access control contextual e rastreabilidade ponta a ponta.

Integrar a plataforma com o ecossistema corporativo (APIs, eventos, legados/SaaS), garantindo performance e confiabilidade.

Implantar versionamento, CI/CD e IaC (Git/Azure DevOps) para reprodutibilidade e menor time‑to‑data.

Interagir com a alta gestão, apresentar roadmaps, riscos e resultados; definir e acompanhar OKRs/métricas (adoção, lead time, incidentes, risco residual).

Evangelizar e gerir a mudança para aumentar adoção e valor de negócio.

Experiências necessárias

Experiência sólida construindo pipelines de dados com Python, PyTest, PySpark e SQL.

Experiência sólida em Google Cloud Platform (BigQuery, Dataproc, Dataflow, Pub/Sub, Composer/Airflow, IAM).

Experiência sólida com ferramentas de orquestração (Airflow/Composer, Dagster, Prefect).

Experiência com Databricks em pipelines complexos (Delta Lake, Jobs/Workflows, Unity Catalog).

Vivência com bancos relacionais e não relacionais, incluindo schema design e query optimization.

Experiência em arquitetura de microservices e integrações corporativas (REST/GraphQL, event‑driven).

Proficiência em Git/Azure DevOps para versionamento, CI/CD e colaboração.

Vivência prática em Data Governance operacional: Metadata, Lineage, Data Catalog/Discovery, Data Quality, Security & Access.

Experiência liderando times técnicos e interagindo com executivos, com forte comunicação e influência.

Sólida compreensão de Security, Privacy e Compliance (LGPD) aplicados a dados.

Capacidade de decisões de arquitetura com foco em custo/eficiência (FinOps), escalabilidade e confiabilidade.

Desejável

Graduação em Ciência da Computação, Engenharia de Software, Sistemas de Informação ou áreas correlatas.

Experiência prévia sênior em engenharia de dados e projetos com GCP.

Certificações: Google Professional Data Engineer/Cloud Architect; Databricks (Data Engineer Professional); Airflow/Dagster; segurança.

Ferramentas de Data Quality/Observability (Great Expectations, Soda, Monte Carlo) e de Metadados/Catálogo (DataHub, Collibra, Atlan).

Vivência com Policy-as-Code e governança (OPA, Ranger, BigQuery policies, DLP, mascaramento/tokenização).

Conhecimento de Semantic Layer e métricas (Looker semantic model, dbt/metrics).

Experiência com GenAI/ML em dados (Vertex AI, embeddings/RAG para Discovery, assistentes internos).

Experiência em Data Mesh e estratégias de dados como produto em grandes organizações.

MidSenior

LI‑RW1

Nossos benefícios

Plano de saúde e odontológico;

Vale alimentação e refeição;

Auxílio‑creche;

Licença parental estendida;

Parceria com academias e profissionais de saúde e bem‑estar via Wellhub (Gympass) TotalPass;

Participação nos Lucros e Resultados (PLR);

Seguro de Vida;

Plataforma de aprendizagem contínua (CI&T University);

Clube de descontos;

Plataforma online gratuita dedicada à promoção da saúde física, mental e bem‑estar;

Curso gestante e parentalidade responsável;

Parceria com plataformas de cursos online;

Plataforma para aprendizagem de idiomas;

E muitos outros

Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras

Na CI&T, a inclusão começa no primeiro contato. Se você é pessoa com deficiência,

apresentar o seu laudo durante o processo seletivo.

Assim, podemos garantir o suporte e as adaptações que você merece.

Se ainda não tem o laudo caracterizador, não se preocupe: podemos te apoiar para obtê‑lo.

Temos um time dedicado de Saúde e Bem‑estar, especialistas em inclusão e grupos de afinidade que estarão com você em todas as etapas. Conte com a gente para fazer essa jornada lado a lado.

#J-18808-Ljbffr