CRODU
Data Engineer (Airflow/Astronomer, dbt, Snowflake)
CRODU, Snowflake, Arizona, United States, 85937
Overview
Forma pracy:
długoterminowo, fulltime, 100% zdalnie . Start:
ASAP . Cześć! Dla naszego klienta z USA poszukujemy
Data Engineera z doświadczeniem z Airflow, dbt i Snowflake . Klient zajmuje się wsparciem firm w transformacjach chmurowych. Przekrój projektów i branż jest szeroki. Prace dotyczą działań w obszarach m.in. migracji, zbierania danych i optymalizacji rozwiązań. Klientowi zależy na długoterminowej współpracy. Obecnie poszukiwani są kolejni specjaliści do projektu z wykorzystaniem Snowflake. Projekt dotyczy branży prawniczej. Klient ma legacy systemy, które migrują do Snowflake. Dodatkowo klient boryka się z jakością danych i procesów w pipelines, dlatego chcieliby zająć się również automatyzacją procesów (np. czyszczenia danych) i dopracowaniem struktury danych. Przy projekcie działa mały zespół po stronie klienta + 2 osoby z ramienia Crodu. Praca w modelu z podziałem onshore-offshore. Dla klienta kluczowe jest bardzo dobra znajomość
Airflow (Astronomer), Snowflake, dbt (w tym materializacji i modeli przyrostowych) oraz biegłość w SQL . Głównym zadaniem będzie tworzenie i utrzymywanie pipeline’ów danych tak, aby dane były dobrze przetwarzane i uporządkowane (bronze/ silver/ gold). Klient kładzie nacisk na jakość danych, testowanie pipeline’ów i optymalizację kosztów chmurowych. Dodatkowo od kandydatów oczekiwana jest znajomość Pythona na poziomie umożliwiającym tworzenie prostych zadań ETL. Projekt prowadzony dla firmy z USA -
zakładamy, że kilka dni w tygodniu będzie wymagona dyspozycyjność w godzinach wieczornych (do godziny 20:00) .
#J-18808-Ljbffr
Forma pracy:
długoterminowo, fulltime, 100% zdalnie . Start:
ASAP . Cześć! Dla naszego klienta z USA poszukujemy
Data Engineera z doświadczeniem z Airflow, dbt i Snowflake . Klient zajmuje się wsparciem firm w transformacjach chmurowych. Przekrój projektów i branż jest szeroki. Prace dotyczą działań w obszarach m.in. migracji, zbierania danych i optymalizacji rozwiązań. Klientowi zależy na długoterminowej współpracy. Obecnie poszukiwani są kolejni specjaliści do projektu z wykorzystaniem Snowflake. Projekt dotyczy branży prawniczej. Klient ma legacy systemy, które migrują do Snowflake. Dodatkowo klient boryka się z jakością danych i procesów w pipelines, dlatego chcieliby zająć się również automatyzacją procesów (np. czyszczenia danych) i dopracowaniem struktury danych. Przy projekcie działa mały zespół po stronie klienta + 2 osoby z ramienia Crodu. Praca w modelu z podziałem onshore-offshore. Dla klienta kluczowe jest bardzo dobra znajomość
Airflow (Astronomer), Snowflake, dbt (w tym materializacji i modeli przyrostowych) oraz biegłość w SQL . Głównym zadaniem będzie tworzenie i utrzymywanie pipeline’ów danych tak, aby dane były dobrze przetwarzane i uporządkowane (bronze/ silver/ gold). Klient kładzie nacisk na jakość danych, testowanie pipeline’ów i optymalizację kosztów chmurowych. Dodatkowo od kandydatów oczekiwana jest znajomość Pythona na poziomie umożliwiającym tworzenie prostych zadań ETL. Projekt prowadzony dla firmy z USA -
zakładamy, że kilka dni w tygodniu będzie wymagona dyspozycyjność w godzinach wieczornych (do godziny 20:00) .
#J-18808-Ljbffr