Big Data Engineer

  • Warszawa, Kraków, Poznań, Poland
  • Pełny etat

Opis stanowiska

Szukamy osób z praktycznym doświadczeniem w Big Data (Spark, Hadoop, Hive, Scala/Java), które chcą poszerzyć swoje kompetencje w tej dziedzinie. W Allegro Big Data jest naprawdę Big, a pracując na petabajtach zgromadzonych danych będziesz współtworzyć zaawansowaną analityką danych na potrzeby sprzedających oraz działu komercyjnego. Ten ambitny projekt jest na wczesnym etapie rozwoju - dołączając do nas teraz będziesz mieć okazję aby istotnie wpłynąć na jego sukces!

Dlaczego miał(a)byś z nami pracować?

  • Big Data to u nas nie puste hasło, a rzeczywistość (kilka petabajtów danych) - będziesz pracować na naprawdę dużych zbiorach danych, zarówno na naszej wewnętrznej infrastrukturze Big Data, ale też przy wykorzystaniu narzędzi dostarczanych przez Google.
  • Dołączysz do otwartego na dyskusje i nowe koncepcje zespołu ekspertów nastawionych na  innowacyjne i efektywne rozwiązania.
  • Będziesz miał realny wpływ na końcową funkcjonalność produktu, a także na cały cykl życia swojego kodu: projektujemy, kodujemy, testujemy, wdrażamy i utrzymujemy nasze rozwiązania

Ze swojej strony oferujemy:

  • Używanie najnowszych technologii Open Source (Spark, Druid, Airflow)
  • Wdrażanie rozwiązań w chmurze Google Cloud Platform (Dataflow, BigQuery)
  • Pracę w zespole doświadczonych programistów chętnie dzielących się wiedzą (także publicznie w ramach allegro.tech)
  • Możliwość indywidualnego rozwoju poprzez udział w konferencjach w Polsce i za granicą
  • Dostęp do wielu wewnętrznych szkoleń z zakresu programowania i technologii
  • Dostęp do szkoleń online np. DataCamp, Coursera
  • Nowoczesne biuro i narzędzia pracy
  • Nieformalną atmosferę pracy w profesjonalnym zespole oraz elastyczne godziny pracy
  • Bogaty pakiet świadczeń pozapłacowych w systemie kafeteryjnym – Ty decydujesz z czego korzystasz
  • Zajęcia angielskiego opłacane przez nas

Szukamy inżynierów, którzy:

  • Potrafią i lubią programować w języku Scala lub Java
  • Mają co najmniej podstawowe doświadczenie w ekosystemie Big Data (Spark, Hadoop, Hive)
  • Stosują dobre praktyki (clean code, code review, TDD, DDD, CI)
  • Znają podstawy programowania obiektowego i funkcyjnego
  • Sprawnie poruszają się w systemie z rodziny Unix
  • Posiadają wykształcenie wyższe techniczne lub kończą studia (preferowany kierunek informatyka lub pokrewny)
  • Mają pozytywne nastawienie i umiejętności pracy w zespole

Wyślij nam swoje CV i dołącz do Allegro!

Filmy do obejrzenia

Polityka prywatności