Informacje ogólne

Od lat przedsiębiorstwa przechodzą od niewielkich ilości danych i analizy opartej wyłącznie o wiedzę ekspercką, często skrzywioną spojrzeniem osoby analizującej problem, na decyzje oparte na informacji i wiedzy płynących z gromadzonych danych.


Nowocześni liderzy powinni być świadomi możliwości, które niesie ze sobą poprawna praca z danymi oraz analiza i automatyzacja związanych z nimi procesów. W szczególności powinni patrzeć ponad sloganami i rozumieć, w jaki sposób technologie i metody analityczne mogą przynieść wartość przedsiębiorstwu. Rozwijając własne zdolności analityczne zyskują lepszą zdolność monitorowania postępów prac i podejmowania decyzji w oparciu o kwantyfikowane miary sukcesu.

Adresaci

Studia podyplomowe Data Science i Big Data w zarządzaniu przeznaczone są dla osób ze szczebla średniej i wyższej kadry managerskiej pełniącej swoje funkcje m.in. (ale nie wyłącznie) w obszarach marketingu, finansów, IT, zarządzania łańcuchem produkcji, HR, zarządzanie strategiczne.

Program studiów przygotowany został też z myślą o potrzebach kierowników projektów, którzy chcą pogłębić wiedzę dziedzinową związaną z Big Data i Data Science i dzięki temu zyskać szerszą perspektywę oraz lepiej rozumieć kontekst prowadzonych projektów. Zdobyta wiedza i umiejętności pozwolą lepiej rozumieć, z jakimi problemami mierzą się członkowie zespołu projektowego oraz być lepiej przygotowanym do rozmów z osobami technicznymi.

Cel studiów

Studia podyplomowe Data Science i Big Data w zarządzaniu mają na celu dostarczenie kadrze managerskiej całościowego spojrzenia na ogół zagadnień związanych z Big Data i Data Science.

Poza zdobyciem wiedzy w zakresie specyfiki dużych danych, integracji i gromadzenia danych z różnych źródeł oraz architektury rozwiązań klasy Big Data uczestnicy rozwiną także praktyczne kompetencje z obszaru kierowania działem, projektem lub przedsiębiorstwem w organizacjach korzystających z rozwiązań Big Data oraz osiągnięć Data Science.

W trakcie studiów nauczysz się:
  • skutecznie przeprowadzić transformację przedsiębiorstwa/działu w stronę przedsiębiorstwa opartego o analizę danych
  • skutecznie prowadzić projekty o charakterze BigData i Data Science
  • organizować i zarządzać infrastrukturą Big Data i Data Science
  • wykorzystać wyniki analizy danych w zarządzaniu przedsiębiorstwem
W trakcie studiów poznasz:
  • w jaki sposób Big Data i Data Science zmieniają współczesne organizacje
  • metody statystyczne i ich zastosowania w analizie danych
  • zastosowanie metod Data Science w analizie danych, proces analizy danych, jego etapy
  • różnice w podejściach opartych na statystyce i na metodach uczenia maszynowego
  • sposoby konstrukcji zespołów Data Science / Big Data, ich relacje do innych zespołów i rolę managera w zespole Data Science
  • kryteria sukcesu projektu Data Science / Big Data
  • strategie zarządzania danymi oraz zagrożenia związane z ich bezpieczeństwem
  • wybrane dostępne na rynku narzędzia do wizualizacji danych i narzędzia Business Intelligence i ich zastosowanie w przedsiębiorstwie
  • rozwiązania i platformy technologiczne związane z Big Data
Po ukończeniu studiów będziesz potrafił:
  • rozpoznawać czy na podstawie zestawu danych można uzyskać odpowiedź na zadane pytanie
  • posługiwać się narzędziami do analizy danych
  • posługiwać się wybranymi narzędziami do wizualizacji danych i narzędziami Business Intelligence
  • zaprezentować wyniki analizy danych
  • szacować koszty związane z realizacja projektu Big Data i utrzymaniu infrastruktury Big Data
  • ustanowić politykę zarządzania i bezpieczeństwa danych

Program

Wprowadzenia do tematyki wdrażania i realizacji projektów Big Data / Data Science w organizacji.

Wprowadzenie do tematyki analizy danych (data science) i uczenia maszynowego (machine learning) w przedsiębiorstwie.

Wprowadzenie do technologii analizy dużych danych (big data) w przedsiębiorstwie.

Metody opisu struktury zbiorowości jednowymiarowych.

Metody losowego i nielosowego doboru próby.

Zmienna losowa.

Teoria estymacji.

Testowanie hipotez statystycznych.

Metody analizy współzależności zjawisk.

Funkcja regresji liniowej.

Funkcja regresji logistycznej.

Sztuczna inteligencja (AI) vs Machine learning.

Praca z danymi - przygotowanie.

Modele nadzorowane - wprowadzenie do różnych klas modeli, porównanie ich użyteczności do różnych zagadnień, wady, zalety, przykłady użycia.

Tuning i interpretowalność modeli.

Ewaluacja modeli - wyjaśnienie czym i po co są zbiory treningowy, walidacyjny, testowy, do czego służy walidacja krzyżowa (cross-validation) oraz jak oceniać modele.

Modele nienadzorowane - wprowadzenie do różnych klas modeli, porównanie ich użyteczności do różnych zagadnień, wady, zalety, przykłady użycia.

Metody redukcji wymiarów i reprezentacji danych.

Text mining.

Wprowadzenie do Deep Learning.

Deep learning w NLP.

Wizja komputerowa (Computer Vision) z wykorzystaniem Deep learningu - case study, jak zbudować prostą wyszukiwarkę/rekomender podobnych obrazów.

Podstawy hurtowni danych

Wizualizacja danych

Charakterystyka narzędzi BI

Cechy wyróżniające wybrane narzędzia BI

Warsztat Power BI

Podstawowe pojęcia i definicje w obszarze.

Rola danych, jako strategicznego zasobu organizacji.

Rola i wyzwania dla CDO.

Metodyka strategicznego podejścia do zarządzania danymi.

Definiowanie i wdrażanie Strategii Danych.

Wielowymiarowa perspektywa Data Management / Data Governance w organizacji.

Modele oceny zaawansowania analitycznego organizacji.

Modele oceny dojrzałości Data Management / Data Governance.

Wprowadzenie do DAMA oraz innych frameworków Data Management / Data Governance.

Architektury danych oraz Modelowanie danych.

Metodyka zarządzania i realizacji projektów i programów w obszarze danych.

Charakterystyka rozwiązań Hurtowni Danych/BI, Data Lake, Big Data i Data Science.

Struktura organizacyjna oraz kluczowe role w obszarze Data Management.

Zarządzanie zmianą kulturową w obszarze danych w organizacji.

Budowa systemów do przetwarzania dużych zbiorów danych

Planowanie infrastruktury

Architektura lambda i kappa

Skalowalność systemów

Przechowywanie danych

SQL i NoSQL w świecie Big Data

Modelowanie danych

Sposoby przetwarzania danych

Zastosowania czasu rzeczywistego

Przetwarzanie strumieniowe danych

Integracja systemów

Przetwarzanie i składowanie danych w chmurze publicznej

Strategia Multicloud

Integracja środowiska on premise z środowiskiem chmury publicznej

Rozwiązania chmurowe niezależne od dostawcy infrastruktury

Środowisko pracy i wprowadzenie do programowania.

Podstawy programowania w języku Python (w tym: typy danych, instrukcję sterujące funkcje).

Przetwarzanie danych tabelarycznych w bibliotece pandas (selekcja danych względem zadanych kryteriów, transformacje danych, agregowanie).

Wczytywanie i zapis danych w formatach typowych dla programu Excel.

Podstawowe instrukcje do wizualizacji danych.

Połączenie z bazą danych SQL z poziomu Python.

Wykorzystanie uczenia maszynowego w języku Python (uczenie i ewaluacja modelu predykcyjnego).

Zapisywanie, wczytywanie i zastosowanie zbudowanych modeli.

Podstawowe usługi ochrony informacji

Wybrane techniki ochrony informacji

Podstawy prawne ochrony informacji

Modele bezpieczeństwa systemów

Polityka bezpieczeństwa

Metody oceny bezpieczeństwa systemów

Ochrona informacji w bazach danych

Przetwarzanie danych osobowych i wrażliwych

Blockchain jako rozproszona baza danych Podstawowe usługi ochrony informacji

Całkowita liczba godzin dydaktycznych: 216* (razem z zaliczeniami).

* jedna godzina dydaktyczna = 45 minut

ORGANIZACJA ZAJĘĆ

Studia trwają dwa semestry.

Zajęcia odbywają się raz lub dwa razy w miesiącu:

  • sobota 8.45 – 15.45
  • niedziela 8.45 – 15.45

Wykładowcy

Proponowane studia prowadzone są zarówno przez ścisłych ekspertów w zakresie Data Science, jak i osoby z biznesu, które miały okazję przecierać szlaki we wdrażaniu strategii Data Science oraz Big Data w Polsce.

Takie połączenie ma na celu dostarczenie kadrze managerskiej holistycznego spojrzenia na wyzwania związane z tymi zagadnieniami, w tym z kluczowej perspektywy biznesowej oraz praktycznych, twardych kompetencji wykorzystywanych w kierowaniu działem lub przedsiębiorstwem. W szczególności, celem jest przekazanie wiedzy w zakresie specyfiki dużych danych, integracji i gromadzenia danych z różnych źródeł oraz architektury rozwiązań klasy Big Data, podanej w sposób przystępny dla osób nieposiadających wykształcenia technicznego, czy statystycznego. Studia mają na celu pomóc zarówno tym, którzy są już w procesie transformacji, jak i tym, którzy chcieliby poznać co ich potencjalnie czeka w przyszłości, jeśli ich organizacja zdecyduje się pójść tą drogą.

Pasjonat danych, zarządzania nimi, rozwijania kultury organizacyjnej w oparciu o dane oraz budowania na nich wartości biznesowej. Posiada kilkunastoletnie doświadczenie w tworzeniu i wdrażaniu rozwiązań w obszarze Data Management i Data Governance. Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej. Od początku kariery zajmował się Hurtowniami Danych i BI, a następnie również MDM, Big Data, Data Science oraz Analityką Biznesową. Pracował jako konsultant m. in. dla globalnych i regionalnych korporacji z branży farmaceutycznej, telekomunikacyjnej i handlowej. Obecnie w TVN S.A. odpowiedzialny za budowę i wdrażanie strategii danych oraz rozwój ekosystemu analitycznego Big Data i Data Science. Uprzednio również założyciel i redaktor naczelny portalu BI.PL, gościnnie wykładowca na kilku warszawskich uczelniach, trener, główny analityk danych w zespole futbolu amerykańskiego Warsaw Eagles. Hobbystycznie buduje modele analityczne w obszarze sportu, albo wędkuje.

Socjolog i data scientist łączący pracę naukową w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego (ICM) na Uniwersytecie Warszawskim z działalnością doradczą i biznesową. Ma kilkunastoletnie doświadczenie w analizie dużych danych, przede wszystkim zbieranych przez serwisy internetowe i firmy telekomunikacyjne, m.in. zakładał i do 2010 rozwijał dział business intelligence w Gadu-Gadu. Jest współtwórcą Sotrender’a firmy tworzącej narzędzia analityczne do monitoringu i optymalizacji marketingu w mediach społecznościowych w oparciu o dane. Od 2014 roku organizuje comiesięczne spotkania Warsaw Data Science Meetup, które służą wymianie wiedzy i integracji społeczności około 3tys. osób zajmujących się pracą z danymi. Naukowo zajmuje się m.in. badaniem zmian społecznych i gospodarczych związanych z upowszechnieniem technologii informacyjno-komunikacyjnych, a także sposobów korzystania z technologii i zachowań użytkowników. Jest współautorem badań Diagnoza społeczna. Specjalizuje się również w badaniach sieci społecznych, oraz procesów zachodzących w sieciach, takich jak dyfuzja innowacji czy wpływ społeczny. Posiada wieloletnie doświadczenie w doradzaniu jednostkom administracji rządowej i samorządowej, kierował przygotowywaniem kilkunastu opracowań analitycznych i ekspertyz oraz uczestniczył w tworzeniu Strategii i Programów Operacyjnych. Obecnie jest członkiem Rady ds. Cyfryzacji przy Ministrze Cyfryzacji.

Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, gdzie w 2012 roku obronił doktorat z obszaru niezawodności systemów komputerowych. Zakres jego zainteresowań obejmuje szeroko pojęte bezpieczeństwo oraz inżynierię oprogramowania. Bierze udział w projektach systemów transakcyjnych związanych z płatnościami elektronicznymi oraz transportem. Prowadzi szkolenia z zakresu praktycznego stosowania kryptografii w systemach komputerowych. Od 2016 roku jest wykładowcą na pierwszych w Polsce technicznych studiach Big Data realizowanych przez firmę Sages oraz Politechnikę Warszawską.

Absolwent Politechniki Gdańskiej oraz Uniwersytetu Bristolskiego, gdzie obronił doktorat z matematyki stosowanej. Na co dzień łączy umiejętności analityczne i programistyczne jako Data Scientist. Doświadczenie zdobywał oraz prowadził zespoły w działach badań i rozwoju w wielu firmach w branży wysokich technologii, mediów, farmaceutycznych oraz petrochemicznych. Najbardziej interesuje się rozproszonym przetwarzaniem i analizą dużych zbiorów danych wspomagające decyzje w biznesie i w badaniach, oraz automatyzujące procesy w przedsiębiorstwach. Pracował zarówno z technologiami dojrzałymi, jak i nie boi się wyzwań w pracy z najnowszymi rozwiązaniami. Zwolennik pragmatycznego użycia technologii w biznesie. Prelegent na wielu konferencjach poświęconych tematyce Big Data. Trener szkoleń technologicznych z zakresu Big Data współpracujący z Sages. Lead Data Scientist w firmie Sigdelta. Od 2016 roku dzieli się zdobytą wiedzą jako wykładowca na pierwszych w Polsce technicznych studiach Big Data realizowanych przez firmę Sages oraz Politechnikę Warszawską.

Hubert pracuje w firmie Codec jako BI Practice Lead i pomaga klientom zebrać ich dane oraz przekonwertować je w wartościowe informacje. Od lat związany z tematyką szeroko rozumianych rozwiązań Business Intelligence – od integracji, jakości danych, hurtowni danych, po zaawansowane systemy analityczne i raportowe. Realizował projekty dla wielu film w Polsce, Irlandii, UK, czy Szwajcarii. Poza pracą Hubert prowadzi dwie grupy społecznościowe: warszawski oddział Data Community Poland oraz Warsaw Power BI User Group.

Współzałożyciel firmy Pattern Match, gdzie pracuje jako architekt systemów IT opartych o rozwiązania chmurowe. Specjalista od chmury Amazon Web Services (8 certyfikatów, pracuje z nią od 2015 roku), uhonorowany tytułem AWS Community Builder. Na co dzień pracuje z klientami z Polski, Europy Zachodniej (Niemcy, Wielka Brytania, Francja i Holandia) i Stanów Zjednoczonych przy wdrożeniach rozwiązań opartych o rozwiązania chmury publicznej, prywatnej i hybrydowej. Programista i architekt systemów rozproszonych z 12-letnim doświadczeniem (Erlang, Java, Python). Absolwent Politechniki Śląskiej oraz studiów podyplomowych Wyższej Szkoły Bankowej w Poznaniu na kierunku Lean Management.

Absolwentka Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, w roku 2008 otrzymała na tej uczelni tytuł doktora nauk technicznych w zakresie informatyki. Pracowała na stanowisku adiunkta w Zakładzie Systemów Informacyjnych Instytutu Informatyki Politechniki Warszawskiej. Prowadziła także projekty studenckie, prace magisterskie i inżynierskie, wykłady z zakresu eksploracji danych tekstowych. Posiada kilkuletnie doświadczenie w projektowaniu inteligentnych systemów analizy i opisu semantycznego danych nabyte w środowisku komercyjnym i naukowym. Obecnie pracuje na stanowisku ekspert analizy danych (Senior Data Scientist) w firmie Allegro – największym portalu e-commerce w Europie Wschodniej, gdzie zajmuje się metodami analizy danych, także tekstowych i obrazowych. Prowadzi zajęcia na studiach podyplomowych Data Science na Wydziale Elektroniki PW. Ponadto jest autorką ponad 35 publikacji w polskich i międzynarodowych czasopismach i materiałach konferencyjnych. Jej zainteresowania naukowe koncentrują się wokół uczenia maszynowego w praktycznych zastosowaniach, w tym przede wszystkim semantycznego rozumienia danych: tekstu i obrazu, wyszukiwania semantycznego, eksploracji tekstu, uczenia i budowania ontologii.

Pasjonat nowoczesnych technologii, poznawania świata przez pryzmat danych oraz nauczania. Miłośnik ciągłego zdobywania i pogłębiania wiedzy. Studiował matematykę w ramach specjalności data science, informatykę, ekonomię oraz zarządzanie. Obecnie pracuje w wolnych chwilach nad doktoratem dotyczącym zagadnień modelowania rynków finansowych z wykorzystaniem złożonych algorytmów predykcyjnych. Od początku kariery zawodowej związany z branżami data science i computer science. Aktualnie zajmuje się kierowaniem oraz realizacją projektów data science dla sektora finansowego. Wcześniej miał okazję pracować nad rozwojem dużych systemów informatycznych opartych o języki Java, Python i R, technologie big data oraz algorytmy data science.

Absolwent matematyki ze specjalizacją w obszarze statystyki i analizy danych na Politechnice Warszawskiej, gdzie aktualnie pracuje nad doktoratem. W ramach doktoratu prowadzi badania nad metodami głębokiego uczenia w zastosowaniu do analizy tekstu. Współpracował z Instytutem Podstaw Informatyki Polskiej Akademii Nauk w rozwijaniu narzędzi do analizy wydźwięku opinii, a obecnie zajmuje się tworzeniem sieci neuronowych do analizy składniowej tekstu. Lubi dzielić się wiedzą prowadząc zajęcia z tematów z obszaru data science na Politechnice, a także warsztaty i szkolenia komercyjne z uczenia maszynowego i deep learningu.

Absolwent kierunku Metody Ilościowe w Ekonomii i Systemy Informacyjne w Szkole Głównej Handlowej oraz International Management na Tilburg University w Holandii. Edukowanie innych rozpoczął już na 3 roku studiów zostając współautorem podręcznika “Analiza i prognozowanie szeregów czasowych z programem SAS”. W 2014 został laureatem konkursu SAS Student Ambassador i od tego czasu stara się szerzyć wiedzę na temat Data Science, o czym można przeczytać między innymi w rozmowie z Nim w magazynie Manager, wyd. listopad 2014. Swoją przygodę z danymi rozpoczął w firmie Groupon jako Business Intelligence Analyst dla regionu EMEA. Następnie pracował w SAS Institute i odpowiadał za realizację projektów analitycznych i BI, głównie dotyczących zagadnień Customer Intelligence oraz Text Analytics. Obecnie jako Data Scientist w Allegro zajmuje się zagadnieniami dotyczącymi systemów rekomendacji, wektoryzacji języka oraz machine learningu. Aktualnie prowadzi również zajęcia na studiach podyplomowych Data Science na Wydziale Elektroniki Politechniki Warszawskiej.

Dawid jest ekspertem w dziedzinie zaawansowanej analityki danych oraz budowania strategii zarządzania danymi - posiada tytuł Microsoft Most Valuable Professional (MVP) z zakresu Data Platform. Na co dzień pracuje w firmie Onex Group gdzie zarządza konsultingiem w obszarze technologii Microsoft a w szczególności w obszarze danych, m365 oraz Azure. Z zamiłowania doradza dużym organizacjom jako architekt od rozwiązań Business Intelligence, Big Data oraz Data Science. W swoim portfolio posiada międzynarodowe wdrożenia projektów obejmujące rozwiązania w pełni bazujące na chmurze Azure. Można go spotkać na konferencjach branżowych oraz uczestniczyć w szkoleniach, które prowadzi.

Specjalista IT i wykładowca akademicki. Absolwent 5 kierunków (informatyka, kognitywistyka, filozofia, socjologia, resocjalizacja).W obszarze IT specjalista w zakresie chmury obliczeniowej (Azure, AWS), infrastruktury serwerowej, wirtualizacji, konteneryzacji, automatyzacji, skryptowania, DevOps i Scrum/Agile. Certyfikaty: Azure Solutions Architect Expert, Azure DevOps Engineer Expert, Azure AI Engineer, AWS Cloud Practitioner, Certified Kubernetes Administrator, Terraform Certified Associate, AgilePM, PRINCE2, ITIL.W obszarze akademickim – pracownik naukowy kilku warszawskich uczelni, Kierownik Instytutu Badawczego WBST oraz Kierownik Studiów Online WBST. Zainteresowania naukowe: Science Technology Studies (STS), szkolnictwo wyższe i uniwersytet. Publikacje dostępne w Academia.edu, ResearchGate.

Warunki ukończenia studiów

Warunkiem ukończenia jest zaliczenie wszystkich przedmiotów oraz napisanie i obrona pracy końcowej indywidualnej.

W ramach projektu student przedstawia case organizacji, która ma do zrealizowania strategiczny cel biznesowy. Realizacja celu wymaga wykorzystania kompetencji z obszaru danych i analityki, których w danym momencie organizacja nie posiada. Celem może być eliminacja istniejących problemów (optymalizacja działania operacyjnego), albo innowacja.

Student, wykorzystując zdobytą w ramach studiów wiedzę, ma za zadanie przedstawić kompleksową i wielowymiarową analizę sytuacji organizacji oraz zaplanować jej transformację. Student powinien wykazać się zarówno podejściem holistycznym do analizy problemu, zdefiniowaniem odpowiedniej Strategii Danych wspierającej postawiony cel strategiczny, jak i szczegółowym zaplanowaniem jej wdrożenia, transformacji organizacji oraz zaprojektowaniem konkretnych rozwiązań do implementacji (modele predykcyjne, analizy, raporty, wizualizacje, itp.).

Więcej o kierunku