Informacje ogólne

Od lat przedsiębiorstwa przechodzą od niewielkich ilości danych i oparciu o wiedzę ekspercką, często skrzywioną spojrzeniem osoby analizującej problem, na decyzje oparte na informacji i wiedzy z danych.

Nowocześni liderzy powinni być świadomi możliwości, które niesie ze sobą poprawna praca z danymi, ich analiza i automatyzacja związanych z nimi procesów; w szczególności patrzeć ponad sloganami i rozumieć jak technologie i metody analityczne mogą przynieść wartość przedsiębiorstwu. Zdolności analityczne pozwalają też na lepsze zdolności monitorowania postępów prac i podejmowania decyzji w oparciu o kwantyfikowane miary sukcesu.

Adresaci

Studia przeznaczone są dla osób ze szczebla średniej i wyższej kadry managerskiej pełniącej swoje funkcje m.in. (ale nie wyłącznie) w obszarach marketingu, finansów, IT, zarządzania łańcuchem produkcji, HR, zarządzanie strategiczne.

Cel studiów

Celem studiów jest dostarczenie kadrze managerskiej holistycznego spojrzenia na całość zagadnień związanych z Big Data i Data Science oraz praktycznych kompetencji w wykorzystaniu ich w kierowaniu działem lub przedsiębiorstwem, a w szczególności wiedzy w zakresie specyfiki dużych danych, integracji i gromadzenia danych z różnych źródeł oraz architektury rozwiązań klasy Big Data.

W trakcie studiów nauczysz się:
  • skutecznie przeprowadzić transformację przedsiębiorstwa/działu w stronę przedsiębiorstwa opartego o analizę danych
  • skutecznie prowadzić projekty o charakterze BigData i Data Science
  • organizować i zarządzać infrastrukturą Big Data i Data Science
  • wykorzystać wyniki analizy danych w zarządzaniu przedsiębiorstwem
W trakcie studiów poznasz:
  • w jaki sposób Big Data i Data Science zmieniają współczesne organizacje
  • metody statystyczne i ich zastosowania w analizie danych
  • zastosowanie metod Data Science w analizie danych, proces analizy danych, jego etapy
  • różnice w podejściach opartych na statystyce i na metodach uczenia maszynowego
  • sposoby konstrukcji zespołów Data Science / Big Data, ich relacje do innych zespołów i rolę managera w zespole Data Science
  • kryteria sukcesu projektu Data Science / Big Data
  • strategie zarządzania danymi oraz zagrożenia związane z ich bezpieczeństwem
  • wybrane dostępne na rynku narzędzia do wizualizacji danych i narzędzia Business Intelligence i ich zastosowanie w przedsiębiorstwie
  • rozwiązania i platformy technologiczne związane z Big Data
Po ukończeniu studiów będziesz potrafił:
  • rozpoznawać czy na podstawie zestawu danych można uzyskać odpowiedź na zadane pytanie
  • posługiwać się narzędziami do analizy danych
  • posługiwać się wybranymi narzędziami do wizualizacji danych i narzędziami Business Intelligence
  • zaprezentować wyniki analizy danych
  • szacować koszty związane z realizacja projektu Big Data i utrzymaniu infrastruktury Big Data
  • ustanowić politykę zarządzania i bezpieczeństwa danych

Program

Wprowadzenia do tematyki wdrażania i realizacji projektów Big Data / Data Science w organizacji.

Wprowadzenie do tematyki analizy danych (data science) i uczenia maszynowego (machine learning) w przedsiębiorstwie.

Wprowadzenie do technologii analizy dużych danych (big data) w przedsiębiorstwie.

Metody opisu struktury zbiorowości jednowymiarowych.

Metody losowego i nielosowego doboru próby.

Zmienna losowa.

Teoria estymacji.

Testowanie hipotez statystycznych.

Metody analizy współzależności zjawisk.

Funkcja regresji liniowej.

Funkcja regresji logistycznej.

Sztuczna inteligencja (AI) vs Machine learning.

Praca z danymi - przygotowanie.

Modele nadzorowane - wprowadzenie do różnych klas modeli, porównanie ich użyteczności do różnych zagadnień, wady, zalety, przykłady użycia.

Tuning i interpretowalność modeli.

Ewaluacja modeli - wyjaśnienie czym i po co są zbiory treningowy, walidacyjny, testowy, do czego służy walidacja krzyżowa (cross-validation) oraz jak oceniać modele.

Modele nienadzorowane - wprowadzenie do różnych klas modeli, porównanie ich użyteczności do różnych zagadnień, wady, zalety, przykłady użycia.

Metody redukcji wymiarów i reprezentacji danych.

Text mining.

Wprowadzenie do Deep Learning.

Deep learning w NLP.

Wizja komputerowa (Computer Vision) z wykorzystaniem Deep learningu - case study, jak zbudować prostą wyszukiwarkę/rekomender podobnych obrazów.

Podstawy hurtowni danych

Wizualizacja danych

Charakterystyka narzędzi BI

Cechy wyróżniające wybrane narzędzia BI

Warsztat Power BI

Podstawowe pojęcia i definicje w obszarze.

Rola danych, jako strategicznego zasobu organizacji.

Rola i wyzwania dla CDO.

Metodyka strategicznego podejścia do zarządzania danymi.

Definiowanie i wdrażanie Strategii Danych.

Wielowymiarowa perspektywa Data Management / Data Governance w organizacji.

Modele oceny zaawansowania analitycznego organizacji.

Modele oceny dojrzałości Data Management / Data Governance.

Wprowadzenie do DAMA oraz innych frameworków Data Management / Data Governance.

Architektury danych oraz Modelowanie danych.

Metodyka zarządzania i realizacji projektów i programów w obszarze danych.

Charakterystyka rozwiązań Hurtowni Danych/BI, Data Lake, Big Data i Data Science.

Struktura organizacyjna oraz kluczowe role w obszarze Data Management.

Zarządzanie zmianą kulturową w obszarze danych w organizacji.

Budowa systemów do przetwarzania dużych zbiorów danych

Planowanie infrastruktury

Architektura lambda i kappa

Skalowalność systemów

Przechowywanie danych

SQL i NoSQL w świecie Big Data

Modelowanie danych

Sposoby przetwarzania danych

Zastosowania czasu rzeczywistego

Przetwarzanie strumieniowe danych

Integracja systemów

Przetwarzanie i składowanie danych w chmurze publicznej

Strategia Multicloud

Integracja środowiska on premise z środowiskiem chmury publicznej

Rozwiązania chmurowe niezależne od dostawcy infrastruktury

Środowisko pracy i wprowadzenie do programowania.

Podstawy programowania w języku Python (w tym: typy danych, instrukcję sterujące funkcje).

Przetwarzanie danych tabelarycznych w bibliotece pandas (selekcja danych względem zadanych kryteriów, transformacje danych, agregowanie).

Wczytywanie i zapis danych w formatach typowych dla programu Excel.

Podstawowe instrukcje do wizualizacji danych.

Połączenie z bazą danych SQL z poziomu Python.

Wykorzystanie uczenia maszynowego w języku Python (uczenie i ewaluacja modelu predykcyjnego).

Zapisywanie, wczytywanie i zastosowanie zbudowanych modeli.

Podstawowe usługi ochrony informacji

Wybrane techniki ochrony informacji

Podstawy prawne ochrony informacji

Modele bezpieczeństwa systemów

Polityka bezpieczeństwa

Metody oceny bezpieczeństwa systemów

Ochrona informacji w bazach danych

Przetwarzanie danych osobowych i wrażliwych

Blockchain jako rozproszona baza danych Podstawowe usługi ochrony informacji

Całkowita liczba godzin dydaktycznych: 216* (razem z zaliczeniami).

* jedna godzina dydaktyczna = 45 minut

ORGANIZACJA ZAJĘĆ

Studia trwają dwa semestry.

Zajęcia odbywają się raz lub dwa razy w miesiącu:

Wykładowcy

Proponowane studia prowadzone są zarówno przez ścisłych ekspertów w zakresie Data Science, jak i osoby z biznesu, które miały okazję przecierać szlaki we wdrażaniu strategii Data Science oraz Big Data w Polsce.

Takie połączenie ma na celu dostarczenie kadrze managerskiej holistycznego spojrzenia na wyzwania związane z tymi zagadnieniami, w tym z kluczowej perspektywy biznesowej oraz praktycznych, twardych kompetencji wykorzystywanych w kierowaniu działem lub przedsiębiorstwem. W szczególności, celem jest przekazanie wiedzy w zakresie specyfiki dużych danych, integracji i gromadzenia danych z różnych źródeł oraz architektury rozwiązań klasy Big Data, podanej w sposób przystępny dla osób nieposiadających wykształcenia technicznego, czy statystycznego. Studia mają na celu pomóc zarówno tym, którzy są już w procesie transformacji, jak i tym, którzy chcieliby poznać co ich potencjalnie czeka w przyszłości, jeśli ich organizacja zdecyduje się pójść tą drogą.

Pasjonat danych, zarządzania nimi, rozwijania kultury organizacyjnej w oparciu o dane oraz budowania na nich wartości biznesowej. Posiada kilkunastoletnie doświadczenie w tworzeniu i wdrażaniu rozwiązań w obszarze Data Management i Data Governance. Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej. Od początku kariery zajmował się Hurtowniami Danych i BI, a następnie również MDM, Big Data, Data Science oraz Analityką Biznesową. Pracował jako konsultant m. in. dla globalnych i regionalnych korporacji z branży farmaceutycznej, telekomunikacyjnej i handlowej. Obecnie w TVN S.A. odpowiedzialny za budowę i wdrażanie strategii danych oraz rozwój ekosystemu analitycznego Big Data i Data Science. Uprzednio również założyciel i redaktor naczelny portalu BI.PL, gościnnie wykładowca na kilku warszawskich uczelniach, trener, główny analityk danych w zespole futbolu amerykańskiego Warsaw Eagles. Hobbystycznie buduje modele analityczne w obszarze sportu, albo wędkuje.

Socjolog i data scientist łączący pracę naukową w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego (ICM) na Uniwersytecie Warszawskim z działalnością doradczą i biznesową. Ma kilkunastoletnie doświadczenie w analizie dużych danych, przede wszystkim zbieranych przez serwisy internetowe i firmy telekomunikacyjne, m.in. zakładał i do 2010 rozwijał dział business intelligence w Gadu-Gadu. Jest współtwórcą Sotrender’a firmy tworzącej narzędzia analityczne do monitoringu i optymalizacji marketingu w mediach społecznościowych w oparciu o dane. Od 2014 roku organizuje comiesięczne spotkania Warsaw Data Science Meetup, które służą wymianie wiedzy i integracji społeczności około 3tys. osób zajmujących się pracą z danymi. Naukowo zajmuje się m.in. badaniem zmian społecznych i gospodarczych związanych z upowszechnieniem technologii informacyjno-komunikacyjnych, a także sposobów korzystania z technologii i zachowań użytkowników. Jest współautorem badań Diagnoza społeczna. Specjalizuje się również w badaniach sieci społecznych, oraz procesów zachodzących w sieciach, takich jak dyfuzja innowacji czy wpływ społeczny. Posiada wieloletnie doświadczenie w doradzaniu jednostkom administracji rządowej i samorządowej, kierował przygotowywaniem kilkunastu opracowań analitycznych i ekspertyz oraz uczestniczył w tworzeniu Strategii i Programów Operacyjnych. Obecnie jest członkiem Rady ds. Cyfryzacji przy Ministrze Cyfryzacji.

Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, gdzie w 2012 roku obronił doktorat z obszaru niezawodności systemów komputerowych. Zakres jego zainteresowań obejmuje szeroko pojęte bezpieczeństwo oraz inżynierię oprogramowania. Bierze udział w projektach systemów transakcyjnych związanych z płatnościami elektronicznymi oraz transportem. Prowadzi szkolenia z zakresu praktycznego stosowania kryptografii w systemach komputerowych. Od 2016 roku jest wykładowcą na pierwszych w Polsce technicznych studiach Big Data realizowanych przez firmę Sages oraz Politechnikę Warszawską.

Absolwent Politechniki Gdańskiej oraz Uniwersytetu Bristolskiego, gdzie obronił doktorat z matematyki stosowanej. Na co dzień łączy umiejętności analityczne i programistyczne jako Data Scientist. Doświadczenie zdobywał oraz prowadził zespoły w działach badań i rozwoju w wielu firmach w branży wysokich technologii, mediów, farmaceutycznych oraz petrochemicznych. Najbardziej interesuje się rozproszonym przetwarzaniem i analizą dużych zbiorów danych wspomagające decyzje w biznesie i w badaniach, oraz automatyzujące procesy w przedsiębiorstwach. Pracował zarówno z technologiami dojrzałymi, jak i nie boi się wyzwań w pracy z najnowszymi rozwiązaniami. Zwolennik pragmatycznego użycia technologii w biznesie. Prelegent na wielu konferencjach poświęconych tematyce Big Data. Trener szkoleń technologicznych z zakresu Big Data współpracujący z Sages. Lead Data Scientist w firmie Sigdelta. Od 2016 roku dzieli się zdobytą wiedzą jako wykładowca na pierwszych w Polsce technicznych studiach Big Data realizowanych przez firmę Sages oraz Politechnikę Warszawską.

Hubert pracuje w firmie Codec jako BI Practice Lead i pomaga klientom zebrać ich dane oraz przekonwertować je w wartościowe informacje. Od lat związany z tematyką szeroko rozumianych rozwiązań Business Intelligence – od integracji, jakości danych, hurtowni danych, po zaawansowane systemy analityczne i raportowe. Realizował projekty dla wielu film w Polsce, Irlandii, UK, czy Szwajcarii. Poza pracą Hubert prowadzi dwie grupy społecznościowe: warszawski oddział Data Community Poland oraz Warsaw Power BI User Group.

Absolwent Politechniki Warszawskiej, gdzie aktualnie pracuje nad doktoratem z zakresu Big Data i przetwarzania języka naturalnego. Swoją praktykę z Big Data rozpoczął na początku 2012 roku w projekcie badawczym realizowanym przez Instytut Podstaw Informatyki Polskiej Akademii Nauk oraz Politechnikę Wrocławską. Do dzisiejszego dnia jest to jedno z największych wdrożeń Big Data w Polsce. W ramach projektu zbudowany został klaster Apache Hadoop, w którym są zbierane i analizowane zasoby polskiego internetu. Jednym z systemów powstałych w ramach powyższego projektu jest pierwsza polska semantyczna wyszukiwarka internetowa. Aktualnie jest członkiem zespołu rozwijającego Otwarty System Antyplagiatowy realizowanego przez Międzyuniwersyteckie Centrum Informatyzacji, które zrzesza czołowe polskie uczelnie. W ramach projektu analizuje duże zbiory danych w celu odnalezienia wszelkich form nadużyć i łamania prawa autorskiego w sprawdzanych pracach. Projekt jest tworzony przy współpracy z Instytutem Podstaw Informatyki Polskiej Akademii Nauk oraz Poznańskiego Centrum Superkomputerowo-Sieciowego będącego jednym z największych centrów obliczeniowych w Polsce. W ramach praktyki zawodowej uczestniczył także w wielu projektach z zakresu Big Data oraz Business Intelligence realizowanych dla wiodących firm z branży bankowości, e-comerce oraz mediów. Jednym z rozwijanych rozwiązań był system trackingowy służący do śledzenia i analizowania aktywności związanej z reklamami zamieszczonymi na popularnych portalach internetowych. Dzieli się zdobytą wiedzą w ramach szkoleń komercyjnych oraz jest wykładowcą na pierwszych w Polsce technicznych studiach Big Data realizowanych przez firmę Sages oraz Politechnikę Warszawską.

Absolwentka Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, w roku 2008 otrzymała na tej uczelni tytuł doktora nauk technicznych w zakresie informatyki. Pracowała na stanowisku adiunkta w Zakładzie Systemów Informacyjnych Instytutu Informatyki Politechniki Warszawskiej. Prowadziła także projekty studenckie, prace magisterskie i inżynierskie, wykłady z zakresu eksploracji danych tekstowych. Posiada kilkuletnie doświadczenie w projektowaniu inteligentnych systemów analizy i opisu semantycznego danych nabyte w środowisku komercyjnym i naukowym. Obecnie pracuje na stanowisku ekspert analizy danych (Senior Data Scientist) w firmie Allegro – największym portalu e-commerce w Europie Wschodniej, gdzie zajmuje się metodami analizy danych, także tekstowych i obrazowych. Prowadzi zajęcia na studiach podyplomowych Data Science na Wydziale Elektroniki PW. Ponadto jest autorką ponad 35 publikacji w polskich i międzynarodowych czasopismach i materiałach konferencyjnych. Jej zainteresowania naukowe koncentrują się wokół uczenia maszynowego w praktycznych zastosowaniach, w tym przede wszystkim semantycznego rozumienia danych: tekstu i obrazu, wyszukiwania semantycznego, eksploracji tekstu, uczenia i budowania ontologii.

Pasjonat nowoczesnych technologii, poznawania świata przez pryzmat danych oraz nauczania. Miłośnik ciągłego zdobywania i pogłębiania wiedzy. Studiował matematykę w ramach specjalności data science, informatykę, ekonomię oraz zarządzanie. Obecnie pracuje w wolnych chwilach nad doktoratem dotyczącym zagadnień modelowania rynków finansowych z wykorzystaniem złożonych algorytmów predykcyjnych. Od początku kariery zawodowej związany z branżami data science i computer science. Aktualnie zajmuje się kierowaniem oraz realizacją projektów data science dla sektora finansowego. Wcześniej miał okazję pracować nad rozwojem dużych systemów informatycznych opartych o języki Java, Python i R, technologie big data oraz algorytmy data science.

Absolwent matematyki ze specjalizacją w obszarze statystyki i analizy danych na Politechnice Warszawskiej, gdzie aktualnie pracuje nad doktoratem. W ramach doktoratu prowadzi badania nad metodami głębokiego uczenia w zastosowaniu do analizy tekstu. Współpracował z Instytutem Podstaw Informatyki Polskiej Akademii Nauk w rozwijaniu narzędzi do analizy wydźwięku opinii, a obecnie zajmuje się tworzeniem sieci neuronowych do analizy składniowej tekstu. Lubi dzielić się wiedzą prowadząc zajęcia z tematów z obszaru data science na Politechnice, a także warsztaty i szkolenia komercyjne z uczenia maszynowego i deep learningu.

Absolwent kierunku Metody Ilościowe w Ekonomii i Systemy Informacyjne w Szkole Głównej Handlowej oraz International Management na Tilburg University w Holandii. Edukowanie innych rozpoczął już na 3 roku studiów zostając współautorem podręcznika “Analiza i prognozowanie szeregów czasowych z programem SAS”. W 2014 został laureatem konkursu SAS Student Ambassador i od tego czasu stara się szerzyć wiedzę na temat Data Science, o czym można przeczytać między innymi w rozmowie z Nim w magazynie Manager, wyd. listopad 2014. Swoją przygodę z danymi rozpoczął w firmie Groupon jako Business Intelligence Analyst dla regionu EMEA. Następnie pracował w SAS Institute i odpowiadał za realizację projektów analitycznych i BI, głównie dotyczących zagadnień Customer Intelligence oraz Text Analytics. Obecnie jako Data Scientist w Allegro zajmuje się zagadnieniami dotyczącymi systemów rekomendacji, wektoryzacji języka oraz machine learningu. Aktualnie prowadzi również zajęcia na studiach podyplomowych Data Science na Wydziale Elektroniki Politechniki Warszawskiej.

Warunki ukończenia studiów

Warunkiem ukończenia jest zaliczenie wszystkich przedmiotów oraz napisanie i obrona pracy końcowej indywidualnej.

W ramach projektu student przedstawia case organizacji, która ma do zrealizowania strategiczny cel biznesowy. Realizacja celu wymaga wykorzystania kompetencji z obszaru danych i analityki, których w danym momencie organizacja nie posiada. Celem może być eliminacja istniejących problemów (optymalizacja działania operacyjnego), albo innowacja.

Student, wykorzystując zdobytą w ramach studiów wiedzę, ma za zadanie przedstawić kompleksową i wielowymiarową analizę sytuacji organizacji oraz zaplanować jej transformację. Student powinien wykazać się zarówno podejściem holistycznym do analizy problemu, zdefiniowaniem odpowiedniej Strategii Danych wspierającej postawiony cel strategiczny, jak i szczegółowym zaplanowaniem jej wdrożenia, transformacji organizacji oraz zaprojektowaniem konkretnych rozwiązań do implementacji (modele predykcyjne, analizy, raporty, wizualizacje, itp.).