Data Science i Big Data w zarządzaniu
Informacje ogólne
Od lat przedsiębiorstwa przechodzą od niewielkich ilości danych i analizy opartej wyłącznie o wiedzę ekspercką, często skrzywioną spojrzeniem osoby analizującej problem, na decyzje oparte na informacji i wiedzy płynących z gromadzonych danych.
Nowocześni liderzy powinni być świadomi możliwości, które niesie ze sobą poprawna praca z danymi oraz analiza i automatyzacja związanych z nimi procesów. W szczególności powinni patrzeć ponad sloganami i rozumieć, w jaki sposób technologie i metody analityczne mogą przynieść wartość przedsiębiorstwu. Rozwijając własne zdolności analityczne zyskują lepszą zdolność monitorowania postępów prac i podejmowania decyzji w oparciu o kwantyfikowane miary sukcesu.
Adresaci
Studia podyplomowe Data Science i Big Data w zarządzaniu przeznaczone są dla osób ze szczebla średniej i wyższej kadry managerskiej pełniącej swoje funkcje m.in. (ale nie wyłącznie) w obszarach marketingu, finansów, IT, zarządzania łańcuchem produkcji, HR, zarządzanie strategiczne.
Program studiów przygotowany został też z myślą o potrzebach kierowników projektów, którzy chcą pogłębić wiedzę dziedzinową związaną z Big Data i Data Science i dzięki temu zyskać szerszą perspektywę oraz lepiej rozumieć kontekst prowadzonych projektów. Zdobyta wiedza i umiejętności pozwolą lepiej rozumieć, z jakimi problemami mierzą się członkowie zespołu projektowego oraz być lepiej przygotowanym do rozmów z osobami technicznymi.
Cel studiów
Studia podyplomowe Data Science i Big Data w zarządzaniu mają na celu dostarczenie kadrze managerskiej całościowego spojrzenia na ogół zagadnień związanych z Big Data i Data Science.
Poza zdobyciem wiedzy w zakresie specyfiki dużych danych, integracji i gromadzenia danych z różnych źródeł oraz architektury rozwiązań klasy Big Data uczestnicy rozwiną także praktyczne kompetencje z obszaru kierowania działem, projektem lub przedsiębiorstwem w organizacjach korzystających z rozwiązań Big Data oraz osiągnięć Data Science.
W trakcie studiów nauczysz się:
- skutecznie przeprowadzić transformację przedsiębiorstwa/działu w stronę przedsiębiorstwa opartego o analizę danych
- skutecznie prowadzić projekty o charakterze BigData i Data Science
- organizować i zarządzać infrastrukturą Big Data i Data Science
- wykorzystać wyniki analizy danych w zarządzaniu przedsiębiorstwem
W trakcie studiów poznasz:
- w jaki sposób Big Data i Data Science zmieniają współczesne organizacje
- metody statystyczne i ich zastosowania w analizie danych
- zastosowanie metod Data Science w analizie danych, proces analizy danych, jego etapy
- różnice w podejściach opartych na statystyce i na metodach uczenia maszynowego
- sposoby konstrukcji zespołów Data Science / Big Data, ich relacje do innych zespołów i rolę managera w zespole Data Science
- kryteria sukcesu projektu Data Science / Big Data
- strategie zarządzania danymi oraz zagrożenia związane z ich bezpieczeństwem
- wybrane dostępne na rynku narzędzia do wizualizacji danych i narzędzia Business Intelligence i ich zastosowanie w przedsiębiorstwie
- rozwiązania i platformy technologiczne związane z Big Data
Po ukończeniu studiów będziesz potrafił:
- rozpoznawać czy na podstawie zestawu danych można uzyskać odpowiedź na zadane pytanie
- posługiwać się narzędziami do analizy danych
- posługiwać się wybranymi narzędziami do wizualizacji danych i narzędziami Business Intelligence
- zaprezentować wyniki analizy danych
- szacować koszty związane z realizacja projektu Big Data i utrzymaniu infrastruktury Big Data
- ustanowić politykę zarządzania i bezpieczeństwa danych
Program
Wprowadzenia do tematyki wdrażania i realizacji projektów Big Data / Data Science w organizacji.
Wprowadzenie do tematyki analizy danych (data science) i uczenia maszynowego (machine learning) w przedsiębiorstwie.
Wprowadzenie do technologii analizy dużych danych (big data) w przedsiębiorstwie.
Metody opisu struktury zbiorowości jednowymiarowych.
Metody losowego i nielosowego doboru próby.
Zmienna losowa.
Teoria estymacji.
Testowanie hipotez statystycznych.
Metody analizy współzależności zjawisk.
Funkcja regresji liniowej.
Funkcja regresji logistycznej.
Sztuczna inteligencja (AI) vs Machine learning.
Praca z danymi - przygotowanie.
Modele nadzorowane - wprowadzenie do różnych klas modeli, porównanie ich użyteczności do różnych zagadnień, wady, zalety, przykłady użycia.
Tuning i interpretowalność modeli.
Ewaluacja modeli - wyjaśnienie czym i po co są zbiory treningowy, walidacyjny, testowy, do czego służy walidacja krzyżowa (cross-validation) oraz jak oceniać modele.
Modele nienadzorowane - wprowadzenie do różnych klas modeli, porównanie ich użyteczności do różnych zagadnień, wady, zalety, przykłady użycia.
Metody redukcji wymiarów i reprezentacji danych.
Text mining.
Wprowadzenie do Deep Learning.
Deep learning w NLP.
Wizja komputerowa (Computer Vision) z wykorzystaniem Deep learningu - case study, jak zbudować prostą wyszukiwarkę/rekomender podobnych obrazów.
Podstawy hurtowni danych
Wizualizacja danych
Charakterystyka narzędzi BI
Cechy wyróżniające wybrane narzędzia BI
Warsztat Power BI
Podstawowe pojęcia i definicje w obszarze.
Rola danych, jako strategicznego zasobu organizacji.
Rola i wyzwania dla CDO.
Metodyka strategicznego podejścia do zarządzania danymi.
Definiowanie i wdrażanie Strategii Danych.
Wielowymiarowa perspektywa Data Management / Data Governance w organizacji.
Modele oceny zaawansowania analitycznego organizacji.
Modele oceny dojrzałości Data Management / Data Governance.
Wprowadzenie do DAMA oraz innych frameworków Data Management / Data Governance.
Architektury danych oraz Modelowanie danych.
Metodyka zarządzania i realizacji projektów i programów w obszarze danych.
Charakterystyka rozwiązań Hurtowni Danych/BI, Data Lake, Big Data i Data Science.
Struktura organizacyjna oraz kluczowe role w obszarze Data Management.
Zarządzanie zmianą kulturową w obszarze danych w organizacji.
Budowa systemów do przetwarzania dużych zbiorów danych
Planowanie infrastruktury
Architektura lambda i kappa
Skalowalność systemów
Przechowywanie danych
SQL i NoSQL w świecie Big Data
Modelowanie danych
Sposoby przetwarzania danych
Zastosowania czasu rzeczywistego
Przetwarzanie strumieniowe danych
Integracja systemów
Przetwarzanie i składowanie danych w chmurze publicznej
Strategia Multicloud
Integracja środowiska on premise z środowiskiem chmury publicznej
Rozwiązania chmurowe niezależne od dostawcy infrastruktury
Środowisko pracy i wprowadzenie do programowania.
Podstawy programowania w języku Python (w tym: typy danych, instrukcję sterujące funkcje).
Przetwarzanie danych tabelarycznych w bibliotece pandas (selekcja danych względem zadanych kryteriów, transformacje danych, agregowanie).
Wczytywanie i zapis danych w formatach typowych dla programu Excel.
Podstawowe instrukcje do wizualizacji danych.
Połączenie z bazą danych SQL z poziomu Python.
Wykorzystanie uczenia maszynowego w języku Python (uczenie i ewaluacja modelu predykcyjnego).
Zapisywanie, wczytywanie i zastosowanie zbudowanych modeli.
Podstawowe usługi ochrony informacji
Wybrane techniki ochrony informacji
Podstawy prawne ochrony informacji
Modele bezpieczeństwa systemów
Polityka bezpieczeństwa
Metody oceny bezpieczeństwa systemów
Ochrona informacji w bazach danych
Przetwarzanie danych osobowych i wrażliwych
Blockchain jako rozproszona baza danych Podstawowe usługi ochrony informacji
Całkowita liczba godzin dydaktycznych: 216* (razem z zaliczeniami).
* jedna godzina dydaktyczna = 45 minut
ORGANIZACJA ZAJĘĆ
Studia trwają dwa semestry.
Zajęcia odbywają się raz lub dwa razy w miesiącu:
- sobota 8.45 – 15.45
- niedziela 8.45 – 15.45
Wykładowcy
Proponowane studia prowadzone są zarówno przez ścisłych ekspertów w zakresie Data Science, jak i osoby z biznesu, które miały okazję przecierać szlaki we wdrażaniu strategii Data Science oraz Big Data w Polsce.
Takie połączenie ma na celu dostarczenie kadrze managerskiej holistycznego spojrzenia na wyzwania związane z tymi zagadnieniami, w tym z kluczowej perspektywy biznesowej oraz praktycznych, twardych kompetencji wykorzystywanych w kierowaniu działem lub przedsiębiorstwem. W szczególności, celem jest przekazanie wiedzy w zakresie specyfiki dużych danych, integracji i gromadzenia danych z różnych źródeł oraz architektury rozwiązań klasy Big Data, podanej w sposób przystępny dla osób nieposiadających wykształcenia technicznego, czy statystycznego. Studia mają na celu pomóc zarówno tym, którzy są już w procesie transformacji, jak i tym, którzy chcieliby poznać co ich potencjalnie czeka w przyszłości, jeśli ich organizacja zdecyduje się pójść tą drogą.
Pasjonat danych, zarządzania nimi, rozwijania kultury organizacyjnej w oparciu o dane oraz budowania na nich wartości biznesowej. Posiada kilkunastoletnie doświadczenie w tworzeniu i wdrażaniu rozwiązań w obszarze Data Management i Data Governance. Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej. Od początku kariery zajmował się Hurtowniami Danych i BI, a następnie również MDM, Big Data, Data Science oraz Analityką Biznesową. Pracował jako konsultant m. in. dla globalnych i regionalnych korporacji z branży farmaceutycznej, telekomunikacyjnej i handlowej. Obecnie w TVN S.A. odpowiedzialny za budowę i wdrażanie strategii danych oraz rozwój ekosystemu analitycznego Big Data i Data Science. Uprzednio również założyciel i redaktor naczelny portalu BI.PL, gościnnie wykładowca na kilku warszawskich uczelniach, trener, główny analityk danych w zespole futbolu amerykańskiego Warsaw Eagles. Hobbystycznie buduje modele analityczne w obszarze sportu, albo wędkuje.
Socjolog i data scientist łączący pracę naukową w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego (ICM) na Uniwersytecie Warszawskim z działalnością doradczą i biznesową. Ma kilkunastoletnie doświadczenie w analizie dużych danych, przede wszystkim zbieranych przez serwisy internetowe i firmy telekomunikacyjne, m.in. zakładał i do 2010 rozwijał dział business intelligence w Gadu-Gadu. Jest współtwórcą Sotrender’a firmy tworzącej narzędzia analityczne do monitoringu i optymalizacji marketingu w mediach społecznościowych w oparciu o dane. Od 2014 roku organizuje comiesięczne spotkania Warsaw Data Science Meetup, które służą wymianie wiedzy i integracji społeczności około 3tys. osób zajmujących się pracą z danymi. Naukowo zajmuje się m.in. badaniem zmian społecznych i gospodarczych związanych z upowszechnieniem technologii informacyjno-komunikacyjnych, a także sposobów korzystania z technologii i zachowań użytkowników. Jest współautorem badań Diagnoza społeczna. Specjalizuje się również w badaniach sieci społecznych, oraz procesów zachodzących w sieciach, takich jak dyfuzja innowacji czy wpływ społeczny. Posiada wieloletnie doświadczenie w doradzaniu jednostkom administracji rządowej i samorządowej, kierował przygotowywaniem kilkunastu opracowań analitycznych i ekspertyz oraz uczestniczył w tworzeniu Strategii i Programów Operacyjnych. Obecnie jest członkiem Rady ds. Cyfryzacji przy Ministrze Cyfryzacji.
Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, gdzie w 2012 roku obronił doktorat z obszaru niezawodności systemów komputerowych. Zakres jego zainteresowań obejmuje szeroko pojęte bezpieczeństwo oraz inżynierię oprogramowania. Bierze udział w projektach systemów transakcyjnych związanych z płatnościami elektronicznymi oraz transportem. Prowadzi szkolenia z zakresu praktycznego stosowania kryptografii w systemach komputerowych. Od 2016 roku jest wykładowcą na pierwszych w Polsce technicznych studiach Big Data realizowanych przez firmę Sages oraz Politechnikę Warszawską.
Absolwent Politechniki Gdańskiej oraz Uniwersytetu Bristolskiego, gdzie obronił doktorat z matematyki stosowanej. Na co dzień łączy umiejętności analityczne i programistyczne jako Data Scientist. Doświadczenie zdobywał oraz prowadził zespoły w działach badań i rozwoju w wielu firmach w branży wysokich technologii, mediów, farmaceutycznych oraz petrochemicznych. Najbardziej interesuje się rozproszonym przetwarzaniem i analizą dużych zbiorów danych wspomagające decyzje w biznesie i w badaniach, oraz automatyzujące procesy w przedsiębiorstwach. Pracował zarówno z technologiami dojrzałymi, jak i nie boi się wyzwań w pracy z najnowszymi rozwiązaniami. Zwolennik pragmatycznego użycia technologii w biznesie. Prelegent na wielu konferencjach poświęconych tematyce Big Data. Trener szkoleń technologicznych z zakresu Big Data współpracujący z Sages. Lead Data Scientist w firmie Sigdelta. Od 2016 roku dzieli się zdobytą wiedzą jako wykładowca na pierwszych w Polsce technicznych studiach Big Data realizowanych przez firmę Sages oraz Politechnikę Warszawską.
Hubert pracuje w firmie Codec jako BI Practice Lead i pomaga klientom zebrać ich dane oraz przekonwertować je w wartościowe informacje. Od lat związany z tematyką szeroko rozumianych rozwiązań Business Intelligence – od integracji, jakości danych, hurtowni danych, po zaawansowane systemy analityczne i raportowe. Realizował projekty dla wielu film w Polsce, Irlandii, UK, czy Szwajcarii. Poza pracą Hubert prowadzi dwie grupy społecznościowe: warszawski oddział Data Community Poland oraz Warsaw Power BI User Group.
Współzałożyciel firmy Pattern Match, gdzie pracuje jako architekt systemów IT opartych o rozwiązania chmurowe. Specjalista od chmury Amazon Web Services (8 certyfikatów, pracuje z nią od 2015 roku), uhonorowany tytułem AWS Community Builder. Na co dzień pracuje z klientami z Polski, Europy Zachodniej (Niemcy, Wielka Brytania, Francja i Holandia) i Stanów Zjednoczonych przy wdrożeniach rozwiązań opartych o rozwiązania chmury publicznej, prywatnej i hybrydowej. Programista i architekt systemów rozproszonych z 12-letnim doświadczeniem (Erlang, Java, Python). Absolwent Politechniki Śląskiej oraz studiów podyplomowych Wyższej Szkoły Bankowej w Poznaniu na kierunku Lean Management.
Absolwentka Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, w roku 2008 otrzymała na tej uczelni tytuł doktora nauk technicznych w zakresie informatyki. Pracowała na stanowisku adiunkta w Zakładzie Systemów Informacyjnych Instytutu Informatyki Politechniki Warszawskiej. Prowadziła także projekty studenckie, prace magisterskie i inżynierskie, wykłady z zakresu eksploracji danych tekstowych. Posiada kilkuletnie doświadczenie w projektowaniu inteligentnych systemów analizy i opisu semantycznego danych nabyte w środowisku komercyjnym i naukowym. Obecnie pracuje na stanowisku ekspert analizy danych (Senior Data Scientist) w firmie Allegro – największym portalu e-commerce w Europie Wschodniej, gdzie zajmuje się metodami analizy danych, także tekstowych i obrazowych. Prowadzi zajęcia na studiach podyplomowych Data Science na Wydziale Elektroniki PW. Ponadto jest autorką ponad 35 publikacji w polskich i międzynarodowych czasopismach i materiałach konferencyjnych. Jej zainteresowania naukowe koncentrują się wokół uczenia maszynowego w praktycznych zastosowaniach, w tym przede wszystkim semantycznego rozumienia danych: tekstu i obrazu, wyszukiwania semantycznego, eksploracji tekstu, uczenia i budowania ontologii.
Pasjonat nowoczesnych technologii, poznawania świata przez pryzmat danych oraz nauczania. Miłośnik ciągłego zdobywania i pogłębiania wiedzy. Studiował matematykę w ramach specjalności data science, informatykę, ekonomię oraz zarządzanie. Obecnie pracuje w wolnych chwilach nad doktoratem dotyczącym zagadnień modelowania rynków finansowych z wykorzystaniem złożonych algorytmów predykcyjnych. Od początku kariery zawodowej związany z branżami data science i computer science. Aktualnie zajmuje się kierowaniem oraz realizacją projektów data science dla sektora finansowego. Wcześniej miał okazję pracować nad rozwojem dużych systemów informatycznych opartych o języki Java, Python i R, technologie big data oraz algorytmy data science.
Absolwent matematyki ze specjalizacją w obszarze statystyki i analizy danych na Politechnice Warszawskiej, gdzie aktualnie pracuje nad doktoratem. W ramach doktoratu prowadzi badania nad metodami głębokiego uczenia w zastosowaniu do analizy tekstu. Współpracował z Instytutem Podstaw Informatyki Polskiej Akademii Nauk w rozwijaniu narzędzi do analizy wydźwięku opinii, a obecnie zajmuje się tworzeniem sieci neuronowych do analizy składniowej tekstu. Lubi dzielić się wiedzą prowadząc zajęcia z tematów z obszaru data science na Politechnice, a także warsztaty i szkolenia komercyjne z uczenia maszynowego i deep learningu.
Absolwent kierunku Metody Ilościowe w Ekonomii i Systemy Informacyjne w Szkole Głównej Handlowej oraz International Management na Tilburg University w Holandii. Edukowanie innych rozpoczął już na 3 roku studiów zostając współautorem podręcznika “Analiza i prognozowanie szeregów czasowych z programem SAS”. W 2014 został laureatem konkursu SAS Student Ambassador i od tego czasu stara się szerzyć wiedzę na temat Data Science, o czym można przeczytać między innymi w rozmowie z Nim w magazynie Manager, wyd. listopad 2014. Swoją przygodę z danymi rozpoczął w firmie Groupon jako Business Intelligence Analyst dla regionu EMEA. Następnie pracował w SAS Institute i odpowiadał za realizację projektów analitycznych i BI, głównie dotyczących zagadnień Customer Intelligence oraz Text Analytics. Obecnie jako Data Scientist w Allegro zajmuje się zagadnieniami dotyczącymi systemów rekomendacji, wektoryzacji języka oraz machine learningu. Aktualnie prowadzi również zajęcia na studiach podyplomowych Data Science na Wydziale Elektroniki Politechniki Warszawskiej.
Dawid jest ekspertem w dziedzinie zaawansowanej analityki danych oraz budowania strategii zarządzania danymi - posiada tytuł Microsoft Most Valuable Professional (MVP) z zakresu Data Platform. Na co dzień pracuje w firmie Onex Group gdzie zarządza konsultingiem w obszarze technologii Microsoft a w szczególności w obszarze danych, m365 oraz Azure. Z zamiłowania doradza dużym organizacjom jako architekt od rozwiązań Business Intelligence, Big Data oraz Data Science. W swoim portfolio posiada międzynarodowe wdrożenia projektów obejmujące rozwiązania w pełni bazujące na chmurze Azure. Można go spotkać na konferencjach branżowych oraz uczestniczyć w szkoleniach, które prowadzi.
Specjalista IT i wykładowca akademicki. Absolwent 5 kierunków (informatyka, kognitywistyka, filozofia, socjologia, resocjalizacja).W obszarze IT specjalista w zakresie chmury obliczeniowej (Azure, AWS), infrastruktury serwerowej, wirtualizacji, konteneryzacji, automatyzacji, skryptowania, DevOps i Scrum/Agile. Certyfikaty: Azure Solutions Architect Expert, Azure DevOps Engineer Expert, Azure AI Engineer, AWS Cloud Practitioner, Certified Kubernetes Administrator, Terraform Certified Associate, AgilePM, PRINCE2, ITIL.W obszarze akademickim – pracownik naukowy kilku warszawskich uczelni, Kierownik Instytutu Badawczego WBST oraz Kierownik Studiów Online WBST. Zainteresowania naukowe: Science Technology Studies (STS), szkolnictwo wyższe i uniwersytet. Publikacje dostępne w Academia.edu, ResearchGate.
Warunki ukończenia studiów
Warunkiem ukończenia jest zaliczenie wszystkich przedmiotów oraz napisanie i obrona pracy końcowej indywidualnej.
W ramach projektu student przedstawia case organizacji, która ma do zrealizowania strategiczny cel biznesowy. Realizacja celu wymaga wykorzystania kompetencji z obszaru danych i analityki, których w danym momencie organizacja nie posiada. Celem może być eliminacja istniejących problemów (optymalizacja działania operacyjnego), albo innowacja.
Student, wykorzystując zdobytą w ramach studiów wiedzę, ma za zadanie przedstawić kompleksową i wielowymiarową analizę sytuacji organizacji oraz zaplanować jej transformację. Student powinien wykazać się zarówno podejściem holistycznym do analizy problemu, zdefiniowaniem odpowiedniej Strategii Danych wspierającej postawiony cel strategiczny, jak i szczegółowym zaplanowaniem jej wdrożenia, transformacji organizacji oraz zaprojektowaniem konkretnych rozwiązań do implementacji (modele predykcyjne, analizy, raporty, wizualizacje, itp.).