Data Science Lublin #3

20 marca 2019, 18:00 (środa)

Zobacz na mapie

To wydarzenie już się skończyło. Zapraszamy na inne ciekawe wydarzenia.
Dołącz do wydarzenia
  Rodzaj Dostępne do Liczba
  Darmowa wejściówka
Wyprzedane Brak wolnych miejsc

Zapraszamy na trzecie spotkanie osób pracujących przy projektach wykorzystujących Data Science / Machine Learning / Big Data / Artificial Intelligence. Będziemy rozmawiać m.in o algorytmach, statystyce, Pythonie, R, Javie, Scali, Sparku. Celem wydarzenia jest wymiana wiedzy i doświadczeń. Jeśli zajmujesz się tym także hobbystycznie, to również jesteś mile widziany(a) :)


HARMONOGRAM:

18:00 Kacper Łukawski - "Crowdsourcing, czyli jak uczyć się na błędach"
18:50 Konrad Łyda - "Pracuj mądrze, nie ciężko - automatyzacja procesów przetwarzania danych i uczenia maszynowego"
19:30 Łukasz Prażmo - "Obraz wart tysiąca słów - korzyści z analiz danych na mapach"
20:10 - integracja przy chodnych napojach ;)


UWAGA, NOWE MIEJSCE SPOTKANIA:

➡ Wydział Humanistyczny UMCS, Główna Aula w starym Humaniku ( Wydział Filozofii i Socjologii, Plac MC Skłodowskiej 4). Główna aula na wprost od wejścia.


PRELEGENCI I OPISY PREZENTACJI:

Kacper Łukawski

Data Engineer/Tech Lead w Codete. Aktualnie zaangażowany głównie w projekty z zakresu Big Data i wewnętrzne projekty badawcze w dziedzinie uczenia maszynowego. Entuzjasta stosowania metod związanych z "data science" w różnych branżach.

Opis prezentacji:

Poetykietowane zbiory danych o wysokiej jakości są niewątpliwie Świętym Graalem większości projektów "Data Science", a te ogólnodostępne niekoniecznie okazują się być wystarczające do konkretnych zastosowań biznesowych. Crowdsourcing jest banalnie prostą metodą używaną przez gigantów w świecie uczenia maszynowego. Okazuje się jednak, że sam proces zbierania danych z jego wykorzystaniem, nie jest wcale tak prosty, jak mogłoby się początkowo wydawać. W trakcie prezentacji zastanowimy się w jaki sposób podejść do problemu tworzenia użytecznych zbiorów danych w warunkach ograniczonego dostępu do wiedzy ekspertów z danej dziedziny i przy ograniczonym budżecie. Opowiemy również o błędach, niekoniecznie własnych, które mogą zostać popełnione w trakcie całego tego procesu i wynikających z nich lekcjach na przyszłość. Na marginesie poruszymy także temat pewnych mechanizmów psychologicznych, które można wykorzystać, aby zachęcić ludzi do udziału w całym przedsięwzięciu.

Konrad Łyda

Machine Learning Engineer w Asseco Business Solutions, zawodowo parający się głównie zagadnieniami Deep Learningu i Computer Vision. Ex-developer, ex-Project Manager, nawrócony na techniczną ścieżkę. W wolnych chwilach zgłębia szeroki ocean zastosowań Machine/Deep Learningu w różnych dziedzinach życia oraz śpiewa "Roly Poly" ze swoim synem.

Opis prezentacji:

W pewnym momencie cyklu życia naszego projektu analizy danych i budowania modeli uczenia maszynowego musimy wyjść z ciepłego środowiska naszego własnego laptopa i wdrażać nasze rozwiązania w większej skali. Świat dokoła się zmienia więc i nasze rozwiązanie musi być aktualizowane. Czy więc jesteśmy skazani na każdorazowe ręczne przeprowadzanie procesu od nowa, ewentualnie tworzenie własnych wielkich domków z kart randomowych skryptów, które zawalą się w przypadku pierwszego "dziwnego" przypadku na wejściu (patrz: https://xkcd.com/2054/)?

W prezentacji pokażemy, jak w tym drugim przypadku wykorzystać m.in. Airflow do budowania zautomatyzowanych i kontrolowalnych workflow'ów uczenia maszynowego, aby jak najbardziej zminimalizować konieczność ręcznego procesowania informacji i wykonywania powtarzalnych czynności, zachowując przy tym obszerny monitoring całego procesu i odzyskując czas na ciekawsze zajęcia :) Pokażemy jak w kilku prostych krokach uruchomić i tworzyć takie rozwiązanie, które przeprowadzi za nas proces przygotowania danych, treningów, walidacji czy uruchomienia modelu produkcyjnie, a nas powiadomi jedynie wtedy, gdy konieczna będzie nasza interwencja.

Po prezentacji będziesz również uzbrojony/a w wiedzę, jak w kilku protych krokach zwalidować, czy takie rozwiązanie, jak Airflow, jest w stanie rozwiązać Twoje problemy automatyzacji procesów.

Łukasz Prażmo

Od ponad 12 lat zajmuje się zawodowo Systemami Informacji Przestrzennej (GIS). Posiada bogate doświadczenie w realizacji projektów związanych pozyskiwaniem, przetwarzaniem i analizą danych przestrzennych, a także we wdrożeniach systemów klasy GIS. Aktualnie kieruje projektami wdrożeniowymi i analitycznymi w GIS-Expert sp. z o.o.
Opis prezentacji:Wiele zasobów danych posiada atrybut przestrzenny, np. kod pocztowy, adres lub współrzędne. Istnieją również zbiory, które mogą być w łatwy sposób o taki atrybut wzbogacone. Daje nam to całkowicie nowe możliwości analizy i wizualizacji danych w postaci cyfrowych lub tradycyjnych map. Dzięki temu możemy wyciągnąć z nich wnioski, które nie zawsze są oczywiste, jeśli analizujemy te zasoby bez kontekstu przestrzennego.


WSPÓŁPRACA:

Jeśli chcesz wspierać naszą inicjatywę, napisz na adres: patryk.omiotek@gmail.com

Zobacz również:

szkolenia szkolenia w Lublinie Branża IT Data Science Języki Programowania Networking Programista Programowanie wydarzenia Lublin lublin