
Zapraszamy na trzecie spotkanie osób pracujących przy projektach wykorzystujących Data Science / Machine Learning / Big Data / Artificial Intelligence. Będziemy rozmawiać m.in o algorytmach, statystyce, Pythonie, R, Javie, Scali, Sparku. Celem wydarzenia jest wymiana wiedzy i doświadczeń. Jeśli zajmujesz się tym także hobbystycznie, to również jesteś mile widziany(a) :)
HARMONOGRAM:
18:00 Kacper Łukawski - "Crowdsourcing, czyli jak uczyć się na błędach"
18:50 Konrad Łyda - "Pracuj mądrze, nie ciężko - automatyzacja procesów przetwarzania danych i uczenia maszynowego"
19:30 Łukasz Prażmo - "Obraz wart tysiąca słów - korzyści z analiz danych na mapach"
20:10 - integracja przy chodnych napojach ;)
UWAGA, NOWE MIEJSCE SPOTKANIA:
➡ Wydział Humanistyczny UMCS, Główna Aula w starym Humaniku ( Wydział Filozofii i Socjologii, Plac MC Skłodowskiej 4). Główna aula na wprost od wejścia.
PRELEGENCI I OPISY PREZENTACJI:
Kacper Łukawski
Data Engineer/Tech Lead w Codete. Aktualnie zaangażowany głównie w projekty z zakresu Big Data i wewnętrzne projekty badawcze w dziedzinie uczenia maszynowego. Entuzjasta stosowania metod związanych z "data science" w różnych branżach.
Opis prezentacji:
Poetykietowane zbiory danych o wysokiej jakości są niewątpliwie Świętym Graalem większości projektów "Data Science", a te ogólnodostępne niekoniecznie okazują się być wystarczające do konkretnych zastosowań biznesowych. Crowdsourcing jest banalnie prostą metodą używaną przez gigantów w świecie uczenia maszynowego. Okazuje się jednak, że sam proces zbierania danych z jego wykorzystaniem, nie jest wcale tak prosty, jak mogłoby się początkowo wydawać. W trakcie prezentacji zastanowimy się w jaki sposób podejść do problemu tworzenia użytecznych zbiorów danych w warunkach ograniczonego dostępu do wiedzy ekspertów z danej dziedziny i przy ograniczonym budżecie. Opowiemy również o błędach, niekoniecznie własnych, które mogą zostać popełnione w trakcie całego tego procesu i wynikających z nich lekcjach na przyszłość. Na marginesie poruszymy także temat pewnych mechanizmów psychologicznych, które można wykorzystać, aby zachęcić ludzi do udziału w całym przedsięwzięciu.
Konrad Łyda
Machine Learning Engineer w Asseco Business Solutions, zawodowo parający się głównie zagadnieniami Deep Learningu i Computer Vision. Ex-developer, ex-Project Manager, nawrócony na techniczną ścieżkę. W wolnych chwilach zgłębia szeroki ocean zastosowań Machine/Deep Learningu w różnych dziedzinach życia oraz śpiewa "Roly Poly" ze swoim synem.
Opis prezentacji:
W pewnym momencie cyklu życia naszego projektu analizy danych i budowania modeli uczenia maszynowego musimy wyjść z ciepłego środowiska naszego własnego laptopa i wdrażać nasze rozwiązania w większej skali. Świat dokoła się zmienia więc i nasze rozwiązanie musi być aktualizowane. Czy więc jesteśmy skazani na każdorazowe ręczne przeprowadzanie procesu od nowa, ewentualnie tworzenie własnych wielkich domków z kart randomowych skryptów, które zawalą się w przypadku pierwszego "dziwnego" przypadku na wejściu (patrz: https://xkcd.com/2054/)?
W prezentacji pokażemy, jak w tym drugim przypadku wykorzystać m.in. Airflow do budowania zautomatyzowanych i kontrolowalnych workflow'ów uczenia maszynowego, aby jak najbardziej zminimalizować konieczność ręcznego procesowania informacji i wykonywania powtarzalnych czynności, zachowując przy tym obszerny monitoring całego procesu i odzyskując czas na ciekawsze zajęcia :) Pokażemy jak w kilku prostych krokach uruchomić i tworzyć takie rozwiązanie, które przeprowadzi za nas proces przygotowania danych, treningów, walidacji czy uruchomienia modelu produkcyjnie, a nas powiadomi jedynie wtedy, gdy konieczna będzie nasza interwencja.
Po prezentacji będziesz również uzbrojony/a w wiedzę, jak w kilku protych krokach zwalidować, czy takie rozwiązanie, jak Airflow, jest w stanie rozwiązać Twoje problemy automatyzacji procesów.
Łukasz Prażmo
Od ponad 12 lat zajmuje się zawodowo Systemami Informacji Przestrzennej (GIS). Posiada bogate doświadczenie w realizacji projektów związanych pozyskiwaniem, przetwarzaniem i analizą danych przestrzennych, a także we wdrożeniach systemów klasy GIS. Aktualnie kieruje projektami wdrożeniowymi i analitycznymi w GIS-Expert sp. z o.o.
Opis prezentacji:Wiele zasobów danych posiada atrybut przestrzenny, np. kod pocztowy, adres lub współrzędne. Istnieją również zbiory, które mogą być w łatwy sposób o taki atrybut wzbogacone. Daje nam to całkowicie nowe możliwości analizy i wizualizacji danych w postaci cyfrowych lub tradycyjnych map. Dzięki temu możemy wyciągnąć z nich wnioski, które nie zawsze są oczywiste, jeśli analizujemy te zasoby bez kontekstu przestrzennego.
WSPÓŁPRACA:
Jeśli chcesz wspierać naszą inicjatywę, napisz na adres: [email protected]
Miejsce
Pl. Marii Curie - Skłodowkiej 4, Lublin