Kurs AI w badaniach baukowych - AI i Data Research Masterclass: metodologia, eksperymenty i uczenie maszynowe
Cognity Szkolenia
Online
Od 26 sty 8:45 do 27 sty 16:00
Od 5 535,00 zł
Kurs AI w badaniach baukowych - AI i Data Research Masterclass: metodologia, eksperymenty i uczenie maszynowe, odbędzie się 26-27 stycznia 2026 r.
Więcej informacji dostępne na stronie: https://www.cognity.pl/kurs-ai-w-badaniach-baukowych-ai-i-data-research-masterclass-metodologia-eksperymenty-i-uczenie-maszynowe
Program szkolenia AI w badaniach naukowych
1. Podstawy metodologii badań naukowych
- charakterystyka podejść badawczych: badania jakościowe, ilościowe oraz podejście hybrydowe,
- reguły prawidłowego definiowania celów badania,
- przekład pojęć teoretycznych na mierzalne zmienne oraz formułowanie hipotez,
- metody doboru próby badawczej: losowe i nielosowe,
- konstruowanie harmonogramu i etapów realizacji projektu badawczego.
2. Projektowanie kwestionariuszy i ankiet
- struktura standardowego kwestionariusza badawczego,
- metadane oraz część demograficzna - wybór zmiennych i typowe błędy projektowe,
- poziomy i skale pomiaru:
- skala Likerta (warianty 5-, 7- i 11-punktowe),
- skale semantyczne, porządkowe oraz dychotomiczne,
- typologia pytań ankietowych:
- pytania zamknięte z pojedynczym i wielokrotnym wyborem,
- pytania otwarte - zasady analizy, interpretacji i kodowania odpowiedzi,
- pytania macierzowe oraz rankingowe,
- mechanizmy logiki ankiety (branching), losowa kolejność odpowiedzi, walidacja formularzy,
- przeprowadzanie badania pilotażowego.
3. Ilościowe opracowanie danych jakościowych
- metody kodowania danych: kodowanie otwarte, osiowe i selektywne,
- budowanie kategorii analitycznych oraz ich hierarchii,
- analiza znaczeniowa treści:
- identyfikowanie tematów i schematów wypowiedzi,
- mapy pojęciowe i sieci zależności,
- przekształcanie kategorii jakościowych w zmienne ilościowe,
- obliczanie podstawowych miar statystycznych dla danych zakodowanych.
4. Projektowanie i realizacja eksperymentów statystycznych
- typy eksperymentów: testy A/B, quasi-eksperymenty oraz eksperymenty terenowe,
- formułowanie hipotez oraz wybór zmiennych zależnych i niezależnych,
- schematy eksperymentalne: RCT, DOE, procedury randomizacji,
- projektowanie eksperymentów wieloczynnikowych,
- zaawansowane metody analizy rezultatów:
- ANOVA i ANCOVA,
- modele regresji i ich interpretacja,
- analiza efektów głównych i interakcji,
- analiza mocy statystycznej testów.
5. Analiza dużych zbiorów danych
- organizacja pracy z danymi o dużej skali (powyżej 75 zmiennych i 1 mln obserwacji),
- profilowanie danych, identyfikacja anomalii i standaryzacja,
- optymalizacja zużycia pamięci i przetwarzania danych (np. chunking),
- łączenie, filtrowanie i agregowanie dużych zbiorów danych,
- przygotowanie danych do dalszych etapów modelowania.
6. Metody uczenia maszynowego
- eksploracyjna analiza danych (EDA):
- badanie rozkładów zmiennych (histogramy, KDE),
- identyfikacja braków danych i strategie ich uzupełniania,
- analiza korelacji (Pearson, Spearman, VIF, macierze korelacyjne),
- wykrywanie relacji nieliniowych,
- przygotowanie danych i inżynieria cech:
- obsługa brakujących wartości i obserwacji odstających,
- normalizacja i standaryzacja zmiennych,
- kodowanie danych kategorycznych (one-hot, target encoding),
- tworzenie nowych cech,
- wybór cech:
- metody filtrujące (ANOVA F, test chi-kwadrat),
- metody opakowujące (RFE, Boruta),
- metody wbudowane (Lasso, Ridge, regularyzacja L1/L2),
- redukcja wymiarowości (PCA, ICA, UMAP),
- budowa i trenowanie modeli:
- porównanie algorytmów: drzewo decyzyjne, las losowy, sieci neuronowe (MLP),
- podział danych na zbiory treningowe, testowe i walidacyjne,
- kontrola przeuczenia i regularyzacja,
- ewaluacja i optymalizacja modeli:
- miary jakości (RMSE, MAE, R², accuracy, precision, recall - zależnie od problemu),
- strojenie hiperparametrów (Grid Search, Random Search, optymalizacja bayesowska),
- metody zespołowe: bagging, boosting (XGBoost, LightGBM), stacking,
- walidacja krzyżowa oraz ocena stabilności modeli.