„Uczenie maszynowe” - kurs 30 000 rubli. z MSU, szkolenie 3 tygodnie. (1 miesiąc), Data: 30 listopada 2023 r.
Miscellanea / / December 02, 2023
Cel programu – zapoznanie uczniów z podstawami uczenia maszynowego.
Czas trwania szkolenia – 72 godziny (30 godzin zajęć stacjonarnych z nauczycielem, 42 godziny samodzielnego studiowania materiałów).
Forma studiów – pełen etat, pół etatu, wieczorowe.
Format zajęć - stacjonarne, dla uczestników z innych miast, w przypadku braku możliwości osobistego przybycia, będzie możliwość połączenia się z lekcją poprzez wideokonferencję.
Koszt edukacji - 30 000 rubli.
Rozpoczęcie zajęć - jesień 2023.
Umowy szkoleniowe zawierane są z osobami fizycznymi i prawnymi.
Rejestracja na kursy odbywa się poprzez e-mail [email protected], za pomocą formularza rejestracyjnego na stronie internetowej.
Możesz skontaktować się z administratorem kursu, Antonem Martyanovem, aby zarejestrować się lub zadać pytania za pośrednictwem WhatsApp lub Telegramu: +79264827721.
Doktor nauk technicznych Stanowisko: profesor Wyższej Szkoły Zarządzania i Innowacji Moskiewskiego Uniwersytetu Państwowego im. M.V. Łomonosowa
Sekcja 1. Wstęp. Przykłady zadań. Metody logiczne: drzewa decyzyjne i lasy decyzyjne.
Metody logiczne: klasyfikacja obiektów w oparciu o proste zasady. Interpretacja i realizacja. Połączenie w kompozycję. Decydujące drzewa. Przypadkowy las.
Sekcja 2. Metody klasyfikacji metrycznej. Metody liniowe, gradient stochastyczny.
Metody metryczne. Klasyfikacja na podstawie podobieństwa. Odległość między obiektami. Metryka. Metoda k-najbliższych sąsiadów. Uogólnienie problemów regresji przy użyciu wygładzania jądra. Modele liniowe. Skalowalność. Możliwość zastosowania w dużych zbiorach danych Metoda gradientu stochastycznego. Możliwość zastosowania do strojenia klasyfikatorów liniowych. Pojęcie regularyzacji. Cechy pracy metodami liniowymi. Metryki jakości klasyfikacji.
Sekcja 3. Maszyna wektorów nośnych (SVM). Regresja logistyczna. Metryki jakości klasyfikacji.
Modele liniowe. Skalowalność. Możliwość zastosowania w dużych zbiorach danych Metoda gradientu stochastycznego. Możliwość zastosowania do strojenia klasyfikatorów liniowych. Pojęcie regularyzacji. Cechy pracy metodami liniowymi.
Sekcja 4. Regresja liniowa. Redukcja wymiarowości, metoda głównych składowych.
Liniowe modele regresji. Ich związek z osobliwym rozkładem macierzy „obiektów-cech”. Zmniejszenie liczby znaków. Podejścia do wyboru cech. Metoda głównych składników. Metody redukcji wymiarowości.
Sekcja 5. Kompozycje algorytmów, wzmacnianie gradientowe. Sieci neuronowe.
Łączenie modeli w kompozycję. Wzajemna korekta błędów modelu. Podstawowe pojęcia i stwierdzenia problemowe związane z kompozycjami. Wzmocnienie gradientowe.
Sieci neuronowe. Wyszukaj nieliniowe powierzchnie dzielące. Wielowarstwowe sieci neuronowe i ich strojenie metodą wstecznej propagacji. Głębokie sieci neuronowe: ich architektura i cechy.
Sekcja 6. Klastrowanie i wizualizacja.
Problemy uczenia się bez nadzoru. Znajdowanie struktury w danych. Problem grupowania polega na znalezieniu grup podobnych obiektów. Zadanie wizualizacyjne to zadanie polegające na odwzorowaniu obiektów w przestrzeń dwu- lub trójwymiarową.
Sekcja 7. Stosowane problemy analizy danych: formuły i metody rozwiązywania.
Uczenie częściowe jako problem pomiędzy uczeniem nadzorowanym a grupowaniem. Problem próbkowania, w którym wartość zmiennej docelowej jest znana tylko dla niektórych obiektów. Różnica między częściowym problemem uczenia się a wcześniej omawianymi sformułowaniami. Podejścia do rozwiązania.
Analiza problemów ze stosowanych obszarów: scoring w bankach, ubezpieczenia, problemy underwritingowe, problemy rozpoznawania wzorców.
Adres
119991, Moskwa, ul. Leninskie Góry, 1, bldg. 51, V piętro, pok. 544 (dziekanat)
Uniwersytet