EITC/AI/DLPP Deep Learning with Python and PyTorch to europejski program certyfikacji IT dotyczący podstaw programowania głębokiego uczenia się w języku Python z biblioteką uczenia maszynowego PyTorch.
Program nauczania EITC/AI/DLPP Deep Learning z Python i PyTorch koncentruje się na praktycznych umiejętnościach w głębokim uczeniu Programowanie w języku Python z biblioteką PyTorch zorganizowaną w ramach następującej struktury, obejmującej obszerne materiały dydaktyczne wideo jako odniesienie do tego certyfikatu EITC.
Uczenie głębokie (znane również jako głębokie uczenie strukturalne) jest częścią szerszej rodziny metod uczenia maszynowego opartych na sztucznych sieciach neuronowych z uczeniem reprezentacyjnym. Nauka może być nadzorowana, częściowo nadzorowana lub nienadzorowana. Architektury głębokiego uczenia się, takie jak głębokie sieci neuronowe, sieci głębokich przekonań, nawracające sieci neuronowe i konwolucyjne sieci neuronowe, zostały zastosowane w takich dziedzinach, jak widzenie komputerowe, widzenie maszynowe, rozpoznawanie mowy, przetwarzanie języka naturalnego, rozpoznawanie dźwięku, filtrowanie sieci społecznościowych, tłumaczenie maszynowe, bioinformatyka , projektowania leków, analizy obrazu medycznego, kontroli materiałów i programów gier planszowych, w przypadku których dały wyniki porównywalne, aw niektórych przypadkach przewyższające wyniki ludzkich ekspertów.
Python jest interpretowanym językiem programowania wysokiego poziomu i ogólnego przeznaczenia. Filozofia projektowania Pythona kładzie nacisk na czytelność kodu dzięki znacznemu wykorzystaniu znacznych białych znaków. Jego konstrukcje językowe i podejście obiektowe mają na celu pomóc programistom w pisaniu przejrzystego, logicznego kodu dla małych i dużych projektów. Python jest często opisywany jako język zawierający baterie ze względu na obszerną bibliotekę standardową. Python jest powszechnie używany w projektach sztucznej inteligencji i projektach uczenia maszynowego przy pomocy bibliotek takich jak TensorFlow, Keras, Pytorch i Scikit-learn.
Python jest typowany dynamicznie (wykonuje w czasie wykonywania wiele typowych zachowań programistycznych, które statyczne języki programowania wykonują podczas kompilacji) i zbiera elementy bezużyteczne (z automatycznym zarządzaniem pamięcią). Obsługuje wiele paradygmatów programowania, w tym programowanie strukturalne (szczególnie proceduralne), obiektowe i funkcjonalne. Został stworzony pod koniec lat 1980., a po raz pierwszy wydany w 1991 roku przez Guido van Rossuma jako następca języka programowania ABC. Python 2.0, wydany w 2000 roku, wprowadził nowe funkcje, takie jak rozumienie list i system zbierania śmieci z liczeniem referencji, i został wycofany z wersją 2.7 w 2020 roku. Python 3.0, wydany w 2008 roku, był główną wersją języka, który jest nie jest w pełni kompatybilny z poprzednimi wersjami i większość kodu Pythona 2 nie działa niezmodyfikowana w Pythonie 3. Wraz z końcem życia Pythona 2 (i brakiem wsparcia dla pip w 2021 r.), obsługiwane są tylko Python 3.6.xi nowsze wersje, a starsze wersje obsługujące np. Windows 7 (i stare instalatory nie ograniczone do 64-bitowego systemu Windows).
Interpretery Pythona są obsługiwane w głównych systemach operacyjnych i dostępne dla kilku innych (aw przeszłości obsługiwały znacznie więcej). Globalna społeczność programistów opracowuje i utrzymuje CPython, darmową implementację referencyjną typu open source. Organizacja non-profit, Python Software Foundation, zarządza zasobami związanymi z programowaniem w językach Python i CPython i kieruje nimi.
Od stycznia 2021 roku Python zajmuje trzecie miejsce w indeksie najpopularniejszych języków programowania TIOBE, za C i Javą, wcześniej zajmując drugie miejsce i nagrodę za największą popularność w 2020 roku. Został wybrany językiem programowania roku 2007, 2010 i 2018.
Badanie empiryczne wykazało, że języki skryptowe, takie jak Python, są bardziej produktywne niż języki konwencjonalne, takie jak C i Java, w rozwiązywaniu problemów programistycznych obejmujących manipulowanie ciągami znaków i wyszukiwanie w słowniku. Ustalono, że zużycie pamięci było często „lepsze niż Java, a nie znacznie gorsze niż C lub C ++ ”. Do dużych organizacji używających Pythona należą m.in. Wikipedia, Google, Yahoo !, CERN, NASA, Facebook, Amazon, Instagram.
Poza zastosowaniami sztucznej inteligencji, Python, jako język skryptowy o modułowej architekturze, prostej składni i bogatych narzędziach do przetwarzania tekstu, jest często używany do przetwarzania języka naturalnego.
PyTorch to biblioteka uczenia maszynowego typu open source oparta na bibliotece Torch, używana do zastosowań takich jak wizja komputerowa i przetwarzanie języka naturalnego, opracowana głównie przez laboratorium AI Research (FAIR) Facebooka. Jest to darmowe oprogramowanie o otwartym kodzie źródłowym, wydane na licencji zmodyfikowanego BSD. Chociaż interfejs Pythona jest bardziej dopracowany i jest głównym celem rozwoju, PyTorch ma również interfejs C ++. Na bazie PyTorch zbudowanych jest wiele programów do głębokiego uczenia, w tym Autopilot Tesla, Pyro firmy Uber, Transformatory HuggingFace, PyTorch Lightning i Catalyst.
- Obliczenia tensorowe (takie jak NumPy) z silnym przyspieszeniem za pośrednictwem procesorów graficznych (GPU)
- Głębokie sieci neuronowe zbudowane na taśmowym systemie automatycznego (obliczeniowego) różnicowania
Facebook obsługuje zarówno PyTorch, jak i Convolutional Architecture for Fast Feature Embedding (Caffe2), ale modele zdefiniowane przez te dwie struktury były wzajemnie niekompatybilne. Projekt Open Neural Network Exchange (ONNX) został stworzony przez Facebooka i Microsoft we wrześniu 2017 roku w celu konwersji modeli między frameworkami. Caffe2 został włączony do PyTorch pod koniec marca 2018 roku.
PyTorch definiuje klasę zwaną Tensor (torch.Tensor) do przechowywania i działania na jednorodnych wielowymiarowych prostokątnych tablicach liczb. Tensory PyTorch są podobne do tablic NumPy, ale mogą być również obsługiwane na GPU Nvidia obsługującym CUDA. PyTorch obsługuje różne podtypy tensorów.
Dla Pytorcha jest kilka ważnych modułów. Obejmują one:
- Moduł Autograd: PyTorch wykorzystuje metodę zwaną automatycznym różnicowaniem. Rejestrator rejestruje wykonane operacje, a następnie odtwarza je wstecz, aby obliczyć gradienty. Ta metoda jest szczególnie przydatna w przypadku budowania sieci neuronowych, aby zaoszczędzić czas w jednej epoce dzięki obliczaniu zróżnicowania parametrów podczas przejścia do przodu.
- Moduł Optim: torch.optim to moduł implementujący różne algorytmy optymalizacyjne wykorzystywane do budowy sieci neuronowych. Większość powszechnie używanych metod jest już obsługiwana, więc nie ma potrzeby tworzenia ich od podstaw.
- Moduł nn: PyTorch autograd ułatwia definiowanie grafów obliczeniowych i przyjmowanie gradientów, ale surowy autograd może być nieco zbyt niski do definiowania złożonych sieci neuronowych. Tutaj może pomóc moduł nn.
Aby dokładnie zapoznać się z programem certyfikacji, możesz rozwinąć i przeanalizować poniższą tabelę.
EITC/AI/DLPP Deep Learning with Python and PyTorch Certification Curriculum odwołuje się do ogólnodostępnych materiałów dydaktycznych w formie wideo autorstwa Harrisona Kinsleya. Proces uczenia się podzielony jest na etapy (programy -> lekcje -> tematy) obejmujące odpowiednie części programu nauczania. Zapewnione są również nieograniczone konsultacje z ekspertami dziedzinowymi.
Aby uzyskać szczegółowe informacje na temat procedury certyfikacji, sprawdź Wygodna Subskrypcja.
Pobierz kompletne materiały przygotowawcze do samodzielnego uczenia się w trybie offline dla programu EITC/AI/DLPP Deep Learning with Python i PyTorch w pliku PDF
Materiały przygotowawcze EITC/AI/DLPP – wersja standardowa
Materiały przygotowawcze EITC/AI/DLPP – wersja rozszerzona z pytaniami kontrolnymi