Sposób prowadzenia
Online
Stacjonarne
Online
Stacjonarne
Online
Stacjonarne
Szkolenie prowadzone przez autoryzowanego trenera Microsoft (MCT)
Autoryzowane materiały szkoleniowe dostępne w platformie MS Learn
Kontakt z trenerem po szkoleniu
14 dni
14 dni
21 dni
21 dni
28 dni
28 dni
Gadżet ?
-
-
1 gadżet do wyboru ?
1 gadżet do wyboru ?
Voucher MCP w promocyjnej cenie ?
+459 zł netto ?
Lunch i przerwy kawowe
-
-
-
* Podana cena dotyczy szkolenia otwartego, gdzie minimalna liczba uczestników to 5.
W przypadku grupy zamkniętej, cena i zakres szkolenia ustalamy indywidualnie. Masz pytania? Zadzwoń do nas: 800 080 322.
Zamów voucher Microsoft Certified Professional (MCP)
Jako autoryzowany ośrodek egzaminacyjny Pearson VUE, umożliwiamy zdawanie egzaminów udostępnianych przez firmę Perason VUE.
Zamów voucher Microsoft Certified Professional (MCP)
Jako autoryzowany ośrodek egzaminacyjny Pearson VUE, umożliwiamy zdawanie egzaminów udostępnianych przez firmę Perason VUE.
Szkolenie odbywa się w formule BYOL (Bring Your Own Laptop). Oznacza to, że na szkolenie należy przynieść własnego laptopa lub poinformować nas o braku takiej możliwości.
SPRAWDŹ szczegółowe wymagania techniczne dla naszych szkoleń!
Trener przedstawi, jak interaktywnie eksplorować zawartości przechowywane w plikach oraz zaprezentuje różne techniki ,których można użyć do ładowania danych przy użyciu funkcji Apache Spark w usłudze Azure Synapse Analytics lub Azure Databricks oraz pozyskiwać dane przy użyciu Azure Data Factory lub Azure Synapse. Omówione też zostaną różne sposoby przekształcania danych przy użyciu tych samych technologii, które są używane do pozyskiwania danych. Kończąc kurs, uczestnik będzie wiedział jak ważne jest wdrożenie zabezpieczeń, aby zapewnić ochronę danych w spoczynku lub podczas przesyłania plików. Trener pokaże też w jaki sposób pliki w systemie analitycznym, można wykorzystać do tworzenia pulpitów nawigacyjnych lub budowania modeli predykcyjnych w usłudze Azure Synapse Analytics.
Oprócz odpowiedniego doświadczenia zawodowego osoby, które chcą wziąć udział w tym szkoleniu, powinny mieć wiedzę techniczną w zakresie objętym tematyką szkolenia: Podstawy platformy Azure.
Mile widziane: AZ 900T00 Podstawy platformy Microsoft Azure oraz DP 900T00 Podstawy przetwarzania danych na platformie Microsoft Azure
Moduł 1: Poznanie możliwości obliczeniowych i magazynowania dla procedur roboczych związanych z inżynierią danych
Moduł ten zapewnia przegląd opcji technologii obliczeniowej i przechowywania danych Azure, które są dostępne dla inżynierów danych budujących procedury analityczne. Moduł ten uczy sposobów strukturyzacji Data Lake oraz optymalizacji plików dla procedur eksploracji, strumieniowania i wsadowych. Studenci dowiedzą się jak zorganizować jezioro danych na poziomach przetwarzania danych, jak przekształcać pliki poprzez przetwarzanie wsadowe i strumieniowe. Następnie nauczą się jak tworzyć indeksy na swoich zbiorach danych, takich jak pliki CSV, JSON i Parquet, i używać ich do potencjalnego przyspieszenia zapytań i procedur roboczych.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 2: Projektowanie i implementacja warstwy serwerów
Moduł ten uczy jak projektować i implementować magazyny danych w nowoczesnej hurtowni danych w celu optymalizacji pracy analitycznej. Student dowie się jak zaprojektować wielowymiarowy schemat do przechowywania danych na temat faktów i wymiarów. Następnie dowie się jak zapełnić wolno zmieniające się wymiary poprzez przyrostowe ładowanie danych z Azure Data Factory.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 3: Kwestie dotyczące inżynierii danych dla plików źródłowych
Moduł ten omawia zagadnienia inżynierii danych, które są powszechne podczas ładowania danych do nowoczesnej hurtowni danych analitycznych z plików przechowywanych w Azure Data Lake, a także zrozumienie względów bezpieczeństwa związanych z przechowywaniem plików przechowywanych w jeziorze danych.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 4: Uruchamianie interaktywnych zapytań przy użyciu bezserwerowych puli SQL Azure Synapse Analytics
W tym module studenci dowiedzą się, jak pracować z plikami przechowywanymi w Data Lake i zewnętrznych źródłach plików, poprzez instrukcje T-SQL wykonywane przez bezserwerową pulę SQL w Azure Synapse Analytics. Studenci będą generować zapytania do plików Parquet przechowywanych w Data Lake, jak również do plików CSV przechowywanych w zewnętrznym magazynie danych. Następnie, stworzą grupy bezpieczeństwa Azure Active Directory i wymuszą dostęp do plików w Data Lake poprzez kontrolę dostępu opartą na rolach (Role-Based Access Control - RBAC) i listy kontroli dostępu (Access Control Lists - ACL).
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 5: Eksploracja, transformacja i ładowanie danych do Hurtowni Danych przy użyciu Apache Spark
Moduł ten uczy, jak eksplorować dane przechowywane w Data Lake, przekształcać dane i ładować dane do relacyjnego magazynu danych. Student poznaje pliki Parquet i JSON oraz techniki zapytań i transformacji plików JSON o strukturze hierarchicznej. Następnie student wykorzysta Apache Spark do załadowania danych do hurtowni danych i połączenia danych Parquet w Data Lake z danymi w dedykowanej puli SQL.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 6: Eksploracja i transformacja danych w Azure Databricks
Moduł ten uczy, jak używać różnych metod Apache Spark DataFrame do eksploracji i transformacji danych w Azure Databricks. Studenci nauczą się jak wykonywać standardowe metody DataFrame do eksploracji i transformacji danych. Dowiedzą się również, jak wykonywać bardziej zaawansowane zadania, takie jak usuwanie duplikatów danych, manipulowanie wartościami daty/czasu, zmianami nazw kolumn i agregowaniem danych.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 7: Wprowadzanie i ładowanie danych do hurtowni danych
Moduł ten uczy studentów jak wprowadzać dane do hurtowni danych za pomocą skryptów T- SQL oraz strumieni integracyjnych Synapse Analytics. Student dowie się jak ładować dane do dedykowanych puli SQL Synapse za pomocą PolyBase i COPY z wykorzystaniem T-SQL. Dowie się również jak wykorzystać zarządzanie obciążeniem wraz z aktywnością Copy w potoku Azure Synapse do ładowania danych w skali petabajtowej.
Teoria
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 8: Przekształcanie danych za pomocą Azure Data Factory lub Azure Synapse Pipelines
Moduł ten uczy studentów jak budować strumienie integracji danych w celu pobierania danych z wielu źródeł, przekształcania danych przy użyciu mapowania przepływów danych i wykonywania przepływu danych do jednego lub więcej źródeł danych.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 9: Orkiestracja przepływu i transformacji danych w Azure Synapse Pipelines
W tym module dowiesz się, jak tworzyć połączone usługi oraz orkiestrację przepływu i transformacji danych przy użyciu notebooków w Azure Synapse Pipelines.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 10: Optymalizacja wydajności zapytań dzięki dedykowanym pulom SQL w Azure Synapse
W tym module studenci poznają strategie optymalizacji przechowywania i przetwarzania danych podczas korzystania z dedykowanych pul SQL w Azure Synapse Analytics. Student będzie wiedział, jak korzystać z funkcji deweloperskich, takich jak okienkowanie i funkcje HyperLogLog, stosować najlepsze praktyki ładowania danych oraz optymalizować i poprawiać wydajność zapytań.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 11: Analiza i optymalizacja przechowywania w hurtowni danych
W tym module studenci dowiedzą się jak analizować i optymalizować przechowywanie danych w dedykowanych pulach SQL Azure Synapse. Studenci poznają techniki pozwalające zrozumieć wykorzystanie przestrzeni tabel oraz szczegóły dotyczące przechowywania danych w kolumnach. Następnie student dowie się jak porównać wymagania dotyczące przechowywania danych pomiędzy identycznymi tabelami, które używają różnych typów danych. Wreszcie, student będzie obserwował wpływ widoków zmaterializowanych na wykonywanie złożonych zapytań oraz dowie się, jak uniknąć rozległego rejestrowania poprzez optymalizację operacji usuwania danych.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 12: Obsługa hybrydowego transakcyjnego przetwarzania analitycznego (Hybrid Transactional Analytical Processing - HTAP) za pomocą Azure Synapse Link
W tym module, studenci dowiedzą się jak Azure Synapse Link umożliwia bezproblemowe połączenie konta Azure Cosmos DB z przestrzenią roboczą Synapse. Student zrozumie jak włączyć i skonfigurować Synapse Link, a następnie jak wykonywać zapytania do magazynu analitycznego Azure Cosmos DB używając Apache Spark i SQL serverless.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 13: Bezpieczeństwo end-to-end z Azure Synapse Analytics
W tym module studenci dowiedzą się, jak zabezpieczyć przestrzeń roboczą Synapse Analytics i jej infrastrukturę wspierającą. Student będzie obserwował administratora SQL Active Directory, zarządzał regułami zapory IP, zarządzał sekretami z Azure Key Vault i uzyskiwał dostęp do tych sekretów poprzez usługę powiązaną z Key Vault i działania potokowe. Student będzie rozumiał jak zaimplementować bezpieczeństwo na poziomie kolumn, wierszy oraz dynamiczne maskowanie danych przy użyciu dedykowanych pul SQL.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 14: Przetwarzanie strumieniowe w czasie rzeczywistym z wykorzystaniem Stream Analytics
W tym module studenci dowiedzą się, jak przetwarzać dane strumieniowe za pomocą Azure Stream Analytics. Będą wprowadzać dane telemetryczne pojazdów do Event Hubs, a następnie przetwarzać te dane w czasie rzeczywistym, używając różnych funkcji okienkowania w Azure Stream Analytics. Następnie, wyślą dane do Azure Synapse Analytics. Wreszcie, dowiedzą się, jak skalować zadanie Stream Analytics, aby zwiększyć przepustowość.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 15: Tworzenie rozwiązań do przetwarzania strumieniowego przy użyciu Event Hubs i Azure Databricks
W tym module studenci dowiedzą się, jak pobierać i przetwarzać dane strumieniowe w skali za pomocą Event Hubs i Spark Structured Streaming w Azure Databricks. Studenci poznają kluczowe cechy i zastosowania Structured Streaming. Student zaimplementuje przesuwane okna do agregacji fragmentów danych oraz zastosuje znak wodny do usuwania starych danych. W końcu, student połączy się z Event Hubs w celu odczytu i zapisu strumieni.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 16: Tworzenie raportów przy użyciu integracji Power BI z Azure Synapase Analytics
W tym module student dowie się, jak zintegrować Power BI z obszarem roboczym Synapse w celu tworzenia raportów w Power BI. Utworzy nowe źródło danych i raport Power BI w Synapse Studio. Następnie dowie się, jak poprawić wydajność zapytań za pomocą widoków zmaterializowanych i buforowania zbioru wyników. Wreszcie, student eksploruje jezioro danych za pomocą bezserwerowych puli SQL i stworzy wizualizacje na podstawie tych danych w Power BI.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Moduł 17: Wykonywanie zintegrowanych procesów uczenia maszynowego w Azure Synapse Analytics
Ten moduł omawia zintegrowane, kompletne doświadczenie Azure Machine Learning i Azure Cognitive Services w Azure Synapse Analytics. Dowiesz się, jak połączyć przestrzeń roboczą Azure Synapse Analytics z przestrzenią roboczą Azure Machine Learning za pomocą usługi połączonej, a następnie uruchomisz zautomatyzowany eksperyment ML, który wykorzystuje dane z tabeli Spark. Dowiesz się również, jak używać wyszkolonych modeli z Azure Machine Learning lub Azure Cognitive Services do wzbogacania danych w tabeli puli SQL, a następnie obsługiwać wyniki predykcji za pomocą Power BI.
Teoria:
Praktyka:
Po ukończeniu tego modułu studenci będą potrafili:
Zadzwoń: 800 080 322
4 d
(Łącznie 32 h lekcyjnych)
Jedna godzina lekcyjna trwa 45 min.
Niektóre szkolenia mogą być zwolnione z opodatkowania podatkiem VAT. Ma to zastosowanie gdy szkolenia mają charakter kształcenia czy przekwalifikowania zawodowego. Szkolenia informatyczne mogą taki warunek spełniać. O szczegóły zapytaj naszego doradcę ds. szkoleń oraz wypełnij oświadczenie.