DP-203

Data Engineering on Microsoft Azure (DP-203)

4 dagen
Intermediate
Available in English

Volg de DP-203 training Data Engineering on Microsoft Azure. In deze training leer je over de data-engineeringpatronen en -praktijk met betrekking tot het werken met batch- en realtime analytische oplossingen met behulp van Azure-dataplatformtechnologieën. Je leert de belangrijkste reken- en opslagtechnologieën die worden gebruikt om een ​​analytische oplossing te bouwen. Vervolgens onderzoek je hoe je analytische serverlagen kunt ontwerpen en focus je op overwegingen op het gebied van data-engineering voor het werken met bronbestanden.

Na afronding van deze training kun je onder andere:

Reken- en opslagopties voor data-engineering-workloads in Azure beheren
Interactieve query's uit met serverloze SQL-pools uitvoeren
Gegevens transformeren met Azure Data Factory of Azure Synapse
€ 2.195,-
Bekijk beschikbaarheid
Wat je van ons kunt verwachten
Beste lesmethode
Flexibel inplannen
Kleine klassen
100% Slagingsgarantie
Wat onze klanten vinden
Hulp of advies nodig?
Mail Sofie of laat haar je terugbellen.
info@master-it.nl 040-2323390

Training: Data Engineering on Microsoft Azure (DP-203)

In deze DP-203 cursus leer je over de data engineering patronen en praktijken met betrekking tot het werken met batch en real-time analytische oplossingen met behulp van Azure data platform technologieën. Je begint met het begrijpen van de kern compute en storage technologieën die worden gebruikt om een analytische oplossing te bouwen. Vervolgens verken je hoe je een analytische serverlaag ontwerpt en richt je je op data-engineering overwegingen voor het werken met bronbestanden. Je zult leren hoe je interactief gegevens kunt verkennen die zijn opgeslagen in bestanden in een data lake. Vervolgens leer je de verschillende ingestietechnieken die kunnen worden gebruikt om gegevens te laden met behulp van de Apache Spark-functie in Azure Synapse Analytics of Azure Databricks of hoe je gegevens kunt laden met behulp van Azure Data Factory of Azure Synapse pipelines.

Je leert ook de verschillende manieren waarop ze de data kunnen transformeren met behulp van dezelfde technologieën die worden gebruikt om data op te nemen. Tijdens de cursus leer je hoe je de prestaties van analytische systemen kunt monitoren en analyseren, zodat je de prestaties van gegevensladingen of query’s die tegen de systemen worden uitgevoerd, kunt optimaliseren. Je zult begrijpen hoe belangrijk het is om beveiliging te implementeren om ervoor te zorgen dat de gegevens in rust of tijdens het transport worden beschermd. Vervolgens laat je zien hoe de gegevens in een analytisch systeem kunnen worden gebruikt om dashboards te maken of voorspellende modellen te bouwen in Azure Synapse Analytics.

  • Verkennen van compute en storage opties voor data engineering workloads in Azure
  • De serverlaag ontwerpen en implementeren
  • Overwegingen voor data-engineering begrijpen
  • Interactieve query’s uitvoeren met serverloze SQL-pools
  • Gegevens verkennen, transformeren en laden in het datawarehouse met Apache Spark
  • Gegevens verkennen en transformeren in Azure Databricks
  • Gegevens invoeren en laden in het Data Warehouse
  • Gegevens transformeren met Azure Data Factory of Azure Synapse Pipelines
  • Gegevens integreren vanuit Notebooks met Azure Data Factory of Azure Synapse Pipelines
  • Queryprestaties optimaliseren met speciale SQL-pools in Azure Synapse
  • Gegevensopslag analyseren en optimaliseren
  • Hybride transactionele analytische verwerking (HTAP) ondersteunen met Azure Synapse Link
  • End-to-end beveiliging uitvoeren met Azure Synapse Analytics
  • Real-time stroomverwerking uitvoeren met Stream Analytics
  • Creëer een Stream Processing oplossing met Event Hubs en Azure Databricks
  • Rapporten maken met behulp van Power BI-integratie met Azure Synpase Analytics
  • Geïntegreerde Machine Learning-processen uitvoeren in Azure Synapse Analytics

Kennis van cloud computing en kernbegrippen over data en professionele ervaring met dataoplossingen. Aanbevolen trainingen:

  • DP-900 – Microsoft Azure Data Fundamentals
  • AZ-900 – Microsoft Azure Fundamentals

Data professionals, data architecten en business intelligence professionals die meer willen leren over data engineering en het bouwen van analytische oplossingen met behulp van data platform technologieën die bestaan op Microsoft Azure. Maar ook data analisten en data wetenschappers die werken met analytische oplossingen gebouwd op Microsoft Azure.

    Module 1: Verken compute- en opslagopties voor data-engineering workloadsDeze module biedt een overzicht van de Azure compute en storage technologie opties die beschikbaar zijn voor data engineers die analytische workloads bouwen. Deze module leert manieren om het data lake te structureren en de bestanden te optimaliseren voor exploratie, streaming en batch workloads. Je leert hoe het data lake te organiseren in niveaus van data verfijning terwijl ze bestanden transformeren door middel van batch en stream processing. Daarna leren ze hoe ze indexen kunnen maken op hun datasets, zoals CSV-, JSON- en Parquet-bestanden, en hoe ze deze kunnen gebruiken om query’s en workloads te versnellen.

    • Inleiding tot Azure Synapse Analytics
    • Azure Databricks beschrijven
    • Inleiding tot Azure Data Lake opslag
    • Delta Lake architectuur beschrijven
    • Werken met datastromen met behulp van Azure Stream Analytics

    Lab 1: Verken compute en storage opties voor data engineering workloads

    • Combineer streaming en batchverwerking met één pipeline
    • Het data lake organiseren in bestandsformatieniveaus
    • Datameer opslag indexeren voor query- en werklastversnelling

    Na het voltooien van module 1 ben je in staat:

    • Azure Synapse Analytics te beschrijven
    • Azure Databricks te beschrijven
    • Azure Data Lake opslag te beschrijven
    • De Delta Lake architectuur te beschrijven
    • Azure Stream Analytics te beschrijven

    Module 2: De serverlaag ontwerpen en implementerenDeze module leert hoe je data stores ontwerpt en implementeert in een modern datawarehouse om analytische workloads te optimaliseren. Je leert hoe je een multidimensionaal schema ontwerpt om feit- en dimensiegegevens op te slaan. Vervolgens leer je hoe langzaam veranderende dimensies te vullen door incrementeel data te laden vanuit Azure Data Factory.

    • Ontwerp een multidimensionaal schema om analytische workloads te optimaliseren
    • Codevrije transformatie op schaal met Azure Data Factory
    • Langzaam veranderende dimensies vullen in Azure Synapse Analytics pipelines

    Lab 2: De serverlaag ontwerpen en implementeren

    • Ontwerp een sterschema voor analytische workloads
    • Langzaam veranderende dimensies vullen met Azure Data Factory en gegevensstromen in kaart brengen

    Na het voltooien van module 2 kan je:

    • Een stervormig schema voor analytische workloads te ontwerpen
    • langzaam veranderende dimensies vullen met Azure Data Factory en kan je data flows in kaart brengen

    Module 3: Data engineering-overwegingen voor bronbestandenDeze module onderzoekt data engineering overwegingen die gebruikelijk zijn bij het laden van data in een modern data warehouse analytisch vanuit bestanden die zijn opgeslagen in een Azure Data Lake en het begrijpen van de veiligheidsoverwegingen die gepaard gaan met het opslaan van bestanden die zijn opgeslagen in het data lake.

    • Een modern datawarehouse ontwerpen met Azure Synapse Analytics
    • Een datawarehouse beveiligen in Azure Synapse Analytics

    Lab 3: Overwegingen voor gegevenstechniek

    • Bestanden beheren in een Azure data lake
    • Bestanden beveiligen die zijn opgeslagen in een Azure data lake

    Na het voltooien van module 3 kan je:

    • Een Modern Data Warehouse ontwerpen met behulp van Azure Synapse Analytics
    • Een data warehouse beveiligen in Azure Synapse Analytics

    Module 4: Interactieve query’s uitvoeren met behulp van Azure Synapse Analytics serverloze SQL poolsIn deze module leer je werken met bestanden die zijn opgeslagen in het data lake en externe bestandsbronnen, door middel van T-SQL statements die worden uitgevoerd door een serverloze SQL pool in Azure Synapse Analytics. Je gaat Parquet-bestanden bevragen die zijn opgeslagen in een data lake, evenals CSV-bestanden die zijn opgeslagen in een externe data store. Vervolgens zal je Azure Active Directory beveiligingsgroepen aanmaken en toegang afdwingen tot bestanden in het data lake door middel van Role-Based Access Control (RBAC) en Access Control Lists (ACLs).

    • Verken de mogelijkheden van Azure Synapse serverloze SQL pools
    • Gegevens in het meer opvragen met behulp van Azure Synapse serverloze SQL pools
    • Metagegevensobjecten maken in Azure Synapse serverloze SQL pools
    • Gegevens beveiligen en gebruikers beheren in Azure Synapse serverloze SQL pools

    Lab 4: interactieve query’s uitvoeren met serverloze SQL pools

    • Query’s uitvoeren op parketgegevens met serverloze SQL-pools
    • Externe tabellen maken voor parket- en CSV-bestanden
    • Weergaven maken met serverloze SQL-pools
    • Toegang tot gegevens in een data lake beveiligen bij gebruik van serverless SQL pools
    • Beveiliging van het datameer configureren met RBAC (Role-Based Access Control) en toegangscontrolelijsten

    Na het voltooien van module 4 ben je in staat om:

    • De mogelijkheden van Azure Synapse serverloze SQL pools te begrijpen
    • Gegevens in het meer te bevragen met behulp van Azure Synapse serverloze SQL pools
    • Metagegevensobjecten te creëren in Azure Synapse serverloze SQL pools
    • Gegevens te beveiligen en gebruikers te beheren in Azure Synapse serverloze SQL pools

    Module 5: Gegevens verkennen, transformeren en laden in het datawarehouse met Apache SparkIn deze module leer je gegevens verkennen die zijn opgeslagen in een data lake, de gegevens transformeren en gegevens laden in een relationele data store. Je verkent Parquet en JSON-bestanden en gebruikt technieken om JSON-bestanden met hiërarchische structuren te bevragen en te transformeren. Vervolgens gebruik je Apache Spark om gegevens in het datawarehouse te laden en Parquet-gegevens in het data lake te combineren met gegevens in de speciale SQL-pool.

    • Big data engineering begrijpen met Apache Spark in Azure Synapse Analytics
    • Gegevens invoeren met Apache Spark-notebooks in Azure Synapse Analytics
    • Gegevens transformeren met DataFrames in Apache Spark pools in Azure Synapse Analytics
    • SQL en Apache Spark pools integreren in Azure Synapse Analytics

    Lab 5: Gegevens verkennen, transformeren en laden in het Data Warehouse met Apache Spark

    • Gegevens verkennen in Synapse Studio
    • Gegevens invoeren met Spark-notebooks in Azure Synapse Analytics
    • Gegevens transformeren met DataFrames in Spark pools in Azure Synapse Analytics
    • SQL en Spark pools integreren in Azure Synapse Analytics

    Na het afronden van module 5 ben je in staat: 

    • Big data-engineering met Apache Spark in Azure Synapse Analytics te beschrijven
    • Gegevens in te voeren met Apache Spark-notebooks in Azure Synapse Analytics
    • Gegevens te transformeren met DataFrames in Apache Spark pools in Azure Synapse Analytics
    • SQL en Apache Spark pools integreren in Azure Synapse Analytics

    Module 6: Dataverkenning en -transformatie in Azure DatabricksDeze module leert hoe je verschillende Apache Spark DataFrame methoden kunt gebruiken om data te verkennen en transformeren in Azure Databricks. De student leert hoe standaard DataFrame methodes uit te voeren om data te verkennen en transformeren. Ze leren ook meer geavanceerde taken uit te voeren, zoals het verwijderen van dubbele data, het manipuleren van datum/tijd waarden, het hernoemen van kolommen en het aggregeren van data.

    • Azure Databricks beschrijven
    • Lezen en schrijven van data in Azure Databricks
    • Werken met DataFrames in Azure Databricks
    • Werken met geavanceerde methoden voor DataFrames in Azure Databricks

    Lab 6: Gegevensverkenning en -transformatie in Azure Databricks

    • Gebruik DataFrames in Azure Databricks om gegevens te verkennen en te filteren
    • Cache van een DataFrame voor snellere volgende queries
    • Dubbele data verwijderen
    • Datum/tijd waarden manipuleren
    • DataFrame kolommen verwijderen en hernoemen
    • Data opgeslagen in een DataFrame aggregeren

    Na het afronden van module 6 kan je:

    • Azure Databricks beschrijven
    • Data lezen en schrijven in Azure Databricks
    • Werken met DataFrames in Azure Databricks
    • Werken met DataFrames geavanceerde methoden in Azure Databricks

    Module 7: Gegevens opnemen en laden in het datawarehouseDeze module leert je gegevens opnemen in het datawarehouse via T-SQL scripts en Synapse Analytics integratie pipelines. Je leert hoe gegevens in Synapse dedicated SQL pools kunnen worden geladen met PolyBase en COPY met behulp van T-SQL. Ook leer je hoe je workload management kan gebruiken samen met een Copy activiteit in een Azure Synapse pipeline voor petabyte-schaal data-inname.

    • Best practices voor het laden van gegevens gebruiken in Azure Synapse Analytics
    • Petabyte-schaal ingestion met Azure Data Factory

    Lab 7: Gegevens opnemen en laden in het Data Warehouse

    • Petabyte-schaal ingestion uitvoeren met Azure Synapse Pipelines
    • Gegevens importeren met PolyBase en COPY met T-SQL
    • Best practices voor het laden van gegevens gebruiken in Azure Synapse Analytics

    Na het afronden van module 7 kan je:

    • Best practices voor het laden van gegevens gebruiken in Azure Synapse Analytics
    • Petabyte-schaal ingestion met Azure Data Factory

    Module 8: Gegevens transformeren met Azure Data Factory of Azure Synapse PipelinesDeze module leert je data-integratie pipelines bouwen om data op te nemen uit meerdere databronnen, data te transformeren met behulp van mapping data flowss en data te verplaatsen naar een of meer data sinks.

    • Data-integratie met Azure Data Factory of Azure Synapse Pipelines
    • Codevrije transformatie op schaal met Azure Data Factory of Azure Synapse Pipelines

    Lab 8: Gegevens transformeren met Azure Data Factory of Azure Synapse Pipelines

    • Codevrije transformaties op schaal uitvoeren met Azure Synapse Pipelines
    • Datapijplijn maken om slecht geformatteerde CSV-bestanden te importeren
    • Dataflows in kaart brengen

    Na het voltooien van module 8 ben je in staat om:

    • Data-integratie uit te voeren met Azure Data Factory
    • Codevrije transformatie op schaal uit te voeren met Azure Data Factory

    Module 9: Gegevensbeweging en -transformatie orkestreren in Azure Synapse PipelinesIn deze module leer je hoe je gekoppelde services kunt creëren en dataverplaatsing en -transformatie kunt orkestreren met behulp van notebooks in Azure Synapse Pipelines.

    • Orkestreer data verplaatsing en transformatie in Azure Data Factory

    Lab 9: Orkestreer data beweging en transformatie in Azure Synapse Pipelines

    • Gegevens integreren vanuit notebooks met Azure Data Factory of Azure Synapse Pipelines

    Na het voltooien van module 9 zijn de studenten in staat om:Orkestreer dataverplaatsing en -transformatie in Azure Synapse PipelinesModule 10: Queryprestaties optimaliseren met speciale SQL pools in Azure SynapseIn deze moduele leer je strategieën om dataopslag en -verwerking te optimaliseren bij het gebruik van dedicated SQL pools in Azure Synapse Analytics. Na afloop weet je hoe je ontwikkelfuncties kan gebruiken, zoals windowing en HyperLogLog-functies, best practices voor het laden van gegevens kan gebruiken en de prestaties van query’s kan optimaliseren en verbeteren.

    • De prestaties van data warehouse query’s optimaliseren in Azure Synapse Analytics
    • De functies voor datawarehouse-ontwikkelaars van Azure Synapse Analytics begrijpen

    Lab 10: Queryprestaties optimaliseren met speciale SQL-pools in Azure Synapse

    • Ontwikkelaarsfuncties van Azure Synapse Analytics begrijpen
    • Optimaliseer de prestaties van data warehouse query’s in Azure Synapse Analytics
    • Queryprestaties verbeteren

    Na het voltooien van module 10 ben je in staat:

    • De prestaties van datawarehousequery’s in Azure Synapse Analytics te optimaliseren
    • De functies voor datawarehouse-ontwikkelaars van Azure Synapse Analytics te begrijpen.

    Module 11: Gegevensopslag analyseren en optimaliserenIn deze module leer je de dataopslag van de Azure Synapse dedicated SQL pools te analyseren en optimaliseren. Je leert technieken om het gebruik van tabelruimte en opslagdetails van kolommen te begrijpen. Vervolgens leert je ook hoe je de opslagvereisten kan vergelijken tussen identieke tabellen die verschillende datatypes gebruiken. Tot slot zal je  zien welke impact materialized views hebben wanneer ze worden uitgevoerd in plaats van complexe queries en leren hoe uitgebreide logging kan worden voorkomen door delete operaties te optimaliseren.

    • Gegevensopslag analyseren en optimaliseren in Azure Synapse Analytics

    Lab 11: Gegevensopslag analyseren en optimaliseren

    • Controleren op scheve gegevens en ruimtegebruik
    • Details van de opslag van kolommen begrijpen
    • De impact van materialized views bestuderen
    • Regels verkennen voor minimaal gelogde operaties

    Na het afronden van module 11 ben je in staat om:

    • Data warehouse storage te analyseren en optimaliseren in Azure Synapse Analytics

    Module 12: Hybride transactionele analytische verwerking (HTAP) ondersteunen met Azure Synapse LinkIn deze module leer je hoe Azure Synapse Link naadloze connectiviteit van een Azure Cosmos DB account met een Synapse workspace mogelijk maakt. Je kan na afloop Synapse link inschakelen en configureren maar ook de Azure Cosmos DB analytische winkel bevragen met behulp van Apache Spark en SQL serverless.

    • Hybride transactionele en analytische verwerking ontwerpen met Azure Synapse Analytics
    • Azure Synapse Link configureren met Azure Cosmos DB
    • Query’s uitvoeren in Azure Cosmos DB met Apache Spark pools
    • Query’s uitvoeren in Azure Cosmos DB met serverloze SQL pools

    Lab 12: Hybride transactionele analytische verwerking (HTAP) ondersteunen met Azure Synapse Link

    • Azure Synapse Link configureren met Azure Cosmos DB
    • Query’s uitvoeren in Azure Cosmos DB met Apache Spark voor Synapse Analytics
    • Query Azure Cosmos DB met serverloze SQL pool voor Azure Synapse Analytics

    Na het afronden van module 12 ben je in staat:

    • Ontwerp hybride transactionele en analytische verwerking met behulp van Azure Synapse Analytics
    • Azure Synapse Link configureren met Azure Cosmos DB
    • Query’s uitvoeren in Azure Cosmos DB met Apache Spark voor Azure Synapse Analytics
    • Query’s uitvoeren in Azure Cosmos DB met SQL serverless voor Azure Synapse Analytics

    Module 13: End-to-end beveiliging met Azure Synapse AnalyticsIn deze moduele leer je een Synapse Analytics workspace en de ondersteunende infrastructuur  beveiligen. Je observeert de SQL Active Directory Admin, beheert IP firewall regels, beheert geheimen met Azure Key Vault en krijgt toegang tot die geheimen via een Key Vault gekoppelde service en pijplijn activiteiten. Je zal begrijpen hoe beveiliging op kolomniveau, beveiliging op rijniveau en dynamische data-afscherming kunnen worden geïmplementeerd bij het gebruik van speciale SQL pools.

    • Een datawarehouse beveiligen in Azure Synapse Analytics
    • Geheimen configureren en beheren in Azure Key Vault
    • Compliance controles implementeren voor gevoelige gegevens

    Lab 13: End-to-end beveiliging met Azure Synapse Analytics

    • Azure Synapse Analytics ondersteunende infrastructuur beveiligen
    • De Azure Synapse Analytics-workspace en beheerde services beveiligen
    • Azure Synapse Analytics workspace gegevens beveiligen

    Na het voltooien van module 13 zijn de studenten in staat om:

    • Een datawarehouse in Azure Synapse Analytics te beveiligen
    • Geheimen configureren en beheren in Azure Key Vault
    • Compliancecontroles voor gevoelige gegevens implementeren

    Module 14: Real-time stroomverwerking met Stream AnalyticsIn deze module leer je streaming data verwerken met Azure Stream Analytics. Je gaat telemetriegegevens van voertuigen opnemen in Event Hubs en vervolgens die gegevens in realtime verwerken met behulp van verschillende windowingfuncties in Azure Stream Analytics. Deze gegevens  ga je uitvoeren naar Azure Synapse Analytics. Tot slot leer je hoe de Stream Analytics job geschaald kan worden om de doorvoer te verhogen.

    • Betrouwbare berichtenuitwisseling mogelijk maken voor Big Data toepassingen met behulp van Azure Event Hubs
    • Werken met datastromen met behulp van Azure Stream Analytics
    • Gegevensstromen invoeren met Azure Stream Analytics

    Lab 14: Real-time stroomverwerking met Stream Analytics

    • Stream Analytics gebruiken om real-time gegevens van Event Hubs te verwerken
    • Stream Analytics windowing functies gebruiken om aggregaten te bouwen en uitvoer te genereren naar Synapse Analytics
    • De Azure Stream Analytics job schalen om de doorvoer te verhogen door partitionering
    • De stream-invoer opnieuw partitioneren om parallellisatie te optimaliseren

    Na afronding van module 14 ben je in staat om:

    • Betrouwbare messaging voor Big Data-applicaties mogelijk te maken met behulp van Azure Event Hubs
    • Te werken met datastromen met behulp van Azure Stream Analytics
    • Datastromen in te voeren met Azure Stream Analytics

    Module 15: Creëer een Stream Processing oplossing met Event Hubs en Azure DatabricksIn deze module leer je streaming data op schaal opnemen en verwerken met Event Hubs en Spark Structured Streaming in Azure Databricks. Je leert de belangrijkste kenmerken en toepassingen van Structured Streaming. Je gaat schuifvensters implementeren om chunks van data te aggregeren en watermerken toepassen om verouderde data te verwijderen. Tot slot zal je verbinding maken met Event Hubs om streams te lezen en te schrijven.

    • Streaming data verwerken met Azure Databricks gestructureerde streaming

    Lab 15: Creëer een oplossing voor streamverwerking met Event Hubs en Azure Databricks

    • De belangrijkste functies en toepassingen van Structured Streaming verkennen
    • Stream data vanuit een bestand en schrijf het naar een gedistribueerd bestandssysteem
    • Schuivende vensters gebruiken om brokken data te aggregeren in plaats van alle data
    • Watermerken toepassen om verouderde gegevens te verwijderen
    • Verbinding maken met Event Hubs om streams te lezen en te schrijven

    Na het afronden van module 15 kan je:

    • Streaming data verwerken met Azure Databricks structured streaming

    Module 16: Rapporten maken met behulp van Power BI-integratie met Azure Synpase AnalyticsIn deze module leer je Power BI te integreren met zijn Synapse-workspace om rapporten te bouwen in Power BI. Je maakt een nieuwe gegevensbron en Power BI-rapport aan in Synapse Studio. Vervolgens leer je hoe de query performance te verbeteren met materialized views en result-set caching. Tot slot ga je het data lake verkennen met serverloze SQL pools en visualisaties maken met die data in Power BI.

    • Rapporten maken met Power BI via de integratie met Azure Synapse Analytics

    Lab 16: Rapporten maken met Power BI-integratie met Azure Synpase Analytics

    • Een Azure Synapse-workspace en Power BI integreren
    • Integratie met Power BI optimaliseren
    • Verbeter de query prestaties met materialized views en result-set caching
    • Gegevens visualiseren met SQL serverless en een Power BI-rapport maken

    Na het afronden van module 16 ben je in staat om:

    • Rapporten te maken met Power BI met behulp van de integratie met Azure Synapse Analytics

    Module 17: Geïntegreerde processen voor machinaal leren uitvoeren in Azure Synapse AnalyticsDeze module verkent de geïntegreerde, end-to-end Azure Machine Learning en Azure Cognitive Services ervaring in Azure Synapse Analytics. Je leert hoe je een Azure Synapse Analytics workspace kunt verbinden met een Azure Machine Learning workspace met behulp van een Linked Service en vervolgens een Automated ML experiment kunt starten dat gegevens uit een Spark tabel gebruikt. Je leert ook hoe je getrainde modellen van Azure Machine Learning of Azure Cognitive Services kunt gebruiken om gegevens in een SQL pooltabel te verrijken en vervolgens de voorspellingsresultaten kunt weergeven met behulp van Power BI.

    • Gebruik het geïntegreerde machine learning proces in Azure Synapse Analytics

    Lab 17: Geïntegreerde processen voor machinaal leren uitvoeren in Azure Synapse Analytics

    • Maak een Azure Machine Learning gekoppelde service
    • Een automatisch ML-experiment starten met gegevens uit een Spark-tabel
    • Gegevens verrijken met getrainde modellen
    • Voorspellingsresultaten serveren met behulp van Power BI

    Na het afronden van module 17 ben je in staat om:

    • Het geïntegreerde machine learning proces in Azure Synapse Analytics te gebruiken
    10
    Jennifer Pereira
    Ik heb hier de 2-daagse training Microsoft Dynamics 365 fundamentals gevolgd. Medewerkers zijn zeer hulpvaardig en denken ver mee, dit vond ik TOP! De Active Learning training met vakkundige trainster is me heel goed bevallen. De lunch was royaal en erg lekker! Kortom, wellicht tot ziens!
    9,0
    Willem de Lang
    In Februari een 5-daagse training WS-11 (Server 2019) gevolgd in twee weken. Deze training was op basis van het Active Learning programma en dit is me zeer goed bevallen. De instructeur had voldoende tijd/kennis om vragen te beantwoorden en me verder te helpen wanneer ik vast liep.
    9,5
    Edwin Kruize
    Bij Master IT train ik al jaren on-site in Eindhoven wat mij ontzettend goed bevalt. De Active Learning lesmethode is perfect voor mij en kan ik op mijn eigen tempo en onder goede begeleiding mijn studies volgen. De trainers hebben veel brede kennis en nemen de tijd voor je. 
    Lesmethode Master IT

    Active Learning

    Je maakt samen met je trainer een plan en gaat actief aan de slag. In een kleine klas verdiepen in wat je echt nodig hebt, inzoomen op zaken die je echt interesseren en overslaan wat je al weet of niet nodig hebt. Plan je lesdagen flexibel, neem real-life casussen mee en werk ze uit met je trainer. Verrijk je kennis en verbind het met alles wat je al wist.

    Lesmateriaal
    Slagingsgarantie
    Labomgeving
    4 dagen voor € 2.195,-

    E-Learning

    Ben je op zoek naar volledige zelfstudie? Wij bieden je de mogelijkheid om jouw training volledig in jouw eigen tijd te volgen. Uiteraard met het officiële lesmateriaal waarmee je de juiste kennis opdoet.

    Wil je toch graag een dag persoonlijke begeleiding? Dan kan je altijd een extra lesdag bij boeken en de training als blended learning volgen!

    Microsoft Examenvoucher
    Digitaal MOC
    MCT Mentoring
    Oefenexamen omgeving
    Labomgeving

    Incompany

    Wist jij dat alle IT trainingen die we aanbieden op de website ook bij jouw bedrijf uitgevoerd kunnen worden? Zo volg je een maatwerk IT training (Incompany training) met al je collega’s. Jij kunt de training nog specifieker voor jouw bedrijf laten inrichten en het is zelfs mogelijk om een geheel maatwerk traject door ons te laten ontwerpen.

    Je bespaart reiskosten en reistijd voor de deelnemers, doordat onze trainer bij jou op locatie komt. Op deze manier kun je meerdere deelnemers van jouw organisatie dezelfde training laten volgen. Dat is efficiënt en effectief! Samen heb je een gemeenschappelijke opleidingsbehoefte en daar gaan we je bij helpen.

    We hebben jarenlang ervaring in het geven van maatwerk it trainingen. We kijken zorgvuldig naar de opleidingsbehoefte om volledig aan te sluiten bij je wensen. Zo formuleren we haalbare en concrete doelstellingen en deelnemers kunnen het geleerde in de praktijk toepassen. Op deze manier groeien deelnemers persoonlijk en professioneel op meerdere niveaus.

    Maatwerktraining
    Van A-Z geregeld voor jouw team
    Trainer komt op locatie
    Veelgestelde vragen
    Wat is de focus van de DP-203 training?

    Bij de DP-203 training staat de ontwikkeling van vaardigheden centraal om te werken als een Azure Data Engineer. De training omvat het ontwerpen en implementeren van datamanagement oplossingen, dataopslag en het verwerken van data met Azure-services.

    Welke vaardigheden ontwikkelen je met de DP-203?

    Tijdens de DP-203 ontwikkel je vaardigheden zoals het inrichten van dataoplossingen met Azure Data Lake, het verwerken van data met Azure Stream Analytics en het beveiligen van dataopslag. Dit bereidt je voor op het ontwerpen en bouwen van betrouwbare data engineering oplossingen op Azure.

    Voor wie is de Azure Data Engineer training bedoeld?

    De Azure Data Engineer training is gericht op IT-professionals die zich willen specialiseren in data engineering op het Azure-platform. Het is bedoeld voor degenen die praktische ervaring willen opdoen met Azure Data Services en op zoek zijn naar verdieping in data-engineeringconcepten.

    Welke thema's worden behandeld in de Data Engineering Azure training?

    In de Data Engineering Azure training worden thema’s behandeld zoals het opzetten van data-integratieprocessen, het beheren van databronnen, het implementeren van dataopslagoplossingen en het waarborgen van datakwaliteit en -beveiliging binnen het Azure-ecosysteem.

    DP-203
    Data Engineering on Microsoft Azure (DP-203)
    € 2.195,-
    Bekijk beschikbaarheid