Big Data Opplæringskurs

Big Data Opplæringskurs

Online eller på stedet, instruktørledede live Big Data-opplæringskurs starter med en introduksjon til grunnleggende konsepter for Big Data, og går deretter videre til programmeringsspråkene og metodene som brukes til å utføre dataanalyse. Verktøy og infrastruktur for å aktivere Big Data-lagring, distribuert prosessering og skalerbarhet diskuteres, sammenlignes og implementeres i demonstrasjonsøvelser. Big Data-trening er tilgjengelig som "online live training" eller "onsite live training". Online live trening (også kalt "remote live training") utføres ved hjelp av et interaktivt, eksternt skrivebord . Direkteopplæring på stedet kan gjennomføres lokalt hos kundene i Norge eller i NobleProg bedriftsopplæringssentre i Norge. NobleProg – din lokale opplæringsleverandør

Machine Translated

Testimonials

★★★★★
★★★★★

Big Data Kursplaner

Kursnavn
Varighet
Oversikt
Kursnavn
Varighet
Oversikt
21 timer
Python er et skalbart, fleksibelt og mye brukt programmeringsspråk for datavitenskap og maskinlæring. Spark er en databehandlingsmotor som brukes i spørre, analysere og transformere store data, mens Hadoop er et programvare bibliotek rammeverk for storskala data lagring og behandling. Denne instruktørledede, live-trening (online eller on-site) er rettet mot utviklere som ønsker å bruke og integrere Spark, Hadoop, og Python for å behandle, analysere og transformere store og komplekse datasett. Ved slutten av denne treningen vil deltakerne være i stand til å:
    Sett opp det nødvendige miljøet for å begynne å behandle store data med Spark, Hadoop, og Python. Forstå funksjonene, kjernekomponentene og arkitekturen til Spark og Hadoop. Lær hvordan du integrerer Spark, Hadoop, og Python for Big Data Processing. Utforsk verktøyene i Spark økosystemet (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, og Flume). Bygg samarbeidende filtrering anbefalingssystemer som likner Netflix, YouTube, Amazon, Spotify, og Google. Bruk Apache Mahout til å skala maskinlæring algoritmer.
Format av kurset
    Interaktiv forelesning og diskusjon. Mange øvelser og praksis. Hands-on implementering i et live-lab miljø.
Kurs tilpassingsalternativer
    For å be om en tilpasset opplæring for dette kurset, vennligst kontakt oss for å arrangere.
14 timer
Waikato Environment for Knowledge Analysis (Weka) er en åpen kildekode data mining visualisering programvare. Det gir en samling av maskinlæring algoritmer for dataforberedelse, klassifisering, klustering og andre data mining aktiviteter. Denne instruktørledede, live-trening (online eller on-site) er rettet mot dataanalytikere og data forskere som ønsker å bruke Weka for å utføre data mining oppgaver. Ved slutten av denne treningen vil deltakerne være i stand til å:
    Installasjon og konfigurasjon Weka Forstå miljøet Weka og arbeidsbanken. Utføre data mining oppgaver ved hjelp av Weka.
Format av kurset
    Interaktiv forelesning og diskusjon. Mange øvelser og praksis. Hands-on implementering i et live-lab miljø.
Kurs tilpassingsalternativer
    For å be om en tilpasset opplæring for dette kurset, vennligst kontakt oss for å arrangere.
14 timer
IBM SPSS Modeler er en programvare som brukes til data mining og tekstanalyse. Det gir et sett med data mining verktøy som kan bygge forutsigbare modeller og utføre dataanalyseoppgaver. Denne instruktørledede, live-trening (online eller online) er rettet mot dataanalytikere eller noen som ønsker å bruke SPSS Modeler til å utføre data mining aktiviteter. Ved slutten av denne treningen vil deltakerne være i stand til å:
    Forstå grunnleggende elementer i data mining. Lær hvordan du importerer og vurderer datakvalitet med Modeleren. Utvikle, implementere og evaluere datamodeller effektivt.
Format av kurset
    Interaktiv forelesning og diskusjon. Mange øvelser og praksis. Hands-on implementering i et live-lab miljø.
Kurs tilpassingsalternativer
    For å be om en tilpasset opplæring for dette kurset, vennligst kontakt oss for å arrangere.
35 timer
Deltakere som fullfører denne instruktørledede, live opplæring vil få en praktisk, real-world forståelse av Big Data og dens relaterte teknologier, metoder og verktøy. Deltakerne vil ha muligheten til å sette denne kunnskapen i praksis gjennom praktiske øvelser. Gruppen samhandling og instruktør tilbakemelding utgjør en viktig del av klassen. Kurset begynner med en introduksjon til elementære begreper av Big Data, deretter utvikler seg til programmeringsspråk og metoder som brukes til å utføre Data Analysis. Til slutt diskuterer vi verktøyene og infrastrukturen som muliggjør Big Data lagring, Distributed Processing, og Scalakapacitet. Format av kurset
    Delvis forelesning, delvis diskusjon, praktisk praksis og implementering, sannsynlig quizing for å måle fremgang.
21 timer
Python er et programmeringsspråk på høyt nivå kjent for sin klare syntaks og kodelesbarhet. Spark er en databehandlingsmotor som brukes til spørring, analyse og transformering av big data. PySpark lar brukere grensesnitt Spark med Python . I denne instruktørledede liveopplæringen vil deltakerne lære hvordan de bruker Python og Spark sammen for å analysere big data når de jobber med praktiske øvelser. Ved slutten av denne opplæringen vil deltakerne kunne:
  • Lær hvordan du bruker Spark med Python til å analysere Big Data .
  • Arbeidet med øvelser som etterligner omstendighetene i den virkelige verden.
  • Bruk forskjellige verktøy og teknikker for big data-analyse ved bruk av PySpark .
Kursets format
  • Delforelesning, deldiskusjon, øvelser og tung praktisk øvelse
7 timer
Dette kurset dekker hvordan du bruker Hive SQL språk (AKA: Hive HQL, SQL on Hive , Hive QL) for folk som henter ut data fra Hive
21 timer
Kunnskapsoppdagelse i databaser (KDD) er prosessen med å oppdage nyttig kunnskap fra en innsamling av data. Real-life applikasjoner for denne data mining teknikken inkluderer markedsføring, svindeldeteksjon, telekommunikasjon og produksjon. I denne instruktørledede, levende kurset introduserer vi prosessene involvert i KDD og utfører en rekke øvelser for å praktisere implementeringen av disse prosessene. Publikum
    Dataanalytikere eller noen som er interessert i å lære hvordan å tolke data for å løse problemer
Format av kurset
    Etter en teoretisk diskusjon om KDD, vil instruktøren presentere real-life tilfeller som krever at anvendelsen av KDD for å løse et problem. Deltakerne vil forberede, velge og rengjøre mønsterdata sett og bruke sin fortidige kunnskap om dataene for å foreslå løsninger basert på resultatene av sine observasjoner.
14 timer
Apache Kylin er en ekstrem, distribuert analysemotor for store data. I denne instruktørledede live-trening lærer deltakerne hvordan de kan bruke Apache Kylin til å sette opp en real-time data lagring. Ved slutten av denne treningen vil deltakerne være i stand til å:
    Forbruker real-time streaming data ved hjelp av Kylin Utnytte Apache Kylin's kraftige funksjoner, rik SQL grensesnitt, spark cubing og sekundær etterspørsel latens
Notat
    Vi bruker den nyeste versjonen av Kylin (basert på denne teksten, Apache Kylin v2.0)
Publikum
    Big Data ingeniører 0 0 Analytikere
Format av kurset
    Delvis forelesning, delvis diskusjon, øvelser og tung praksis
14 timer
Datameer is a business intelligence and analytics platform built on Hadoop. It allows end-users to access, explore and correlate large-scale, structured, semi-structured and unstructured data in an easy-to-use fashion. In this instructor-led, live training, participants will learn how to use Datameer to overcome Hadoop's steep learning curve as they step through the setup and analysis of a series of big data sources. By the end of this training, participants will be able to:
  • Create, curate, and interactively explore an enterprise data lake
  • Access business intelligence data warehouses, transactional databases and other analytic stores
  • Use a spreadsheet user-interface to design end-to-end data processing pipelines
  • Access pre-built functions to explore complex data relationships
  • Use drag-and-drop wizards to visualize data and create dashboards
  • Use tables, charts, graphs, and maps to analyze query results
Audience
  • Data analysts
Format of the course
  • Part lecture, part discussion, exercises and heavy hands-on practice
14 timer
Data mining er prosessen med å identifisere mønstre i big data med data science metoder som maskinlæring. Bruker Excel som en dataanalytisk pakke, kan brukere utføre data mining og analyse. Denne instruktørledede, liveopplæringen (på stedet eller eksternt) er rettet mot dataforskere som ønsker å bruke Excel for data mining. Ved slutten av denne opplæringen vil deltakerne kunne:
  • Utforsk data med Excel å utføre data mining og analyse.
  • Bruk Microsoft-algoritmer for data mining.
  • Forstå begreper i Excel data mining.
Kursets format
  • Interaktiv forelesning og diskusjon.
  • Masse øvelser og trening.
  • Praktisk implementering i et levende lab-miljø.
Valg av tilpasning av kurset
  • For å be om en tilpasset opplæring for dette kurset, vennligst kontakt oss for å avtale.
21 timer
Dremio er en åpen kilde "self-service data plattform" som akselererer søket av ulike typer data kilder. Dremio integrerer med relasjonelle databaser, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, og andre datakilder. Den støtter SQL og gir en web-UI for byggeforespørsler. I denne instruktørledede, live-trening lærer deltakerne hvordan man installerer, konfigurerer og bruker Dremio som et forenende lag for dataanalyseverktøy og de underliggende datarepositoriene. Ved slutten av denne treningen vil deltakerne være i stand til å:
    Installasjon og konfigurasjon Dremio Utføre forespørsler mot flere datakilder, uavhengig av plassering, størrelse eller struktur Integrere Dremio med BI og datakilder som Tableau og Elasticsearch
Publikum
    Data forskere Business Analytikere Data ingeniører
Format av kurset
    Delvis forelesning, delvis diskusjon, øvelser og tung praksis
Noter
    For å be om en tilpasset opplæring for dette kurset, vennligst kontakt oss for å arrangere.
21 timer
Apache Drill is a schema-free, distributed, in-memory columnar SQL query engine for Hadoop, NoSQL and other Cloud and file storage systems. The power of Apache Drill lies in its ability to join data from multiple data stores using a single query. Apache Drill supports numerous NoSQL databases and file systems, including HBase, MongoDB, MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS and local files. Apache Drill is the open source version of Google's Dremel system which is available as an infrastructure service called Google BigQuery. In this instructor-led, live training, participants will learn the fundamentals of Apache Drill, then leverage the power and convenience of SQL to interactively query big data across multiple data sources, without writing code. Participants will also learn how to optimize their Drill queries for distributed SQL execution. By the end of this training, participants will be able to:
  • Perform "self-service" exploration on structured and semi-structured data on Hadoop
  • Query known as well as unknown data using SQL queries
  • Understand how Apache Drills receives and executes queries
  • Write SQL queries to analyze different types of data, including structured data in Hive, semi-structured data in HBase or MapR-DB tables, and data saved in files such as Parquet and JSON.
  • Use Apache Drill to perform on-the-fly schema discovery, bypassing the need for complex ETL and schema operations
  • Integrate Apache Drill with BI (Business Intelligence) tools such as Tableau, Qlikview, MicroStrategy and Excel
Audience
  • Data analysts
  • Data scientists
  • SQL programmers
Format of the course
  • Part lecture, part discussion, exercises and heavy hands-on practice
14 timer
Apache Arrow er et rammeverk med databehandling i åpen kildekode. Det brukes ofte sammen med andre datavitenskapelige verktøy for å få tilgang til forskjellige datalagre for analyse. Det integreres godt med andre teknologier som GPU databaser, maskinlæringsbiblioteker og verktøy, utførelsesmotorer og datavisualiseringsrammer. I denne instruktørledede, liveopplæringen på stedet, vil deltakerne lære å integrere Apache Arrow med forskjellige Data Science rammer for å få tilgang til data fra forskjellige datakilder. Ved slutten av denne opplæringen vil deltakerne kunne:
  • Installer og konfigurer Apache Arrow i et distribuert gruppert miljø
  • Bruk Apache Arrow å få tilgang til data fra forskjellige datakilder
  • Bruk Apache Arrow å omgå behovet for å konstruere og vedlikeholde komplekse ETL-rørledninger
  • Analyser data på tvers av forskjellige datakilder uten å måtte konsolidere dem til et sentralisert depot
Publikum
  • Data forskere
  • Dataingeniører
Kursets format
  • Delforelesning, deldiskusjon, øvelser og tung praktisk øvelse
Merk
  • For å be om en tilpasset opplæring for dette kurset, vennligst kontakt oss for å avtale.
14 timer
Målet med kurset er å gjøre det mulig for deltakerne å få en mestring av hvordan de kan jobbe med SQL språket i Oracle databasen for datautvinning på mellomnivå.
14 timer
For å imøtekomme overholdelse av regulatorene, kan CSP-er ( Communication ) benytte seg av Big Data Analytics som ikke bare hjelper dem å møte samsvar, men innenfor rammen av det samme prosjektet kan de øke kundetilfredsheten og dermed redusere uroen. Siden overholdelse er relatert til kvaliteten på tjenesten knyttet til en kontrakt, vil ethvert initiativ for å oppfylle overholdelsen forbedre CSP-enes "konkurransefortrinn". Derfor er det viktig at regulatorer skal kunne gi råd / veilede et sett med Big Data analytisk praksis for CSP-er som vil være til gjensidig fordel mellom regulatorene og CSP-ene. Emnet består av 8 moduler (4 på dag 1, og 4 på dag 2)
35 timer
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information. High-value government solutions will be created from a mashup of the most disruptive technologies:
  • Mobile devices and applications
  • Cloud services
  • Social business technologies and networking
  • Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured. But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog. The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it. The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge. Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.). Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
35 timer
Dag 1 - gir et høyt nivå oversikt over viktige Big Data . Modulen er delt inn i en serie seksjoner, som hver blir ledsaget av en praktisk øvelse. Dag 2 - utforsker en rekke temaer som relaterer analysepraksiser og verktøy for Big Data miljøer. Det kommer ikke inn på implementerings- eller programmeringsdetaljer, men holder i stedet dekningen på et konseptuelt nivå, med fokus på temaer som gjør at deltakerne kan utvikle en omfattende forståelse av de vanlige analysefunksjonene og funksjonene som tilbys av Big Data løsninger. Dag 3 - gir en oversikt over de grunnleggende og essensielle temaområdene knyttet til plattformarkitekturen for Big Data løsning. Den dekker Big Data mekanismer som er nødvendige for utvikling av en Big Data løsningsplattform og arkitektoniske alternativer for å sette sammen en databehandlingsplattform. Vanlige scenarier presenteres også for å gi en grunnleggende forståelse av hvordan en Big Data løsningsplattform generelt brukes. Dag 4 - bygger videre på dag 3 ved å utforske avanserte emner relatert til Big Data løsningsplattformarkitektur. Spesielt blir forskjellige arkitektoniske lag som utgjør Big Data løsningsplattformen introdusert og diskutert, inkludert datakilder, datastyrking, datalagring, databehandling og sikkerhet. Dag 5 - dekker en rekke øvelser og problemer designet for å teste delegatene muligheten til å anvende kunnskap om emner som dekkes dag 3 og 4.
35 timer
Fremskritt innen teknologier og den økende mengden informasjon transformerer hvordan rettshåndhevelse gjennomføres. Utfordringene Big Data utgjør er nesten like avskrekkende som Big Data løfte. Lagring av data er en av disse utfordringene; effektiv analyse av det er en annen. I denne instruktørledede, liveopplæringen, vil deltakerne lære tankegangen til å tilnærme seg Big Data teknologier, vurdere deres innvirkning på eksisterende prosesser og policyer og implementere disse teknologiene med det formål å identifisere kriminell aktivitet og forhindre kriminalitet. Casestudier fra rettshåndhevelsesorganisasjoner rundt om i verden vil bli undersøkt for å få innsikt i deres adopsjonstilnærminger, utfordringer og resultater. Ved slutten av denne opplæringen vil deltakerne kunne:
  • Kombiner Big Data teknologi med tradisjonelle datainnsamlingsprosesser for å fortelle en historie under en undersøkelse
  • Implementere industrielle store datalagrings- og behandlingsløsninger for dataanalyse
  • Utarbeide et forslag for adopsjon av de mest adekvate verktøy og prosesser for å muliggjøre en datadrevet tilnærming til kriminell etterforskning
Publikum
  • Spesialister innen rettshåndhevelse med teknisk bakgrunn
Kursets format
  • Delforelesning, deldiskusjon, øvelser og tung praktisk øvelse
14 timer
Mål : Dette kurset tar sikte på å hjelpe deltakerne til å forstå hvorfor Big Data endrer livene våre, og hvordan det endrer måten bedrifter ser på oss som forbrukere. Brukere av big data i virksomheter opplever faktisk at big data slipper ut et vell av informasjon og innsikt som kan føre til høyere fortjeneste, reduserte kostnader og mindre risiko. Imidlertid var ulempen frustrasjon noen ganger når man la for mye vekt på individuelle teknologier og ikke nok fokus på bærebjelkene i styring av big data. Deltakere vil lære i løpet av dette kurset hvordan de skal administrere big data ved å bruke de tre pilarene for dataintegrasjon, datasystemstyring og datasikkerhet for å gjøre big data til virkelig forretningsverdi. Ulike øvelser utført på en casestudie av kundebehandling vil hjelpe deltakerne til å forstå de underliggende prosessene bedre.
21 timer
Big Data er et begrep som refererer til løsninger som er beregnet på lagring og behandling av store datasett. Disse Big Data løsningene ble utviklet av Go ogle i utgangspunktet og har utviklet og inspirert andre lignende prosjekter, hvorav mange er tilgjengelige som open source. R er et populært programmeringsspråk i finansnæringen.
14 timer
Når tradisjonelle lagringsteknologier ikke håndterer datamengden du trenger å lagre, er det hundrevis av alternativer. Dette kurset prøver å veilede deltakerne hva som er alternativer for lagring og analyse av Big Data og hva er deres fordeler og ulemper. Dette kurset fokuserer mest på diskusjon og presentasjon av løsninger, selv om praktiske øvelser er tilgjengelige på forespørsel.
14 timer
Kurset er en del av Data Scientist ferdighetssettet (Domain: Data and Technology).
14 timer
This classroom based training session will explore Big Data. Delegates will have computer based examples and case study exercises to undertake with relevant big data tools
21 timer
Publikum Hvis du prøver å være fornuftig ut fra dataene du har tilgang til eller ønsker å analysere ustrukturerte data tilgjengelig på nettet (som Twitter, koblet inn osv.), Er dette kurset noe for deg. Det er mest rettet mot beslutningstakere og personer som trenger å velge hvilke data som er verdt å samle inn og hva som er verdt å analysere. Det er ikke rettet mot folk som konfigurerer løsningen, de menneskene vil dra nytte av det store bildet. Leveringsmodus I løpet av kurset vil delegatene bli presentert med fungerende eksempler på stort sett åpen kildekode-teknologier. Korte forelesninger blir fulgt av presentasjon og enkle øvelser av deltakerne Innhold og programvare brukt All programvare som brukes oppdateres hver gang kurset kjøres, så vi sjekker de nyeste versjonene som er mulig. Den dekker prosessen fra innhenting, formatering, behandling og analyse av dataene, for å forklare hvordan man kan automatisere beslutningsprosesser med maskinlæring.
35 timer
Big data er datasett som er så omfangsrike og komplekse at tradisjonell databehandlingsapplikasjonsprogramvare er utilstrekkelig til å håndtere dem. Store datautfordringer inkluderer innhenting av data, datalagring, dataanalyse, søk, deling, overføring, visualisering, spørring, oppdatering og informasjon om personvern.
7 timer
This instructor-led, live training (online or onsite) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data. By the end of this training, participants will:
  • Understand the evolution and trends for machine learning.
  • Know how machine learning is being used across different industries.
  • Become familiar with the tools, skills and services available to implement machine learning within an organization.
  • Understand how machine learning can be used to enhance data mining and analysis.
  • Learn what a data middle backend is, and how it is being used by businesses.
  • Understand the role that big data and intelligent applications are playing across industries.
Format of the Course
  • Interactive lecture and discussion.
  • Lots of exercises and practice.
  • Hands-on implementation in a live-lab environment.
Course Customization Options
  • To request a customized training for this course, please contact us to arrange.
7 timer
Apache Sqoop is a command line interface for moving data from relational databases and Hadoop. Apache Flume is a distributed software for managing big data. Using Sqoop and Flume, users can transfer data between systems and import big data into storage architectures such as Hadoop. This instructor-led, live training (online or onsite) is aimed at software engineers who wish to use Sqoop and Flume for transferring data between systems. By the end of this training, participants will be able to:
  • Ingest big data with Sqoop and Flume.
  • Ingest data from multiple data sources.
  • Move data from relational databases to HDFS and Hive.
  • Export data from HDFS to a relational database.
Format of the Course
  • Interactive lecture and discussion.
  • Lots of exercises and practice.
  • Hands-on implementation in a live-lab environment.
Course Customization Options
  • To request a customized training for this course, please contact us to arrange.
28 timer
Talend Open Studio for Big Data er et åpent ETL-verktøy for behandling av store data. Det inkluderer et utviklingsmiljø for å samhandle med Big Data kilder og mål, og kjøre jobber uten å måtte skrive koder. Denne instruktørledede, live-trening (online eller på nett) er rettet mot tekniske personer som ønsker å implementere Talend Open Studio for Big Data for å forenkle prosessen med å lese og knuse gjennom Big Data. Ved slutten av denne treningen vil deltakerne være i stand til å:
    Installere og konfigurere Talend Open Studio for Big Data. Koble til Big Data systemer som Cloudera, HortonWorks, MapR, Amazon EMR og Apache. Forstå og sette opp Open Studio's store data komponenter og koblinger. Konfigurer parametere for å automatisk generere MapReduce-koden. Bruk Open Studio's drag-and-drop grensesnitt for å kjøre Hadoop jobber. Prototype Big Data Pipelines. Automatisert big data integrasjonsprosjekter.
Format av kurset
    Interaktiv forelesning og diskusjon. Mange øvelser og praksis. Hands-on implementering i et live-lab miljø.
Kurs tilpassingsalternativer
    For å be om en tilpasset opplæring for dette kurset, vennligst kontakt oss for å arrangere.
14 timer
Vespa is an open-source big data processing and serving engine created by Yahoo.  It is used to respond to user queries, make recommendations, and provide personalized content and advertisements in real-time. This instructor-led, live training introduces the challenges of serving large-scale data and walks participants through the creation of an application that can compute responses to user requests, over large datasets in real-time. By the end of this training, participants will be able to:
  • Use Vespa to quickly compute data (store, search, rank, organize) at serving time while a user waits
  • Implement Vespa into existing applications involving feature search, recommendations, and personalization
  • Integrate and deploy Vespa with existing big data systems such as Hadoop and Storm.
Audience
  • Developers
Format of the course
  • Part lecture, part discussion, exercises and heavy hands-on practice
7 timer
Alluxio er et open-source virtuelt distribuert lagringssystem som forener ulike lagringssystemer og gjør det mulig for applikasjoner å samhandle med data ved minnehastighet. Den brukes av selskaper som Intel, Baidu og Alibaba. I denne instruktørledede, live-trening, vil deltakerne lære å bruke Alluxio til å bringe forskjellige beregningsrammer med lagringssystemer og effektivt administrere multi-petabyte skala data som de går gjennom skapelsen av en applikasjon med Alluxio. Ved slutten av denne treningen vil deltakerne være i stand til å:
    Utvikle en søknad med Alluxio Koble til store datasystemer og applikasjoner samtidig som du beholder et namespace Effektivt ekstraherer verdi fra store data i ethvert lagringsformat Bedre arbeidsbelastningseffektivitet Oppsett og administrere Alluxio uavhengig eller klusteret
Publikum
    Data forskere Utvikler Systemadministrator
Format av kurset
    Delvis forelesning, delvis diskusjon, øvelser og tung praksis

Last Updated:

Helg Big Data kurs, kveld Big Data trening, Big Data boot camp, Big Data instruktørledet, Helg Big Data trening, Kveld Big Data kurs, Big Data coaching, Big Data instruktør, Big Data trener, Big Data kurs, Big Data klasser, Big Data on-site, Big Data private kurs, Big Data tomannshånd trening

Kursrabatter

No course discounts for now.

Kursrabatter Nyhetsbrev

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Some of our clients

is growing fast!

We are looking to expand our presence in Norway!

As a Business Development Manager you will:

  • expand business in Norway
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

This site in other countries/regions