Kursplan
- 
	Innføring i Scala- En rask innføring i Scala
- Labs: Lære å kjenne Scala
 
- 
	Spark grunnleggende- Bakgrunn og historie
- Spark og Hadoop
- Spark konsepter og arkitektur
- Spark økosystem (core, spark sql, mlib, streaming)
- Labs: Installere og kjøre Spark
 
- 
	Første innblikk i Spark- Kjøre Spark i lokal modus
- Spark web UI
- Spark shell
- Analysere datamengde – del 1
- Inspektere RDDs
- Labs: Udforske Spark shell
 
- 
	RDDs- RDD konsepter
- Partisjoner
- RDD operasjoner / transformasjoner
- RDD typer
- Nøkkel-verdi par RDDs
- MapReduce på RDD
- Caching og persistering
- Labs: Opprette & inspektere RDDs; Caching RDDs
 
- 
	Spark API-programmering- Innføring i Spark API / RDD API
- Sende første program til Spark
- Feilsøking / logging
- Konfigurasjonsegenskaper
- Labs: Programmering i Spark API, Sende oppgaver
 
- 
	Spark SQL- SQL-støtte i Spark
- Dataframes
- Definere tabeller og importere datamengder
- Spørre dataframes ved hjelp av SQL
- Lagring formater: JSON / Parquet
- Labs: Opprette og spørre dataframes; Vurdere dataformater
 
- 
	MLlib- Innføring i MLlib
- MLlib-algoritmer
- Labs: Skrive MLib-applikasjoner
 
- 
	GraphX- Oversikt over GraphX-biblioteket
- GraphX-APIer
- Labs: Behandle grafdata med Spark
 
- 
	Spark Streaming- Streaming-oversikt
- Vurdere Streaming-plattformer
- Streaming-operasjoner
- Glidende vindusoperasjoner
- Labs: Skrive Spark Streaming-applikasjoner
 
- 
	Spark og Hadoop- Innføring i Hadoop (HDFS / YARN)
- Hadoop + Spark-arkitektur
- Kjøre Spark på Hadoop YARN
- Behandle HDFS-filer med Spark
 
- 
	Spark ytelse og justering- Broadcast-variabler
- Accumulators
- Minnehåndtering & caching
 
- 
	Spark-operasjoner- Utplassere Spark i produksjon
- Eksempel på utplasseringstemplater
- Konfigurasjoner
- Overvåking
- Feilsøking
 
Krav
FORUTSETNINGER
Kjennskap med enten Java / Scala / Python språk (våre labber i Scala og Python)
grunnleggende forståelse av Linux-utviklingsmiljø (kommando-linje navigering / redigering av filer ved bruk av VI eller nano)
Referanser (6)
Doing similar exercises different ways really help understanding what each component (Hadoop/Spark, standalone/cluster) can do on its own and together. It gave me ideas on how I should test my application on my local machine when I develop vs when it is deployed on a cluster.
Thomas Carcaud - IT Frankfurt GmbH
Kurs - Spark for Developers
Ajay was very friendly, helpful and also knowledgable about the topic he was discussing.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Kurs - Spark for Developers
Ernesto did a great job explaining the high level concepts of using Spark and its various modules.
Michael Nemerouf
Kurs - Spark for Developers
The trainer made the class interesting and entertaining which helps quite a bit with all day training.
Ryan Speelman
Kurs - Spark for Developers
We know a lot more about the whole environment.
John Kidd
Kurs - Spark for Developers
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.
