Ob Informationstechnik, Ingenieurwesen oder Medizin - die Menge an verfügbaren Daten verdoppelt sich aktuell alle zwei Jahre. Gleichzeitig bieten verteilte Dateisysteme, Frameworks für Cluster Computing und moderne Programmiermodelle für nebenläufige Berechnungen nie dagewesene Möglichkeiten für die Analyse größter Datenmengen und den praktischen Einsatz von Verfahren der künstlichen Intelligenz.

Vor diesem Hintergrund veranschaulicht der Vortrag anhand unterhaltsamer Beispiele die praktische Umsetzung von Big Data Anwendungen und zeigt die Skalierbarkeit der verwendeten Algorithmen von der Ausführung auf dem eigenen Laptop bis zur Verwendung von praktisch unbegrenzter weltweiter Rechenkapazität.