GOTO Berlin 2017 – Teil 2

Datum: 19. Dezember 2017
Autor: Christian Göbel


Hier nun Teil 2 meines Berichts zur GOTO Berlin. Nach dem Container & Kubernetes Security Workshop am Mittwoch und dem ersten Haupt-Konferenztag am Donnerstag (Bericht hier), rundete der ML-Track am Freitag, 17. November, meine Themenwahl ab.

Einen beeindruckenden Einstieg in den Tag lieferte Prof. D’Andreas Keynote „Drones on Broadway“, bei der auf die Forschung im Bereich autonomer Dronen am ETH Zürich eingegangen wurde. Zu kurz kam dabei auch nicht der Praxiseinsatz der Dronen am Broadway oder auf der aktuellen Tour von Metallica. Die Ansätze für extreme Robustheit und das selbstheilende Prinzip der Dronen ließen für mich einige Parallelen zu der hochverfügbaren Infrastruktur erkennen, die serverseitig die Zukunft der IT darstellen wird. In Grenzbereichen ist laut D’Andrea ein Schritt von 99,9% auf 99,99% Verfügbarkeit beispielsweise eine Verbesserungen um den Faktor 10. Natürlich kann ein Dronenabsturz (ggf. auch noch über Publikum) viel fatalere Folgen haben, als ein Serverausfall. Nichtsdestotrotz waren die Ansätze von autonomen Systemen und deren ständiger Feedback-Loop, die der Professor und Entrepreneur aus Zürich vorstellte, sehr lehrreich.

Danach gab Phil Winder einen schönen Abriss zur Geschichte von Data Science und „intelligenten“ Systemen. Die Frage warum Machine Learning gerade in den letzten Jahren so prosperiert, beantwortete er insbesondere mit dem schieren Anstieg von Rechenleistung. Ähnlich argumentierte in seiner Session „TensorFlow in the Wild“ auch Kaz Sato von Google Tokyo. Die Rechenpower, die man mittlerweile auf Abruf in der Cloud aus einem föderierten Cluster von Servern mobilisieren kann, schafft für Data Science immer mehr Möglichkeiten. Außerdem haben sich in den letzten 10-15 Grafikkarten extrem weiterentwickelt. Mit ihren auf Matrizenoperationen optimierten Chipsätzen bieten sie die optimale Hardware für Deep Learning Probleme. Daraus folgt, das heutzutage ML-Probleme mit überschaubarem Investitionsaufwand gelöst werden können. Wem die Basis-Dienste von Google oder Amazon beispielsweise für Spracherkennung in der Cloud nicht reichen, der greift auf ausgereifte Open Source Lösungen wie TensorFlow oder SciKit Learn zurück und trainiert seine spezialisierten Modelle in diesen Systemen.

Wie ML in der Praxis auf einem Portal mit hoher Last eingesetzt werden kann, zeigten Christian Deger (AutoScout24) und Arif Wider (ThoughtWorks). Dabei hochinteressant die Verschmelzung der Modelle der Data Scientists (implementiert in R) mit einer hochskalierbaren Java-Serveranwendung. Hier stellten Software-Ingenieure und Daten-Wissenschaftler eine Continuous Delivery Pipeline auf die Beine, die jeder schon mal indirekt verwendet hat, der die Bewertungsfunktion von Fahrzeugpreisen auf dem oben genannten Portal genutzt hat.

Neben diesen technischen Themen lieferte in meiner Trackwahl Ted Reward einen lohnenswerten Blick über den Tellerrand. Weil Software-Entwickler Abstraktionen über Abstraktion über Abstraktionen [..] schichten, bietet es sich aus seiner Sicht an bestimmte Modelle aus der Sichtweise eines Philosophen zu betrachten. Der Vortrag war wirklich sehr unterhaltsam. Man muss allerdings am besten selbst erlebt haben, mit welcher Kurzweiligkeit der Amerikaner das Thema beleuchtete, um einen Eindruck zu bekommen, in welche Richtung es hier ging. Von daher spare ich mir hier eine weiterführende Darstellung der Inhalte dieser Session.

Den Abschluss der Konferenz setzte dann die Keynote „Listening In: Cybersecurity in an Insecure Age“ von Prof. Susan Landau mit einem fundierten Einblick zu Security-Themen, die insbesondere in den USA aktuell sind.

Kommentare

Selber kommentieren:






Weitere Beiträge zum Thema Technologie


Docker – Bereitstellung von Betriebs-Umgebungen über Container

Autor: Marc Kurzmann


Projekte // Technologie


Wie der eine oder andere Kollege bereits mitbekommen hat, war unser Informatik-Praktikant Lukas die vergangenen Wochen intensiv mit dem Thema Docker und der Möglichkeit zur effizienten Bereitstellung von Deployment-Umgebungen aus der Produktentwicklung heraus beschäftigt. Das Ergebnis kann sich sehen lassen: Es ist nun möglich mit minimalem Aufwand eine vollständige Betriebsumgebung einschließlich eines deployten Produkts eines …


Beitrag lesen
12.
Dez.
2014

Follow-up zu Vortrag beim imx.Camp – „Technologie-Umstellung bei Twitter“

Autor: Christian Göbel


Technologie


Wie mir gerade bewusst wird, muss ich eine Aussage aus meinem Vortrag beim imx.Camp korrigieren: Twitter ist nicht bei der US-Präsidentschaftswahl im Jahre 2008 in weiten Teilen von Ruby auf Scala (Java Virtual Machine) umgestiegen, sondern erst während der US-Wahlen im Jahre 2012. Wen’s interessiert, der kann die Hintergründe hier nachlesen: Twitter’s Shift from Ruby …


Beitrag lesen
22.
Oktober
2015

Grunt concurrent und time-grunt

Autor: Florian Müller


Technologie


Gestern Abend bin ich auf einen Artikel gestoßen, welcher sich mit der Optimierung von Grunt Tasks beschäftigt hat. Vieles davon ist schon im Einsatz, aber eins hat dann doch noch gefehlt – die Parallelisierung. Dies habe ich heute morgen testweise bei einem Projekt integriert. Um vergleichbare Ergebnisse zu bekommen, welche unabhängig von anderen Build Tasks des …


Beitrag lesen
29.
Sep.
2016

XAMPP: PHPUnit installieren

Autor: Stefan Oswald


Technologie


Im Auslieferungszustand funktioniert das in XAMPP installierte PHPUnit nicht, bzw. nicht so wie wir das bei infomax gerne hätten. Folgende Anleitung beschreibt die Einrichtung einer aktuellen PHPUnit-Installation, die mit XAMPP, NetBeans und unserer imx.Platform zusammen arbeitet. PHPUnit lässt sich am besten mittels PEAR installieren. Folgende Datei herunter laden und nach x:xamppphp kopieren: http://pear.php.net/go-pear.phar Sollte die …


Beitrag lesen
05.
August
2013