ML Conference 2018

Datum: 27. Juni 2018
Autor*in: Tobias Pfannkuche


„Your scientists were so preoccupied with whether or not they could, they didn’t stop to think if they should.“

Ian Malcolm, Jurassic Park

„Machine Learning sucks. It really does.“

Dr. Pieter Buteneers, ML Conference 2018

„Don’t wait for perfection.“

Dr. Ulrich Bodenhausen, ML Conference 2018

Ein Bericht zur ML-Konferenz rund um das Thema Künstliche Intelligenz und Maschinelles Lernen. Eine recht „junge“, letztes Jahr erstmalig ins Leben gerufene Konferenz-Reihe – nicht zuletzt vor dem Hintergrund des immer weiter um sich greifenden Themas – welches auch während unseres Dev-Workshops Ende Juli sowie (Spoiler!) voraussichtlich als Artikel in der nächsten Ausgabe der grådextra bearbeitet werden wird (Synergien nicht ausgeschlossen).

 

Vorab: ich habe viel mitgeschrieben während der 3 Tage und ich werde das meiste davon in diesem Blog-Artikel unredigiert belassen und kann Unvollständigkeiten und Fehler nicht ganz ausschließen. Für mich bedeutet der Besuch der Konferenz den Einstieg in eine neue Thematik, somit bin ich für Korrekturen, Anregungen und Ergänzungen von erfahren(er)en Kollegen jederzeit offen – und ehrlich gesagt, hat mich das Thema ziemlich aufgewühlt:
Auch wenn der Artikel recht lang ist, so halte ich im Nachgang dieses Thema nach meinem derzeitigen Stand für so etwas wie den „Abschluss der Digitalen Revolution“, auch wenn das vielleicht für den einen oder anderen etwas hoch gegriffen sein mag – die Zeit wird zeigen, wie das digitale Leben nach dieser Revolution dann ausschaut, in welcher wir nach meinem Ermessen immer noch stecken – und die Geschichtsschreibung wird rückblickend dann eine Bewertung der Ereignisse und Entwicklungen machen und mir Recht oder Unrecht geben.
Dennoch denke ich, dass wir alle Teil einer faszinierenden technologischen Entwicklung sind, deren Bandbreite von „hilfreich“ bis „beängstigend“ reicht – und sämtliche Nuancen lassen sich an vielen Stellen bei entsprechender Achtsamkeit ausmachen.

Als Literatur-Empfehlung für alle, die gerne mal über den Tellerrand schauen, sei hier das Buch „Homo Deus“ von Yuval Noah Harari erwähnt (auch sein erstes Werk „Eine kurze Geschichte der Menschheit“ ist äußerst lesenswert!).

Tag 1: AI Product Workshop

Begonnen wurde der Workshop mit einer Ice-Breaker Story der etwa 20 Teilnehmer, jeder sollte eine Anekdote aus seinem Leben erzählen, welche ein Aha-Erlebnis in Kontakt mit Technologie ganz im allgemeinen war. Die Bandbreite war dabei erwartungsgemäss hoch: vom ersten Flug mit einem Flugzeug über die erste Begegnung mit einem Anrufbeantworter hin zum C64 und Robotern und am Schluss ferngesteuerte Autos.

Danach wurde beleuchtet, um was es sich eigentlich bei AI und ML handelt – denn: oftmals wünschen Kunden keine AI, sondern optimierte „SELECT … GROUP BY“ Abfragen oder verbesserte reguläre Ausdrücke!
Vielmehr geht es darum, zunächst den Kontext zu verstehen, in dem wir uns bewegen, und global und übergreifend die Problemstellungen anzugehen – Silo-Denken ist out! Es geht um die Überwindung von kulturellen und technologischen Grenzen und es geht um menschliche Interaktion; es sollen „real world“-Probleme gelöst werden, diese können meistens auch nicht übergreifend angegangen werden – keine Fantasien und fancy spreadsheets! Es geht um Service-Design und holistisches Denken – doch was ist der Scope von AI und ML? Es tummeln sich viele Buzzwords um das Thema, verschiedene Ansätze sind im Einsatz und werden probiert, u.a. in der Bild- und Farbwelt (Design) und Sprache. Meistens ist das Thema dabei auf Hardware fokussiert: Wearables als letzer Hot Shit. Storytelling soll dabei als Aufhänger dienen: präzise, genau und insbesondere enthusiastisch sollen die Probleme im wahren Leben betrachtet werden, um tragfähige Lösungen zu entwickeln.

In kurzer Gruppenarbeit wurden im Anschluss AI-Story Pitches entwickelt – mit der gleichen Bandbreite, in welcher zuvor die Ice-Breaker genannt wurden: von medizinischer Diagnose-Optimierung, Datenaggregation über optimierte Klassifizierung von Obst und Gemüse in Grossmärtken zur Müllvermeidung und Transport- und Verkehrs-Problemen hin zu „brauchbaren“ Produktempfehlungen für Shopping-Portale wurde vieles genannt.
Diese Pitches wurden als Story aufgearbeitet mit den Fragen nach den Auswirkungen auf unsere (technische) Kultur, der übermittelten Botschaft und am Schluss der Frage nach der Relevanz. Wichtig bei dieser Betrachtung: Maschinen (Computer) beherrschen Geschwindigkeit und Genauigkeit, aber nur der Mensch kann abstrakt denken und hat Emotionen und Empfindungen!

Die Frage des Formates der AI-Stories wurde erarbeitet: von der Design-Story zur AI-Story. Grundfrage ist dabei diejenige nach der biologischen Plausibilität, d.h.: wird es im echten Leben funktionieren? Weiters: können wir „vom Guten“ ausgehen, machen die anvisierten Lösungen die Interaktionen besser? Das setzt voraus, dass der Umfang des Kontextes genau entwickelt wird und das Problem klar skizziert ist. Persönliches Wohlergehen dient dabei als Motivator – aufgrund der Verwirrung durch Komplexität und Beschaffenheit des Kontextes. Das „echte“, „gefühlte“ Leben muss sich verbessern – werden wir als Menschen besser?
Komplexität muss dabei gemessen werden, geklärt werden müssen Voraussetzungen aber auch funktionale und technische Limitierungen, einzelne beteiligte System-Komponenten müssen verstanden sein. Und nicht nur die Benutzer-Interaktion, sondern auch Backend-Prozesse gehören zur Analyse der Anforderungen. Schlussendlich bleibt die Frage, welche Daten überhaupt zur Verfügung stehen – „It’s all about data!“
Wir sehen dabei die Transformation von „instant response“ zu „benefit over time“: das Nutzungsverhalten der Systeme verbessert sich dank AI über die Laufzeit, Design als Treiber von verbessertem Systemverhalten. Dabei können monopolistische Tendenzen nicht ausser Acht gelassen werden, die durch Google, Amazon & Co. und ihre Dienste offensichtlich ist. Insofern muss neben allem anderen geklärt sein, wo die Daten hingehen und wem diese nutzen.

In einem kurzen Ausflug in die Ethik unter dem Motto „I’m still a human!“ wurde klargestellt, dass eine wesentliche Herausforderung darin besteht, andere Menschen und/oder Gruppen von Menschen nicht auszugrenzen, sondern vielmehr dafür zu Sorgen, Vertrauen in technische Systeme zu schaffen und aufzubauen.
Der Vorsatz und die Motivation müssen geklärt sein: werden die AI-Systeme Bestand haben? Wie ist die Datennutzung? Welche Regularien müssen beachtet werden? Wie steht es mit der Wirtschaftlichkeit? Wie steht es um die „touchpoints of human interaction“?

 

Tag 2: Conference Sessions

Die Eröffnung der eigentlichen Konferenz – wie bereits oben erwähnt, erst der zweiten ML-Konferenz, die erste fand letzten Herbst in Berlin statt.
Das Motto: „Down to earth – focus on what is possible today“. Nach offenbar eher wissenschaftslastigen, theoretischen Erörterungen der letzten Konferenz den Fokus auf den aktuellen Stand der Dinge und die Vorstellung der Möglichkeiten legen.
Auch vor dem Hintergrund von ethischen Fragestellungen und moralischer Verantwortung im Umgang mit ML und eventueller Mehrdeutigkeit von Algorithmen – von helpful bis scary.

Keynote: „Cracking Open the Black Box of Neural Networks“

Eine kurze, wirklich sehr kurze Einführung in das doch hochkomplete Thema der neuronalen Netze (Video-Blog: https://www.youtube.com/c/ArxivInsights). Erste wissenschaftliche Publikationen erschienen bereits Ende der 50er Jahre, in Anlehnung an die neuronalen Strukturen des menschlichen Gehirns wurden Konzepte für neuronale Netze entworfen. Über die letzten Jahrzehnte entwickelte sich der Pfad von „Perception“ über „Backpropagagion“ hin zu „convolution nets“.
Die Entwicklungen der letzten Jahr haben die Voraussetzungen massgeblich verbessert: es existieren große Datenmengen, die Rechenleistung hat sich kontunierlich verbessert, und die Algorithmen wurden und werden ständig optimiert. Aktuelle Einsatz-Szenarien sind u.a. Krebs-Früherkennung, realtime Objekt-Erkennung und Übersetzungs-Tools.

Allerdings scheint sich im Umgang mit ML ein grundsätzlicher Paradigmen-Wechsel abzuzeichnen, von Software 1.0 zu Software 2.0: vormals wurden Daten und Programme einem Computer übergeben, um Ergebnisse zu produzieren – jetzt ändert es sich dahingehend, dass Daten und Ergebnisse einem Computer-System übergeben werden, um mittels automatisiertem Lernen die Programme quasi als Output zu erzeugen.

Das derzeit größte Problem, welches von der wissenschaftlichen Forschung bearbeitet wird, ist die Diskrepanz zwischen „Causation“ und „Correlation“ – die Herausforderung ist, analog zu Menschen, das in einer Domäne erlernte auf andere Domänen zu übertragen. Dieser Punkt stellt derzeit die größte Verwundbarkeit von ML-Systemen dar.

Introduction to Deeplearning4J

Ein Einblick in ein Java-basiertes Framework bzw. eine Sammlung an Frameworks („Umbrella-Project“). Bisher gab es vor allem Lösungen auf Basis Python – die Motivation des Projekt-Initiators für eine (neue) Java-basierte Lösung war die Umständlichkeit und Komplexität in der Einrichtung und Nutzung.
Es wurden diverse Frameworks und APIs angesprochen und tut sich hier sehr viel, die meisten Projekte sind noch in Entwicklung und haben keine finalen Releases, damit ist aber in naher Zukunft zu rechnen.
Grundempfehlung: stelle sicher, dass die Datengrundlage verstanden wurde, und dass das Problem klar definiert und abgegrenzt ist!
Leider hat diese Session nicht meine Erwartungen erfüllt – ich hätte mir mehr hands on erwartet, um einmal den Einsatz von ML in der Java-Welt zu sehen.

Add Intelligence to your Applications with Amazon ML Services

Amazon investiert bereits seit über 20 Jahren in ML – im Rahmen von Logistik, Bestellabwicklung, Produktempfehlungen – und neuerdings mit Alexa als Deep-Learning-Platform. Weitere Entwicklungen laufen, insbesondere in Hinblick auf das „online Shopping“-Erlebnis – aber auch offline mit „echten“ Geschäften und automatisierter Erkennung der ausgewählten Produkte und Rechnungsstellung gänzlich ohne Kassensysteme.

Die AWS-ML Komponenten werden auch als Software-Dienst anderen Kunden zur Verfügung gestellt, zahlreiche namhafte Unternehmen finden sich auf der Liste der Nutzer. Die sogenannte AWS Developer Console stellt dabei den Einstiegspunkt dar.

Es wurden ein paar exemplarische Anwendungsfälle und die korrespondierenden APIs in Kürze vorgestellt:

  • „Vision“: Bild- und Gesichts-Erkennung inkl. Vergleich zur Optimierung von Bild-Bibliotheken, Texterkennung in Bildern, Bild-Moderation. Video-Analyse stellt dabei eine spezielle Herausforderung dar – die aber (natürlich…) auch gelöst wurde.
  • „Speech“:
    • Amazon Polly: Umwandlung von Text in Sprachausgabe, inkl. virtueller Animation; dabei gibt es spezielle Markups, um die Sprachausgaben „intelligenter“ (Betonung, Pausen, etc.) zu gestalten. ML findet dabei Einsatz, um eigenständig die Aussprache zu optimieren, sowie um Erweiterungen wie Lexika zu berücksichtigen.
    • Amazon Transcribe: Spracherkennung
  • „Text“
    • Amazon Comprehend: intelligente Texterkennung und (teil-)automatisiertes Dokumenten-Management
    • Amazon Translate:  mit Unterstützung von ML für professionalisierte Übersetzung

Mit Amazon Lex wurde eine Suite an Applikationen geschaffen, um intelligente Maschinen-Interaktion als Bot-System möglich zu machen, bspw. die Abbildung kompletter Bestellprozesse. Die o.g. ML-APIs können (natürlich) bei Bedarf integriert werden.

Insgesamt scheint der AWS ML-Stack sehr mächtig und umfangreich – was aufgrund des Geschäftsfeldes und der schieren Größe des Unternehmens auch nicht verwunderlich ist.

Keynote: Gamified Control? – China’s Social Credit Systems

Ein ethisch-moralischer Ausflug in die ML-Welt von einer Sozialwissenschaftlerin, der sehr zum Nachdenken angeregt hat:

die Vorstellung des „social credit system“ (SCS), wie es die Zentralregierung von China seit 2014 etabliert, um auf Basis von spielerischen Ansätzen ausserhalb eigentlicher Spiel-Umgebungen (Gamifidingsbums :)) mittels Bewertungs- und Belohnungssystem die sozialen und gesellschaftlichen Probleme zu adressieren und mit möglichen Lösungen aufzuwarten. Die Frage, ob mittels Technologie soziale Probleme gelöst werden können und wie mit kritischem Denken („gläsener Bürger“) umgegangen wird, wurde angesprochen: und inbesondere, wie sich ein zentral überwachtes, gesteuertes Bewertungssystem des einzelnen auf die Entwicklung und Struktur und nicht zuletzt den Umgang miteinander auf den einzelnen und die Gesellschaft als ganzes auswirkt. Ist das Leben (nur) ein Spiel, wo man selbst ein Spieler ist und in welchem andere die Regeln machen? Wie sieht die Welt und Gesellschaft aus, die ich mit gestalte und in der ich leben möchte?

Und glaubt ja nicht, nur weil es in China ist, wären wir hier sicher: Regierungen überall auf der Welt haben das Potential erkannt und es liegt auch an uns, mit unseren Entscheidungen die Fehler der Digitalisierung zu vermeiden! Denn wissen wir, wer in Zukunft an die Macht kommt und möglicherweise unsere Daten (mis-)braucht?

Machine Learning Sucks

Mit einem Augenzwinkern wurden die Stolperfallen und (vermeintlichen) Probleme von ML beleuchtet.

Die traditionelle Software-Entwicklung wurde derjenigen mit ML gegenübergestellt: in der traditionellen Software-Entwicklung geht es um eine Abfolge und Abarbeitung von Verabreitungsschritten. Für ML werden entsprechend gekennzeichnete (labelled) Daten benötigt, um auf dieser Grundlage lernen zu können – und diese müssen vom Menschen angereichert werden – ein kostspieliges Unterfangen! Abweichungen von den erwarteten Normalzuständen können dabei vielfältige Ausprägungen haben. Wenn nicht genügend Daten vorhanden sind, dann muss das Ergebnis vorhergesagt werden. Ausserdem müssen die Daten „sauber“ sein, jede Ungenauigkeit sorgt für verzerrte Lernergebnisse. Und es müssen darüber hinaus genug Daten vorhanden sein – ob ein System Gesichter oder Felsbrocken klassifiziert, es bleibt für einen ML Algorithmus gleich!

Bei der Entwicklung von ML-Algorithmen zu beachten: es gibt kein perfektes ML-System! Ausserdem lassen sich ML-Systeme, die auf einer Datengrundlage gelernt haben, nicht auf andere bzw. erweiterte Datengrundlagen übertragen – sobald sich die Ausgangsbasis ändert, schlägt das ML fehl. Es ist eine Gratwanderung zwischen Modellierung und Parametrisierung, um den bestmöglichen Algorithmus zu entwickeln – der aber am Ende immer wieder (mit abweichenden Daten) ausgetrickst werden kann.

Unbestreitbar wird ML weiter Jobs vernichten und weite Teile unseres Lebens verändern: so wird etwa autonomes Fahren nicht nur Teil des Alltags, sondern voraussichtlich 9 von 10 Herstellern werden verschwinden sowie Jobs, welche Autofahren involvieren (Taxi, Müll, Krankenwagen) obsolet machen – aber: dafür sinken bspw. auch die individuellen Kosten, da autonomes Fahren viel kostengünstiger ist als herkömmliche Autos. Was ML allerdings (noch?) nicht kann: Dinge neu erfinden!

ML-Startups schiessen aus dem Boden – aber die Frage nach dem Geschäftsmodell wird oftmals vernachlässigt, da ML der nächste „hot shit“ ist. Deshalb sollten wir uns die Frage stellen: warum existiert meine Firma? Weil sie Kunden hat! Was ist es, das die Kunden bindet? Weil wir einen Mehrwert generieren – ob wir dabei ML benutzen oder nicht, ist erstmal nachrangig. Erst wenn die Voraussetzungen – viele, viele Daten – verfügbar sind, dann kann über den Einsatz von ML nachgedacht werden.

Amazon SageMaker: Building, Training and Deploying Machine Learning Models Efficiently and at Scale

Wieder eine Amazon-Session – mangels Alternative im Parallel-Track: dieses Mal geht es um den Managed-Service SageMaker, welcher die Einführung von ML vereinfachen soll, da oftmals das Thema aufgrund Komplexität und Wartbarkeit abschreckt. Letzteres wird mit SageMaker adressiert: mittels auf den ersten Blick vorgefertigten Tools und Web-Interfaces, die in isolierten Container-Umgebungen laufen.

 

Tag 3: Conference Sessions

Ein Session-Wechsel in letzter Minute: anstelle von „Preparing Text Input for Machine Learning“ dann

Quick Start with AI for Businesses

insbesondere vor dem Hintergrund: wie könnte die Integration von AI/ML bei infomax aussehen?

Dass AI/ML die (IT-)Welt in atemberaubender Geschwindigkeit verändert, ist mittlerweile eine unausweichliche Tatsache. Die Herausforderung ist für bestehende Unternehmen, diesen technologischen Ansatz in bestehende Abläufe und das Geschäftsmodell zu integrieren – die Varianten:

  • ein eigenständiges AI-Team innerhalb des Unternehmens
  • Aufkauf einer Firma und damit Integration von bestehendem KnowHow
  • Gründung eines Start-Up (Tochter-)Unternehmens

Die vielfältigen Erfahrungen des Vortrags-Redners präferieren dabei den integrierten Ansatz: anhand eines Beispiel-Projektes wurde aufgezeigt, dass die ursprünglich als externe Firma (Start-Up) angedachte Ansatz schlussendlich zu einer (Re-)Integration des Know-Hows nach dem Verkauf ebendieser Firma geführt und damit am Ende zu höheren Kosten geführt hat.

Für bestehende Unternehmen ist zu entscheiden, wie hoch eine mögliche Investition angesetzt ist und welches Risiko man bereit ist, einzugehen. Die Zusammenarbeit von verschiedenen Abteilungen, ggf. im Rahmen von Workshops, ist dabei unausweichlich: wie bereits mehrfach auf der Konferenz angesprochen, ist eine saubere Datengrundlage zwingende Voraussetzung für eine mögliche Implementierung von ML. Auch über die Zielsetzung muss zwingend Konsens herrschen, um ML-Projekte erfolgreich auf den Weg zu bringen. Eventuell muss sich externes Know-How eingekauft werden als Beratungsleistung und möglicherweise Strategie-Beratung.

Der agile Ansatz wurde als erfolgversprechend dargestellt: mit kleinen Datenmengen beginnen, um die Lernerfolge schrittweise zu optimieren – und mit dem Produkt wachsen.

Um zum Ausgangspunkt zurückzukehren: der Fokus der Session lag auf größeren Unternehmen, nichts desto trotz können die geschilderten Erfahrungen möglicherweise hilfreich sein, um eine eventuelle Weichenstellung für ML bei infomax zu nutzen.

Natural Language Support with LUIS

Eine Einführung in das Thema der Spracherkennung mittels Microsoft’s Cognitive Service „Language Understanding Intelligent Service“ (LUIS): Technologien wie bspw. Alexa stellen eine große Herausforderung dar, User Interfaces arbeiten vermehrt mit Spracherkennung – und die Benutzer stellen immer höhere Ansprüche an Funktionalität.

Der Vortragsredner ist „echter“ Entwickler mit allem was dazugehört: es muss alles funktionieren, aber dafür stehen weder genug Zeit noch genug Budget zur Verfügung. Anstelle die steigenden Anforderungen mit Entwicklungen von Scratch zu abzubilden, wird mit LUIS ein verhältnismässig einfacher technischer Einstieg vorgestellt: durch die Übergabe von Text (oder Audio) an LUIS werden neben der Ermittlung der Absicht die relevanten Parameter extrahiert, um auf dieser Basis etwa eigene Bots umzusetzen. Trotz eines vermeintlich schlanken Ansatzes und auf den ersten Blick eindrücklicher Vorführung erfordert es allerdings Aufwand, um Modelle zu trainieren: das System muss insbesondere in der Anfangsphase kontinuierlich mit Daten und Parametern „gefüttert“ werden, um weiter optimiert zu werden; dafür muss die entsprechende Man-Power bereitstehen.

Boost your App with Machine Learning APIs

Als nächstes Google, welches bisher auf der Liste der big player gefehlt hat: die Vorstellung von fertigen Lern-Algorithmen als Teil der Google-Cloud Platform (GCP), die mittels ML-APIs auch auf die eigenen (Bestands-)Daten angewendet werden können. Dabei spielt das Format keine Rolle – gängige Datenformate werden unterstützt und können durch Anwendung von bestimmten ML-Modellen analysiert werden: Spracherkennung (Natural Language API), Übersetzung, Speech-To-Text (und vice versa), Bildanalyse (Vision), Video.

Erwähnenswert ist, dass die Übersetzungs-API seit längerem erfolgreich bei Hamburg Tourismus im Rahmen des imx.Eventmanager2 im Einsatz ist und dort die Anbindung von externen Datenlieferanten optimiert.

Die Live-Demo war erwartungsgemäss beeindruckend – und es wird sicherlich nicht das Ende der Fahnenstange sein.

Panel: Road to Succeed – Ask the Experts

Für alle Teilnehmer eine offene Diskussions-Runde zu den bisherigen Sessions. Auch wenn die Zeit recht kurz bemessen war, so die wichtigste Erkenntnis auf meine Frage nach dem Einsatz von ML in kleinen Unternehmen wie infomax: zunächst sollte geprüft werden, ob es für den Einsatz von ML tatsächlich reele Anwendungs-Szenarien gibt, ggf. mit externer Beratung sollten die möglichen Szenarien detailliert beleuchtet werden. Danach kann eine Evaluierung stattfinden, ob es möglich ist bzw. sich lohnt, in den Aufbau und später die Implementierung von ML-KnowHow zu investieren – schlussendlich handelt es sich um eine strategische Entscheidung, die nicht unerhebliche Kosten nach sich zieht, oder ob „Workarounds“ um das Problemfeld nicht doch die praktikablere Lösung ist.

AI really is all that!

NVIDIA – was hat eine Firma aus dem Grafik-Bereich mit ML zu tun? Sehr viel – und mehr als man möglicherweise denkt! Themen wie autonomes Fahren, Bild- und Videoverarbeitung, Visualisierung und Simulation von Klima- und Wettermodellen – die Liste ist lang, und NVIDIA bezeichnet sich selbst als führender AI-Hersteller. Die GPU (der Grafik-Prozessor) entlastet die CPU bei ML-Berechnungen und übernimmt die spezialisierten Aufgaben, für welche dieses Hardware-Bauteil entwickelt wurde, hier ist die besonders die Möglichkeit für parallele Verarbeitung hervorzuheben.

Hier wurde auch nochmal die historische Entwicklung des Themas herausgearbeitet: von Artifical Intelligence (erstmals in den 50er Jahren erwähnt) über Machine Learning hin zu Deep Learning als Treiber des aktuellen Hypes: die Investitions-Summen und Menge an Start-Up-Unternehmen sind exponentiell gestiegen in den letzten Jahren. Dabei wurden die unterschiedlichen Ansätze (supervised vs. non-supervised learning) sowie die Hintergründe aus Wissenschaft und Forschung gestreift. NVIDIA arbeitet u.a. viel an autonomem Fahren, der Roboter-Entwicklung und Medizin-Technik – mit beeindruckenden Ergebnissen und einer atemberaubenden Geschwindigkeit von technischen Entwicklungen: eigene, optimierte Hardware-Komponenten werden in kürzester Zeit von anderen, eigenen Komponenten „überholt“. Auch die NASA und das CERN werden mittels Hard- und Software massgeblich unterstützt. Sämtliche Software ist dabei open source (https://developer.nvidia.com/).

Der Anspruch: trotz der Furcht vor dem Abbau von Jobs, geht es schlussendlich um die Verbesserung des menschlichen Lebens durch die Mittel der selbstlernenden Maschinen.

Ob sich dieser Anspruch bestätigen wird – tja, das wird dann wohl die Zukunft zeigen…

Fazit

Für eine junge Konferenz-Reihe, die sich bewähren muss, eine äußerst spannende Tiefe und thematische Vielfalt mit unerwartet hoher Teilnehmerzahl: auffällig war, dass zahlreiche Teilnehmer von weit her angereist waren – einzelne sogar aus Brasilien und Indien. Das Thema ML bleibt spannend – nicht nur technologisch, sondern auch soziologisch-ethisch kann und wird sich in der kommenden Zeit viel tun, soviel lässt sich jetzt schon sagen: unser aller digitales Leben wird weiter und tiefer von ML durchdrungen werden, ob wir wollen oder nicht. Inwieweit sich das auf unseren beruflichen Alltag bei infomax auswirken wird, bleibt hingegen abzuwarten – ich für meinen Teil werde achtsam sein und bin gespannt!


Kommentare

Selber kommentieren:






Weitere Beiträge zum Thema Technologie


„Wir sind Open-Data ready.“

Autor*in: Christine Pfleger


Projekte   //   Technologie


Beim Thema Datenmanagement in Destinationen zählt der Tourismusverband Mecklenburg-Vorpommern e.V. (TMV) zu den Vorreitern. Ein Gespräch mit Carsten Pescht über die Anforderungen an ein Datenmanagement-System – und was die imx.Platform für die Destination leistet.


Beitrag lesen
06
OKT
20

Messung Dokumentgröße

Autor*in: Bastian Schwarz


Projekte // Technologie


Seit kurzem scheint die Anzeige der Dokumentgröße über die Web Developer Toolbar im Firefox nicht mehr korrekt zu funktionieren. Es wird häufig die Komprimierung von Scripten / Stylesheets nicht mehr korrekt erkannt.  Alternative Google Chrome – Developer Tools  Kurzanleitung Über Tools – Entwicklertools öffnen, auf „Network“ Tab wechseln, Seite mit Strg+F5 neuladen. Jetzt sieht man …


Beitrag lesen
16
APR
13