Machine Learning: Was wie wo und womit

Grafik: Machine Learning in deutschen Unternehmen
Eine deutsche Studie deutet an, wo Machine Learning heute steht. Und welche Daten man mit welchen Tools auswertet.
 
"Künstliche Intelligenz ist kein Hype- und Marketing-Trend für die Internetkonzerne", so die Ausgangslage einer Studie aus Deutschland. Um die These zu untermauern, haben die Autoren im Auftrag von Dell EMC und The unbelievable Machine Company empirisch untersucht, wie verbreitet Machine Learning tatsächlich ist und wofür es eingesetzt wird.
 
Der Untersuchungsraum ist zwar Deutschland, aber da das Thema auch bei Schweizer Firmen hoch auf der Agenda steht, fassen wir hier einige Ergebnisse zusammen.
 
Viele deutsche Unternehmen, nämlich die Hälfte, haben Machine Learning (ML) in irgendeiner Form im Einsatz. Die meisten verbinden damit handfeste kommerzielle Hoffnungen: 20 Prozent der Wertschöpfung, so die Prognose, soll ML bei neuen digitalen Produkten und Services bringen. Und dies bereits 2020.
 
Die Auftraggeber der Studie dürften es gerne gelesen haben, dass mit Machine Learning-Hoffnung auch mit dem Einsatz neuer Spezial-Hardware verbunden sein kann: 31 Prozent der Befragten will Budget für GPU-Cluster reservieren. Weitere haben zumindest den Plan, sich damit zu beschäftigen.
 
Neue Datenquellen? Schon, aber...
Pläne sind sehr gut, die richtige Hardware für die richtigen ML-Algorithmen ist sehr wichtig. Aber ohne Daten läuft gar nichts. Und hier könnten die Studienergebnisse manche verblüffen.
 
Die Daten kommen bei den Untersuchten zum einen von Maschinen, zum zweiten aus der Produktion und gar nicht zuletzt aus ihren SAP-Systemen. Satte 59 Prozent setzen auf SAP-Daten (aus dem On-Premise-Umfeld sind es 36 Prozent und im Public-Cloud-Umfeld sogar 64 Prozent).
 
Digitale Use Cases? Neue digitale Datenquellen aus der grossen weiten Welt? In Deutschland nicht wirklich relevant. In der Businessrealität nutzt man die Daten, die schon im ERP stecken. Sie bilden die Lernbasis und mit ihnen will man lernen, wie Produktions- und Geschäftsprozesse schneller, besser, lukrativer gemacht werden können.
 
Und wo werden die Daten für den Machine Learning Workflow gespeichert, wollten die Autoren ebenso wissen: Im SAP natürlich bei den allermeisten. Hadoop-Cluster, Objektspeicher und Data Warehouse landen abgeschlagen auf den Plätzen, ob es um On-Premise oder Cloud geht.
 
SAP hin oder her, man sucht bei den Befragten doch nach weiteren Datenquellen. Wer kann, beschafft sich IoT-Daten (31 Prozent). Externe Datenquellen schöpfen 30 Prozent ab. Dabei kann es sich beispielsweise um Wetterprognosen
Grafik: Machine Learning in deutschen Unternehmen
handeln, Browser-Daten oder solche, die Fitnesstracker liefern.
 
Ohne IT-Dienstleister geht wenig
Machine Learning ist ein neues Thema und ein breites. So greifen die Unternehmen gerne auf sachkundige Partner zurück: Damit gemeint sind in Deutschland nicht zuerst Unternehmensberater, sondern primär IT-Dienstleister (75 Prozent). Universitäten oder Startups sind für knapp einen Fünftel der Befragten ein sinnvoller Partner.
 
Und was will man von diesen denn? "Den Einstieg in das Thema findet für ein Grossteil der Unternehmen über die Cloud mittels 'Machine Learning as a Service' (55 Prozent) statt". Das heisst, man bucht die als Rundum-Sorglos-Pakete angepriesenen Services der grossen Cloud-Anbieter.
 
Aber das ist nicht alles. "In produktiven Einsatzszenarien spielen aber auch das Hosting (25 Prozent) sowie der eigene Betrieb von Frameworks in der Cloud (36 Prozent) eine wichtige Rolle", so ein weiteres Fazit.
 
Am liebsten "Machine Learning Marke Eigenbau"
Die Studie gräbt auch tiefer: Welche Tools und Frameworks sind denn beliebt? Nicht wirklich beliebt bislang, so die Autoren, ist MXNet. Gerade sieben Prozent vertrauen darauf, und dies obwohl es von AWS speziell im Service-Modell gepusht wird und auch auf Azure läuft.
 
Vielversprechender scheint den Lernwilligen die Versprechungen von Deep Learning und neuronalen Netzwerk-basierten Lösungen: Je 19 Prozent nennen Chainer, das Computational Network Toolkit und die DeepLearnToolbox als Tool ihrer Wahl. Und das CuDNN-Projekt für Grafikkarten von Nvidia kommt auf 17 Prozent der Nennungen. Nicht spezifizierte proprietäre Lösungen beziehungsweise Eigenentwicklungen werden von 31 Prozent genannt.
 
Die Studie zeigt auch wie deutsche Firmen ihre Teams organisieren und diverse Details. Sie kann gegen Adressangabe als PDF heruntergeladen werden. Sie ist nach Aussage der Autoren repräsentativ. (Marcel Gamma)