Google vereinfacht Nutzung seines Angebots für Maschinenlernen

Mit dem nun gestarteten Open-Source-Projekt TensorFlow Serving sollen Entwickler Machine-Learning-Modelle einfacher in ihre Vorhaben übernehmen können. Zwar ist das Angebot für Googles im Herbst vergangenen Jahres veröffentlichtes TensorFlow ausgelegt, es kann dem Unternehmen zufolge aber auch für andere Modelle und Daten genutzt werden.
Google hat mit TensorFlow Serving ein Open-Source-Projekt auf Github gestartet, mit dem es Entwicklern erleichtert werden soll, Maschinenlernen in ihre Anwendungen zu integrieren. Die Software steht unter der Apache 2.0 Lizenz. Sie ist in C++ geschrieben und auf hohe Leistungsfähigkeit getrimmt. Laut Google lassen sich damit auf einem Server mit 16-Kern-Xeon-Prozesser pro Sekunde100.000 Queries pro Sekunde abarbeiten.
TensorFlow hatte Google im November vergangenen Jahrs vorgestellt und unmittelbar als Open Source verfügbar gemacht. Es soll Entwicklern helfen Algorithmen zu erstellen und diese für die Verarbeitung von bestimmten Arten von eingehenden Daten zu optimieren. Mit TensorFlow Serving soll Entwicklern dagegen geholfen werden, die mit TensorFlow erstellten Modelle in der Praxis anwendbar zu machen und auf Input von Clients anzupassen. Tutorials dazu finden sich ebenfalls auf GitHub. TensorFlow Serving kann laut Google auch auf GPUs zurückgreifen, die Verarbeitung auf einer Maschine zu beschleunigen.
TensorFlow Serving ist zwar zunächst für TensorFlow ausgelegt, soll Google zufolge aber auch auf andere Bibliotheken für Maschinenlernen angepasst werden können. Es soll zudem nicht nur helfen, die entwickelten Modelle in die Praxis zu übertragen, sondern bietet auch die Möglichkeit, mehrere Algorithmen und Datenmodelle auszuprobieren ohne die einmal bewährte Architektur und APIs zu verändern. Außerdem erlaube es Entwicklern, bei gleichbleibender Architektur Modelle zu verfeinern oder den Output zu modifizieren.
Um seine Angebote im Bereich Maschinenlernen und Künstlicher Intelligenz zu verbessern, hatte sich Google im Herbst 2015 als Gesellschafter am Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) beteiligt. Dass DFKI ist für Google vor allem wegen seiner Kompetenz bei Technologien für die Analyse von Bildern, Videos sowie gesprochener und geschriebener Sprache interessant. Die beiden arbeiten bereits länger zusammen. Google Translate nutzt etwa Algorithmen, die in einem DFKI-Projekt entwickelt wurden.
Ende Januar hatte Microsoft bereits das Deep-Learning-Toolkit CNTK bei GitHub zur Verfügung gestellt. Es richtet sich an Entwickler, die Lernmodelle für Sprach- und Bilderkennung entwickeln wollen. CNTK war zwar schon seit April 2015 Open Source, wurde aber zuvor nur auf Microsofts Repository CodePlex bereitgestellt, womit Nutzer an Microsofts Academic License gebunden waren. Seit Januar können sie es nun unter der MIT-Open-Source-Lizenz nutzen. Damit fielen viele zuvor geltende Beschränkungen weg und wurde CNTK für Dritte in der Praxis relevant.
Maschinenlernen halten viele Beobachter für eine besonders wichtige Voraussetzung für alle neuen Anwendungen. Was heute lediglich in Ansätzen in Apples Siri, Microsofts Cortana oder Amazons Echo steckt, soll schon bald in einer großen Zahl von Apps Verwendung finden. Nutzer müssen sich dann unter anderem nicht mehr unbedingt an vergebene Menüstrukturen halten, sondern können mit den Anwendungen entweder in natürlicher Sprache oder Text kommunizieren.
Außerdem können die Anwendungen dann Aktionen in den Zusammenhang einordnen oder im Rahmen des Internets der Dinge von anderen Datenquellen – etwa Messwerten von Sensoren – abhängig machen. Denkbar wäre so etwa ein Smart-Home-System, das auf die Aussage des Nutzers “Es ist hier drin zu warm” im Sommer damit reagiert, das es die Klimaanlage anschaltet und im Winter aufgrund der ihm bekannten Außentemperaturen und Werte der Heizungsanlage die Temperatur der Heizung reduziert.