Veröffentlicht am: Apr 4, 2018
Auf der re:Invent 2017 haben wir AWS Greengrass ML Inference vorgestellt, eine neue Funktion von AWS Greengrass, die es Ihnen ermöglicht, maschinelle Lerninterferenzen auf IoT-Edge-Geräten auch ohne Cloud-Konnektivität auszuführen. Heute freuen wir uns, die allgemeine Verfügbarkeit von AWS Greengrass ML Inference bekanntgeben zu dürfen. Seit der Einführung unserer Vorversion auf der re:Invent haben wir Funktionserweiterungen hinzugefügt, um Ihre Erfahrung bei der Verwendung von AWS Greengrass ML Inference zu verbessern. Wir haben es Ihnen einfacher gemacht, Machine Learning-Modelle auf Ihren IoT-Geräten bereitzustellen und auszuführen. Zusätzlich zu Apache MXNet enthält AWS Greengrass ML Inference jetzt ein vorgefertigtes TensorFlow-Paket, sodass Sie das ML-Framework für Ihr Gerät nicht von Grund auf neu erstellen oder konfigurieren müssen. Diese ML-Pakete unterstützen die Geräte von Intel Atom, NVIDIA Jetson TX2 und Rasperry Pi. Weitere Informationen zu Greengrass ML Inference finden Sie hier.