Amazon-SageMaker-Kunden
Erfahren Sie, wie führende Unternehmen weltweit Amazon SageMaker verwenden, um Modelle für Machine Learning (ML) zu entwickeln, zu trainieren und bereitzustellen.Articul8 AI
„Amazon SageMaker HyperPod hat uns enorm dabei geholfen, unsere Datenverarbeitungsressourcen mit minimalen Ausfallzeiten effizienter zu verwalten und zu betreiben. Wir haben den Slurm-basierten HyperPod-Service schon früh eingeführt und von seinen benutzerfreundlichen und robusten Features profitiert, was zu einer Produktivitätssteigerung von bis zu 35 % und einer schnellen Skalierung unseres GenKI-Betriebs geführt hat. Als Kubernetes-Unternehmen freuen wir uns nun sehr, die Einführung der Amazon-EKS-Unterstützung für SageMaker HyperPod begrüßen zu dürfen. Dies ist ein entscheidender Faktor für uns, da es sich nahtlos in unsere bestehenden Trainingspipelines integrieren lässt und es uns noch einfacher macht, unsere großen Kubernetes-Cluster zu verwalten und zu betreiben. Darüber hinaus hilft dies auch unseren Endkunden, da wir nun in der Lage sind, diese Funktionen in unserer GenKI-Plattform zu bündeln und zu produzieren, sodass unsere Kunden ihre eigenen Trainings- und Feinabstimmungs-Workloads effizienter ausführen können.“
Arun Subramaniyan, Gründer und CEO von Articul8 AI
Observea
„Als agiles Startup und KI-Forschungsunternehmen hat die Unterstützung von Amazon EKS in SageMaker HyperPod entscheidend dazu beigetragen, unsere Markteinführungszeit zu verkürzen. Mit SageMaker Hyperpod waren wir in der Lage, eine stabile und sichere Plattform auf den Markt zu bringen, um unseren Endkunden containerisierte High-Performance-Compute-Anwendungen (HPC) als Service anzubieten. Dazu gehören führende KI-Forschungsprogramme von Universitäten, KI-Startups und herkömmliche Unternehmen. Durch den Einsatz von SageMaker HyperPod müssen sich unsere Kunden und internen Teams keine Gedanken mehr über den Betrieb und die Konfiguration der Kubernetes-Steuerungsebene machen. SageMaker HyperPod bietet die Netzwerkleistung und optimierte Konfigurationen zur Unterstützung komplexer HPC-Workloads. Mit EKS-Unterstützung in SageMaker HyperPod können wir die Zeit reduzieren, die wir für undifferenzierte Schwerstarbeit im Infrastrukturmanagement aufgewendet haben, und die Betriebskosten um über 30 % senken.“
Vamsi Pandari, Gründer von Observea
Recursal AI
„Der gesamte Prozess wurde optimiert. Mit SageMaker HyperPod können wir die Vorteile der Cluster-Resilienzfeatures nutzen, die Trainingsaufträge vom zuletzt gespeicherten Checkpoint identifizieren und im Falle eines Hardwarefehlers automatisch wiederherstellen. Wir führen sehr unterschiedliche Workloads aus – von der Anwendung über die Inferenz bis hin zum Training – mit Kubernetes als dem roten Faden. Für uns funktioniert Amazon EKS mit SageMaker HyperPod einfach: Die Knoten fallen einfach in unseren Cluster.“
Nathan Wilce Infrastructure/Data Lead, Recursal
Rocket Mortgage
„Rocket Mortgage ist stolz darauf, mit AWS als wichtigem Partner, KI und Datenwissenschaft in den Weg zum Eigenheimbesitz zu integrieren, an vorderster Front zu stehen. Mithilfe von Amazon SageMaker transformieren wir unsere Abläufe bei Machine Learning und steigern so Effizienz und Präzision. Der visuelle Editor von SageMaker Pipelines ermöglicht schnelle Leistungsbewertungen neuer Open-Source-LLMs, indem er sie durch unsere automatisierte Validierungs-Pipeline laufen lässt. Dadurch wird der Zeitaufwand für die Evaluierung neuer Versionen minimiert, was in einer schnelllebigen Umgebung von entscheidender Bedeutung ist. Dank der Benutzerfreundlichkeit können sich unsere Datenwissenschaft-Teams auf Innovationen konzentrieren, anstatt Code neu zu schreiben.“
Shawn Malhotra, Chief Technology Officer von Rocket Companies
SatSure
SatSure ist ein in Indien ansässiger weltweit führender Anbieter von Geodaten-Entscheidungsintelligenz-Lösungen. Es nutzt Erdbeobachtungsdaten und Deep-Learning-Modelle, um Einblicke für eine Vielzahl von Anwendungsfällen zu generieren. Diese reichen von der Überwachung von Ernten bei jedem Wetter und der Bewertung von landwirtschaftlichen Risiken bis hin zur Erkennung von Veränderungen der Bodenbeschaffenheit, Vegetationsmanagement, Risiko für Feuer und der Identifizierung von Landmerkmalen.
„Wir nutzen Amazon SageMaker Pipelines, um Modelle für eine Anwendung zu erstellen, die die Grenzen landwirtschaftlicher Betriebe in Satellitenbildern mit niedriger Auflösung identifiziert. Die Entwicklung hochmoderner Deep-Learning-Modelle aus großen Satellitenbilddatensätzen ist äußerst schwierig. Wir können uns stärker auf KI-Innovationen konzentrieren und verbringen weniger Zeit mit manuellen Prozessen, da wir mithilfe von Pipelines die häufige Datenvorverarbeitung, das Modelltraining und die Modellbereitstellung automatisieren können. Die Drag-and-Drop-Benutzeroberfläche erleichtert es neuen Datenwissenschaftlern im Team, schnell loszulegen und ML-Workflows zu erstellen, ohne dass spezielle Kenntnisse über ein bestimmtes Workflow-Orchestrierungs-Framework erforderlich sind.“
Prateep Basu, Gründer und CEO von SatSure Ltd.
EagleView
„Um der Nachfrage unserer Kunden nach qualitativ hochwertigen Dateneinblicken gerecht zu werden, forschen wir ständig an neuen ML-gestützten Funktionen und stellen diese bereit. Die neue Drag-and-Drop-Benutzeroberfläche von Amazon SageMaker Pipelines bietet unseren Datenwissenschaftlern die Möglichkeit, sich auf die schwierigeren Probleme der Computer Vision (CV) zu konzentrieren, ohne sich Gedanken über MLOps machen zu müssen. Wir entwickeln Pipelines, die es Datenwissenschaftlern ermöglichen, ihre Modelle einfach in SageMaker zu registrieren, ohne sich mit den ML-Ingenieuren abstimmen zu müssen, um die Bereitstellungsumgebung für das Modell zu optimieren. Die mehrstufige Pipeline stellt registrierte Modelle automatisch auf Amazon-SageMaker-Inference-Endpunkten in QA-Umgebungen für Lasttests und, sofern von ML-Technikern genehmigt, in Produktionsumgebungen bereit. Die Gesamtgeschwindigkeit unserer umfassenden ML-Entwicklung hat sich erheblich verbessert, da Amazon SageMaker Pipelines die Integration mit anderen AWS-Services (CI/CD, Messaging-Services) zur Erstellung hochgradig maßgeschneiderter ML-Workflows erleichtert.“
Garrett Hemann, Leiter KI/ML, EagleView
GoDaddy
Wir bei GoDaddy wollen Unternehmern zum Erfolg verhelfen, indem wir ihnen die Werkzeuge für den Aufbau ihres Unternehmens an die Hand geben. „Wir betreuen Kunden mit unterschiedlichen Bedürfnissen. Sie kommunizieren mit den Unternehmen, die sie unterstützen, oft rund um die Uhr und über verschiedene Kanäle wie E-Mail, Chat und soziale Medien“, so Jing Xi, VP Applied ML and AI, GoDaddy. „Heute ebnet generative KI das Spielfeld für kleine Unternehmen, indem sie ihnen eine unglaubliche Menge an Macht und Wissen an die Hand gibt, die normalerweise großen Unternehmen vorbehalten sind. Eine der größten Herausforderungen für unsere Entwicklungsteams für generative KI besteht jedoch darin, herauszufinden, welches FM für ihre Geschäftsanwendungen geeignet ist. Für uns ist es wichtig, dass wir Modelle auf der Grundlage spezifischer Kriterien, die für unsere Kunden am wichtigsten sind, leicht vergleichen und das richtige Gleichgewicht zwischen Modellkosten, Latenzzeit, Modellgenauigkeit und Leistung finden können. Die neue Modellevaluierungsfunktion von Amazon SageMaker hilft uns, die Zeit von der Idee bis zur Implementierung zu verkürzen, indem wir die Komplexität des Modellauswahlprozesses beseitigen und das Experimentieren, die Entwicklung, die Bereitstellung und die Verwaltung neuer Versionen dieser Modelle vereinfachen. Wir freuen uns, den Zugang zu dieser neuen Funktion auf weitere Teams auszudehnen, damit unsere Entwickler ihre Produktivität steigern und unsere Kunden die Möglichkeiten der generativen KI nutzen können, um ihr Geschäft auszubauen.“
„GoDaddy hat bei der Nutzung von Machine Learning zur Bereitstellung kundenorientierter Feature sowie zur Verbesserung der Kosteneffizienz in unseren internen Abläufen eine Vorreiterrolle gespielt. Unsere ML-Wissenschaftler arbeiten an zahlreichen Projekten, um diese Ziele zu erreichen. Eine schnelle Iteration des ML-Workflows aus Datenkuration, Experimentprotokollierung, Modellartefaktmanagement mithilfe einer Modellregistrierung und Bereitstellung ist für die Wertschöpfung unerlässlich. Die Notwendigkeit eines maßgeschneiderten Tools wie MLflow war eine starke und klare Bitte unserer ML-Wissenschaftler. Amazon SageMaker bietet ML-Wissenschaftlern eine verwaltete und kontrollierte Plattform für durchgängige ML-Workflows. Durch die Möglichkeit, ein branchenübliches Tool wie MLflow in SageMaker zu verwenden, wird unser Modellentwicklungszyklus erheblich verbessert. Wir bieten die Sicherheit und den Reifegrad von Produkten wie Amazon SageMaker Model Registry auf Unternehmensebene und nutzen gleichzeitig das branchenübliche ML-Experiment-Tracking über MLflow. Die Einführung von MLflow von SageMaker in unseren Teams hat den betrieblichen Aufwand für die Wartung unserer eigenen, von MLflow gehosteten Instances reduziert und gleichzeitig unsere Liefergeschwindigkeit beibehalten und eine verbesserte Zusammenarbeit ermöglicht. Wir freuen uns, von Anfang an mit dem SageMaker-Team zusammengearbeitet zu haben, um dieses Produktangebot zu festigen und gleichzeitig unseren ML-Wissenschaftlern einen Mehrwert zu bieten.“
Karthik Iyer, Director, Engineering Machine Learning
KBC
„Wir bei der KBC Bank glauben, dass es für die Förderung von Innovationen unerlässlich ist, unsere Datenwissenschaftler mit den richtigen Tools auszustatten. Ein effektiver Weg zur Innovation ist das kontinuierliche Experimentieren, das es uns ermöglicht, neue Ideen zu erforschen und unsere Modelle zu verbessern. MLflow bietet eine robuste Plattform zur Verwaltung und Dokumentation von Experimenten. Es als verwalteten Service zur Verfügung zu haben wird das Benutzererlebnis für unsere Datenwissenschaftler verbessern und gleichzeitig die Einrichtung und Wartung unserer Plattform für Machine Learning vereinfachen.“
Thiago Alves, MLOps-Ingenieur
Wallapop
„Um die wachsende Zahl von ML-Experimenten effektiv zu verwalten und den erfolgreichen Einsatz der Modelle sicherzustellen, ist es entscheidend, über ein robustes System zur Verfolgung von Experimenten und zur Registrierung von Modellen zu verfügen. MLflow bietet eine effiziente Lösung für diesen Zweck, da es eine nahtlose Verfolgung aller ML-Experimente im Detail ermöglicht und nur minimale Änderungen an unserer Codebasis erfordert. Dies erleichtert die Auswahl des optimalen Modells für Wallapop und gewährleistet einen optimierten und effizienten ML-Entwicklungsprozess. Die direkte Integration und Verwaltung dieser Plattform in AWS ermöglicht es unserem Team, sich auf den tatsächlichen Wert unserer ML-Lösungen zu konzentrieren, anstatt die ganze schwere Arbeit erledigen zu müssen, die ein solcher Service erfordern würde.“
Martí Jordà Roca, Machine Learning Engineer
Bigabid
„Amazon SageMaker ermöglicht es uns, mühelos verteilte Modelle für Machine Learning in großem Maßstab zu erstellen. Anstatt uns auf manuelle Prozesse zu verlassen, können wir den Großteil der Entwicklung nahtlos in Amazon SageMaker automatisieren. Wir brauchen eine zuverlässige Methode, um den Überblick über die Leistung unserer automatisierten Trainingsaufträge zu behalten, damit wir Aufträge vergleichen, die besten Modelle finden und sie in der Produktion einsetzen können. Die Integration mit MLflow ermöglicht es uns, dies zu tun, ohne dass wir uns selbst um die Einrichtung und Verwaltung von MLflow kümmern müssen. Dies verbessert unseren Arbeitsablauf weiter und bietet robuste Funktionen für den Vergleich von Modellen und die Modellregistrierung, wodurch unsere Entwicklungs- und Bereitstellungseffizienz erheblich verbessert wird.“
Eyal Trabelsi, Data Architect
Toyota Connected
„Amazon SageMaker mit MLFlow hat als einfache, aber hocheffektive Integration mit SageMaker für die Verfolgung und Verwaltung von Experimenten und der Modellqualität einen großen Mehrwert geboten. Die native Integration von MLflow mit Amazon SageMaker hat unsere Aufgaben zur Modellverfolgung und Werbung mühelos gemacht. Weile es ein verwalteter Service ist, müssen wir uns keine Gedanken über die zugrundeliegende Infrastruktur machen, sodass wir uns auf die Verbesserung unserer Modelle und die Beschleunigung unseres Entwicklungszyklus konzentrieren können.“
Sumeet Kishnani, Managing Data Scientist
Thomson Reuters
„Thomson Reuters steht seit über 30 Jahren an der Spitze der KI-Entwicklung, und wir setzen uns dafür ein, aussagekräftige Lösungen anzubieten, die unseren Kunden helfen, schneller Ergebnisse zu erzielen und einen besseren Zugang zu vertrauenswürdigen Informationen zu erhalten. Um unsere Innovationen im Bereich der generativen KI zu beschleunigen, arbeiten wir nicht nur mit LLM-Anbietern zusammen, sondern untersuchen auch, wie benutzerdefinierte Modelle mithilfe unserer einzigartigen und firmeneigenen Inhalte und unseres menschlichen Fachwissens effizienter trainiert werden können. Die verteilten Trainingsbibliotheken von SageMaker HyperPod helfen uns, die Leistung beim Training großer Modelle zu verbessern. Und das Resilienzfeature spart Zeit bei der Überwachung und Verwaltung der Infrastruktur. Das Training unserer Basismodelle auf SageMaker HyperPod wird unsere Markteinführung beschleunigen und uns helfen, unseren Kunden schnell hochwertige Lösungen anzubieten.“
Joel Hron, Head of AI and Labs, Thomson Reuters
„Mit Amazon SageMaker HyperPod konnten wir unsere großen Anforderungen an das Training von Sprachmodellen erfüllen. Mithilfe von Amazon EKS auf SageMaker HyperPod waren wir in der Lage, die Kapazität zu erweitern und problemlos Trainingsaufträge durchzuführen, sodass wir die Vorteile von LLMs in Bereichen wie der rechtlichen Zusammenfassung und Klassifizierung nutzen konnten.“
John Duprey, Distinguished Engineer, Thomson Reuters Labs
Hugging Face
„Hugging Face hat SageMaker HyperPod verwendet, um wichtige neue Open-Foundation-Modelle wie StarCoder, IDEFICS und Zephyr zu entwickeln, die millionenfach heruntergeladen wurden. Die speziell entwickelten Resilienz- und Leistungsfunktionen von SageMaker HyperPod haben es unserem Open-Science-Team ermöglicht, sich auf Innovationen und die Veröffentlichung wichtiger Verbesserungen bei der Erstellung von Basismodellen zu konzentrieren, anstatt die Infrastruktur zu verwalten. Besonders gut hat uns gefallen, wie SageMaker HyperPod in der Lage ist, ML-Hardwarefehler zu erkennen und die defekte Hardware schnell auszutauschen, ohne das laufende Modelltraining zu unterbrechen. Da unsere Teams schnell innovativ sein müssen, half uns dieses automatische Feature zur Wiederherstellung von Arbeitsplätzen dabei, Unterbrechungen während des Trainingsprozesses des Grundmodells zu minimieren, sodass wir in nur einem Jahr Hunderte von Stunden an Trainingszeit einsparen konnten.“
Jeff Boudier, Produktleiter bei Hugging Face.
Perplexity AI
„Wir waren auf der Suche nach der richtigen ML-Infrastruktur, um die Produktivität zu steigern und die Kosten zu senken, um leistungsstarke große Sprachmodelle zu erstellen. Nach einigen erfolgreichen Experimenten wechselten wir von anderen Cloud-Anbietern zu AWS, um Amazon SageMaker HyperPod zu verwenden. Wir verwenden HyperPod seit vier Monaten, um die LLMs zu erstellen und zu optimieren, um die Perplexity Conversational Answer Engine zu unterstützen, die Fragen zusammen mit Referenzen beantwortet, die in Form von Zitaten bereitgestellt werden. Da SageMaker HyperPod den Cluster-Zustand automatisch überwacht und GPU-Ausfälle behebt, können sich unsere Entwickler auf die Modellerstellung konzentrieren, anstatt Zeit mit der Verwaltung und Optimierung der zugrundeliegenden Infrastruktur zu verbringen. Die integrierten Daten- und Modellbibliotheken von SageMaker HyperPod halfen uns, die Trainingszeit auf GPUs zu optimieren und den Trainingsdurchsatz zu verdoppeln. Dadurch können unsere Trainingsexperimente jetzt doppelt so schnell ablaufen, was bedeutet, dass unsere Entwickler schneller iterieren können, was die Entwicklung neuer generativer KI-Erlebnisse für unsere Kunden beschleunigt.“
Aravind Srinivas, Mitbegründer und CEO von Perplexity AI
Workday
„Mehr als 10 000 Unternehmen auf der ganzen Welt verlassen sich bei der Verwaltung ihrer wertvollsten Ressourcen – ihrer Mitarbeiter und ihres Geldes – auf Workday. Wir bieten unseren Kunden verantwortungsvolle und transparente Lösungen, indem wir das beste Basismodell auswählen, das die Richtlinien unseres Unternehmens zum verantwortungsvollen Umgang mit KI widerspiegelt. Für Aufgaben wie die Erstellung von Stellenbeschreibungen, die qualitativ hochwertig sein und Chancengleichheit fördern müssen, haben wir die neue Funktion zur Modellbewertung in Amazon SageMaker getestet und sind begeistert von der Möglichkeit, Fundamentmodelle anhand von Kennzahlen wie Abweichungen, Qualität und Leistung zu messen. Wir freuen uns darauf, diesen Service in Zukunft zu nutzen, um Modelle zu vergleichen und auszuwählen, die unseren strengen Kriterien für verantwortungsvolle KI entsprechen.“
Shane Luke, Vizepräsident für KI und Machine Learning bei Workday.
Salesforce
„Bei Salesforce verfolgen wir einen offenen Ökosystemansatz für Basismodelle, und Amazon SageMaker ist eine wichtige Komponente, die uns hilft, unsere Architektur zu skalieren und unsere Markteinführung zu beschleunigen. Mit der neuen SageMaker-Inferenzfunktion waren wir in der Lage, alle unsere Modelle auf einen einzigen SageMaker-Endpunkt zu übertragen, der automatisch die gesamte Ressourcenzuweisung und gemeinsame Nutzung der Rechenressourcen abwickelte, wodurch die Leistung beschleunigt und die Bereitstellungskosten der Basismodelle gesenkt wurden.“
Bhavesh Doshi, Vizepräsident für Technik bei Salesforce.
Bain & Co
„Eine der größten Herausforderungen für Aura besteht darin, aussagekräftige Erkenntnisse aus einem riesigen Pool unstrukturierter professioneller Daten zu gewinnen. Durch den Einsatz großer Sprachmodelle über Amazon SageMaker Canvas haben wir den Datenextraktionsprozess automatisiert und die Art und Weise, wie Unternehmen die Kompetenzen und Organisationsstrukturen ihrer Belegschaft bewerten, verändert. Dieser Ansatz half uns nicht nur dabei, die Datenanalyse zu skalieren, sondern umging auch die Einschränkungen traditioneller Datenanalysemethoden wie Keyword-Matching. Mithilfe der neuen Datenaufbereitungs- und LLM-Funktionen von SageMaker Canvas ist Aura in der Lage, Unternehmen hinsichtlich der Effektivität ihrer Organisationsstruktur, der Fähigkeiten der Belegschaft und der Leistung in Bezug auf die Finanzergebnisse quantitativ zu bewerten.“
Purna Doddapaneni, CTO von Founder's Studio und Partner bei Bain & Co.
Wix
„Amazon SageMaker Inference hilft uns bei der Bereitstellung von Modellen in mehreren Availability Zones und führt Prognosen in großem Maßstab durch, entweder online oder im Batch-Modus.“
Itamar Keller, Leiter des Forschungs- und Entwicklungsteams, Wix
Qred
„Mit einer zentralen Plattform, die Amazon SageMaker verwendet, ist die Einhaltung von Vorschriften einfacher. Es ist einfacher, sensible Daten hinzuzufügen, wenn wir sie zentralisiert und gesichert haben.“
Lezgin Bakircioglu, Technischer Leiter, Qred
Stability AI
„Als führendes Open-Source-Unternehmen für generative KI ist es unser Ziel, die Zugänglichkeit moderner KI zu maximieren. Wir erstellen Grundlagenmodelle mit zig Milliarden von Parametern, für die eine Infrastruktur erforderlich ist, die eine optimierte Trainingsleistung skalieren kann. Mit der verwalteten Infrastruktur und den Optimierungsbibliotheken von SageMaker HyperPod können wir die Trainingszeit und -kosten um über 50% reduzieren. Dadurch wird unser Modelltraining widerstandsfähiger und leistungsfähiger, sodass hochmoderne Modelle schneller erstellt werden können.“
Emad Mostaque, Gründer und CEO – Stability AI
„Wir bei iFood sind bestrebt, unsere Kunden mit unseren Dienstleistungen zu begeistern, indem wir Technologien wie Machine Learning (ML) einsetzen. Der Aufbau eines vollständigen und nahtlosen Workflows für die Entwicklung, das Training und die Bereitstellung von Modellen war ein entscheidender Teil unserer Reise zur Skalierung von ML. Amazon SageMaker Pipelines hilft uns, schnell mehrere skalierbare automatisierte ML-Workflows zu erstellen und macht es einfach, unsere Modelle effektiv bereitzustellen und zu verwalten. SageMaker Pipelines ermöglicht es uns, unseren Entwicklungszyklus effizienter zu gestalten. Wir betonen weiterhin unsere Führungsrolle bei der Verwendung von KI/ML, um mit all diesen neuen Funktionen von Amazon SageMaker einen überragenden Kundenservice und eine überragende Effizienz zu bieten.“
Sandor Caetano, Chief Data Scientist, iFood
„Eine starke Pflegebranche, in der das Angebot der Nachfrage entspricht, ist für das Wirtschaftswachstum von der einzelnen Familie bis zum BIP des Landes unerlässlich. Wir freuen uns sehr über Amazon SageMaker Pipelines, da wir davon überzeugt sind, dass sie uns dabei helfen wird, unsere Datenwissenschafts- und Entwicklungsteams besser zu skalieren, indem wir einen konsistenten Satz kuratierter Daten verwenden, mit denen wir skalierbare End-to-End-Modellpipelines für Machine Learning (ML) von der Datenvorbereitung bis zur Bereitstellung aufbauen können. Mit den neu angekündigten Funktionen von Amazon SageMaker können wir die Entwicklung und Bereitstellung unserer ML-Modelle für verschiedene Anwendungen beschleunigen und unseren Kunden helfen, durch schnellere Echtzeitempfehlungen fundiertere Entscheidungen zu treffen.“
Clemens Tummeltshammer, Data Science Manager, Care.com
„Mit ML verbessert 3M bewährte Produkte wie Sandpapier und treibt Innovationen in mehreren anderen Bereichen voran, darunter im Gesundheitswesen. Da wir planen, Machine Learning auf weitere Bereiche von 3M zu skalieren, sehen wir, dass die Menge an Daten und Modellen schnell wächst und sich jedes Jahr verdoppelt. Wir sind von den neuen SageMaker-Funktionen begeistert, weil sie uns bei der Skalierung helfen. Amazon SageMaker Data Wrangler macht es viel einfacher, Daten für das Modelltraining vorzubereiten, und der Amazon SageMaker Feature Store macht es überflüssig, immer wieder dieselben Modellfunktionen zu erstellen. Schließlich wird uns Amazon SageMaker Pipelines dabei helfen, die Datenvorbereitung, Modellerstellung und Modellbereitstellung in einen End-to-End-Workflow zu automatisieren, damit wir die Markteinführungszeit für unsere Modelle verkürzen können. Unsere Forscher freuen sich darauf, die neue Geschwindigkeit der Wissenschaft bei 3M zu nutzen.“
David Frazee, Technical Director, 3M Corporate Research Systems Lab
„Mit Amazon SageMaker JumpStart konnten wir mit verschiedenen Basismodellen experimentieren, diejenigen auswählen, die unseren Anforderungen im Gesundheitswesen am besten entsprechen, und mithilfe der HIPAA-konformen Modellbereitstellung von SageMaker schnell ML-Anwendungen starten. Dadurch konnten wir die Geschwindigkeit und den Umfang der Dateneingabe für Rezepte und die Kundenbetreuung verbessern.“
Alexandre Alves, Sr. Principal Engineer, Amazon Pharmacy
„Wir bei Canva haben es uns zur Aufgabe gemacht, die Welt zum Designen zu befähigen und es jedem leicht zu machen, auf jedem Gerät etwas Schönes zu kreieren. Mit generativer KI helfen wir Benutzern, ihre Ideen so reibungslos wie möglich zum Leben zu erwecken. Dank SageMaker JumpStart können wir unseren Teams die Möglichkeit geben, mit generativer KI zu beginnen und verschiedene Basismodelle zu testen. Bei unserem globalen Hackathon konnten Canvanauts auf einfache Weise eine Vielzahl von Gründungsmodellen einsetzen und ihre Projekte zum Laufen bringen. Es war ein wichtiger Teil des Erfolgs unseres Hackathons.“
Nic Wittison, Engineering Lead for AI Products, Canva
„Wir bei Dovetail unterstützen Unternehmen dabei, die Qualität ihrer Produkte und Services zu verbessern, indem wir ein besseres Verständnis ihrer Kunden ermöglichen. Mit Amazon SageMaker JumpStart können wir ganz einfach auf modernste Basismodelle zugreifen, diese testen und bereitstellen. Wir haben AI21 Jurassic-2 Mid eingesetzt, um eine verbesserte Datenzusammenfassung zu ermöglichen, und waren in der Lage, es innerhalb von wenigen Wochen in unsere SaaS-Anwendung zu integrieren, anstatt Monate für die Implementierung zu benötigen. Unsere Kunden können nun auf effiziente Weise Erkenntnisse aus ihren Daten gewinnen und diese verstehen, während gleichzeitig Datenschutz und Datensicherheit gewährleistet sind.“
Chris Manouvrier, Enterprise Architect Manager, Dovetail
„Unsere Kunden haben Tausende von Rechtsdokumenten, und das Durchlesen dieser Dokumente ist mühsam und zeitaufwändig. Oft gibt es keine Möglichkeit, schnell Antworten zu erhalten, z. B. zu verstehen, wer in einer Aussage eine Frage gestellt hat. Mit Amazon SageMaker JumpStart können wir jetzt auf modernste Basismodelle zugreifen, um unsere Produkte zu unterstützen, sodass Kunden eine Vielzahl von Anwendungsfällen, wie Widerspruchserkennung und semantische Suche, in Tausenden von Dokumenten gleichzeitig behandeln können. Anwälte können nun frühere Zeugnisse nutzen, um sich auf zukünftige Ereignisse vorzubereiten und gleichzeitig strenge Sicherheits- und Compliance-Anforderungen einzuhalten.“
Jason Primuth, Chief Innovation Officer, Lexitas
„Bei Tyson Foods suchen wir ständig nach neuen Möglichkeiten, Machine Learning (ML) in unserem Produktionsprozess einzusetzen, um die Produktivität zu verbessern. Wir verwenden Bildklassifizierungsmodelle, um Produkte aus der Produktionslinie zu identifizieren, die Verpackungsetiketten benötigen. Die Bildklassifizierungsmodelle müssen jedoch regelmäßig mit neuen Bildern aus dem Feld neu trainiert werden. Mit Amazon SageMaker JumpStart können unsere Datenwissenschaftler ML-Modelle mit Support-Ingenieuren teilen, damit diese ML-Modelle mit neuen Daten trainieren können, ohne Code schreiben zu müssen. Dies beschleunigt die Markteinführung von ML-Lösungen, fördert kontinuierliche Verbesserungen und erhöht die Produktivität.“
Rahul Damineni, Specialist Data Scientist, Tyson Foods
„Dank Amazon SageMaker JumpStart sind wir in der Lage, ML-Lösungen innerhalb weniger Tage auf den Markt zu bringen, um den Bedarf an Machine-Learning-Prognosen schneller und zuverlässiger zu erfüllen.“
Alex Panait, CEO, Mission Automate
„Dank Amazon SageMaker JumpStart verfügen wir über bessere Ausgangspunkte, sodass wir eine ML-Lösung für unsere eigenen Anwendungsfälle in 4 bis 6 Wochen statt in 3 bis 4 Monaten bereitstellen können.“
Gus Nguyen, Software Engineer, MyCase
„Mit Amazon SageMaker JumpStart können wir ML-Anwendungen wie die automatische Anomalieerkennung oder Objektklassifizierung schneller erstellen und Lösungen innerhalb weniger Tage vom Machbarkeitsnachweis bis zur Produktion einführen.“
Milos Hanzel, Platform Architect, Pivotree
„Amazon SageMaker Clarify lässt sich nahtlos in die gesamte digitale Plattform der Bundesliga Match Facts integrieren und ist ein wichtiger Bestandteil unserer langfristigen Strategie, unsere ML-Workflows bei Amazon SageMaker zu standardisieren. Durch den Einsatz innovativer AWS-Technologien wie Machine Learning, um tiefere Einblicke zu liefern und den Fans ein besseres Verständnis für die sekundenschnellen Entscheidungen auf dem Spielfeld zu vermitteln, ermöglicht Bundesliga Match Facts den Zuschauern einen tieferen Einblick in die wichtigsten Entscheidungen in jedem Spiel.“
Andreas Heyden, Executive Vice President of Digital Innovations, DFL Group
„Mit Amazon SageMaker JumpStart kann Slack auf hochmoderne Basismodelle zugreifen, um die KI von Slack zu unterstützen und gleichzeitig Sicherheit und Datenschutz zu priorisieren. Slack-Kunden können jetzt intelligenter suchen, Konversationen sofort zusammenfassen und am produktivsten sein.“
Jackie Rocca, VP Product, AI bei Slack
„Die Kombination von AutoGluon und Amazon SageMaker Clarify ermöglichte es unserem Kundenabwanderungsmodell, die Kundenabwanderung mit einer Genauigkeit von 94 % vorherzusagen. SageMaker Clarify hilft uns, das Verhalten des Modells zu verstehen, indem es durch SHAP-Werte Erklärungsmöglichkeiten bietet. Mit SageMaker Clarify haben wir die Kosten für die Berechnung von SHAP-Werten im Vergleich zu einer lokalen Berechnung um bis zu 50 % reduziert. Die gemeinsame Lösung gibt uns die Möglichkeit, das Modell besser zu verstehen und die Kundenzufriedenheit mit einer höheren Genauigkeitsrate zu verbessern und gleichzeitig erhebliche Kosteneinsparungen zu erzielen.“
Masahiro Takamoto, Head of Data Group, CAPCOM
„Domo bietet eine skalierbare Suite von Datenwissenschaftslösungen, die für jeden in einem Unternehmen einfach zu nutzen und zu verstehen sind. Mit Clarify erhalten unsere Kunden wichtige Erkenntnisse darüber, wie ihre KI-Modelle Vorhersagen treffen. Die Kombination von Clarify und Domo trägt dazu bei, die KI-Geschwindigkeit und -Intelligenz für unsere Kunden zu erhöhen, indem sie die Macht der KI in die Hände eines jeden in ihrem Unternehmen und Ökosystem legt.“
Ben Ainscough, Ph.D., Leiter des Bereichs KI und Datenwissenschaft, Domo
Die Varo Bank ist eine digitale Bank mit Sitz in den USA. Sie nutzt KI/ML, um schnelle, risikobasierte Entscheidungen zu treffen und ihren Kunden innovative Produkte und Dienstleistungen anzubieten.
„Varo setzt sich stark für die Erklärbarkeit und Transparenz unserer ML-Modelle ein, und wir sind gespannt auf die Ergebnisse von Amazon SageMaker Clarify, um diese Bemühungen voranzutreiben.“
Sachin Shetty, Leiter Datenwissenschaft, Varo Money
LG AI Research will die nächste Ära der KI anführen, indem es Amazon SageMaker verwendet, um ML-Modelle schneller zu trainieren und bereitzustellen.
„Wir haben kürzlich Tilda vorgestellt, die KI-Künstlerin, die von EXAONE unterstützt wird, einem riesigen KI-System, das 250 Millionen hochauflösende Bild-Text-Paar-Datensätze verarbeiten kann. Die multimodale KI ermöglicht es Tilda, selbst ein neues Bild zu erstellen, da sie die Fähigkeit hat, über die Sprache, die sie wahrnimmt, hinaus zu erforschen. Amazon SageMaker war für die Entwicklung von EXAONE aufgrund seiner Skalierungs- und verteilten Trainingsmöglichkeiten unverzichtbar. Insbesondere aufgrund der enormen Rechenleistung, die für das Training dieser riesigen KI erforderlich ist, ist eine effiziente Parallelverarbeitung sehr wichtig. Wir mussten auch kontinuierlich umfangreiche Daten verwalten und flexibel auf neu gewonnene Daten reagieren können. Mithilfe von Amazon SageMaker-Modelltraining und verteilten Trainingsbibliotheken haben wir das verteilte Training optimiert und das Modell 59 % schneller trainiert – ohne größere Änderungen an unserem Trainingscode.“
Seung Hwan Kim, Vizepräsident und Leiter des Vision Lab, LG AI Research
„Bei AI21 Labs helfen wir Unternehmen und Entwicklern dabei, modernste Sprachmodelle zu verwenden, um die Art und Weise, wie ihre Benutzer mit Text interagieren, neu zu gestalten, ohne dass NLP-Kenntnisse erforderlich sind. Unsere Entwicklerplattform AI21 Studio bietet Zugriff auf Textgenerierung, intelligente Zusammenfassung und sogar Codegenerierung, die alle auf unserer Familie großer Sprachmodelle basieren. Unser kürzlich trainiertes Jurassic-Grande (TM)-Modell mit 17 Milliarden Parametern wurde mit Amazon SageMaker trainiert. Amazon SageMaker machte den Modelltrainingsprozess einfacher und effizienter und funktionierte perfekt mit der DeepSpeed-Bibliothek. Dadurch waren wir in der Lage, die verteilten Trainingsjobs problemlos auf Hunderte von Nvidia A100-GPUs zu skalieren. Das Grande-Modell bietet eine Textgenerierungsqualität, die mit unserem viel größeren 178-Milliarden-Parameter-Modell vergleichbar ist, und das zu deutlich niedrigeren Inferenzkosten. Dadurch sind unsere Kunden, die Jurassic-Grande in der Produktion einsetzen, in der Lage, täglich Millionen von Benutzern in Echtzeit zu bedienen und den Vorteil der verbesserten Wirtschaftlichkeit der Geräte zu nutzen, ohne die Benutzererfahrung zu beeinträchtigen.“
Dan Padnos, Vizepräsident Architektur, AI21 Labs
Mithilfe von Amazon SageMaker und der Amazon SageMaker Distributed Data Parallel (SMDDP)-Bibliothek vermarktet Torc.ai, seit 2005 ein führendes Unternehmen für autonome Fahrzeuge, selbstfahrende Lkw für den sicheren, nachhaltigen Langstreckentransport in der Frachtbranche.
„Mein Team ist jetzt in der Lage, mithilfe des Amazon SageMaker-Modelltrainings und der Amazon SageMaker-Bibliothek für verteilte Datenparallele (SMDDP), die Terabytes an Trainingsdaten und Modellen mit Millionen von Parametern umfassen, problemlos umfangreiche verteilte Trainingsaufgaben auszuführen. Das verteilte Modelltraining mit Amazon SageMaker und das SMDDP haben uns dabei geholfen, nahtlos zu skalieren, ohne die Trainingsinfrastruktur verwalten zu müssen. Dadurch wurde unsere Zeit für das Trainieren von Modellen von mehreren Tagen auf wenige Stunden reduziert, sodass wir unseren Konstruktionszyklus verkürzen und unsere Flotte schneller als je zuvor mit neuen autonomen Fahrzeugfunktionen ausstatten konnten.“
Derek Johnson, Vizepräsident für Technik, Torc.ai
Sophos, ein weltweit führender Anbieter von Cybersicherheitslösungen und -diensten der nächsten Generation, nutzt Amazon SageMaker, um seine ML-Modelle effizienter zu trainieren.
„Unsere leistungsstarke Technologie erkennt und entfernt Dateien, die auf raffinierte Weise mit Malware behaftet sind. Der Einsatz von XGBoost-Modellen zur Verarbeitung von Datensätzen mit einer Größe von mehreren Terabyte war jedoch extrem zeitaufwändig – und manchmal mit begrenztem Speicherplatz einfach nicht möglich. Mit dem verteilten Training von Amazon SageMaker können wir erfolgreich ein leichtes XGBoost-Modell trainieren, das auf der Festplatte (bis zu 25-mal kleiner) und im Speicher (bis zu fünfmal kleiner) viel kleiner ist als sein Vorgänger. Mit der automatischen Modelloptimierung von Amazon SageMaker und dem verteilten Training auf Spot Instances können wir Modelle schnell und effektiver modifizieren und neu trainieren, ohne die zugrunde liegende Trainingsinfrastruktur anpassen zu müssen, die für die Aufskalierung auf so große Datensätze erforderlich ist.“
Konstantin Berlin, Leiter Künstliche Intelligenz, Sophos
„Auroras fortschrittliches Machine Learning und skalierbare Simulation sind die Grundlage für die sichere und schnelle Entwicklung unserer Technologie, und AWS bietet die hohe Leistung, die wir benötigen, um unseren Fortschritt aufrechtzuerhalten. Mit seiner praktisch unbegrenzten Skalierbarkeit unterstützt AWS Millionen von virtuellen Tests, um die Funktionen des Aurora-Treibers zu validieren, sodass er die unzähligen Grenzfälle des realen Fahrens sicher bewältigen kann.“
Chris Urmson, Geschäftsführer von Aurora
„Wir verwenden Computer-Vision-Modelle, um Szenen zu segmentieren, was für das Szenenverständnis wichtig ist. Früher dauerte es 57 Minuten, das Modell für eine Epoche zu trainieren, was uns verlangsamte. Mithilfe der Datenparallelitätsbibliothek von Amazon SageMaker und mithilfe des Amazon ML Solutions Lab konnten wir in 6 Minuten mit optimiertem Trainingscode auf 5ml.p3.16xlarge-Instances trainieren. Durch die 10-fache Reduzierung der Trainingszeit können wir während des Entwicklungszyklus mehr Zeit für die Vorbereitung von Daten aufwenden.“
Jinwook Choi, leitender Forschungsingenieur, Hyundai Motor Company
„Bei Latent Space entwickeln wir eine neuronale Game-Engine, in der jeder in Gedankengeschwindigkeit kreativ sein kann. Angetrieben von Fortschritten in der Sprachmodellierung arbeiten wir daran, das semantische Verständnis von Text und Bildern zu berücksichtigen, um zu bestimmen, was generiert werden soll. Unser derzeitiger Fokus liegt auf der Nutzung des Informationsabrufs zur Erweiterung des groß angelegten Modelltrainings, wofür wir über ausgeklügelte ML-Pipelines verfügen. Dieses Setup stellt zusätzlich zum verteilten Training eine Herausforderung dar, da mehrere Datenquellen und Modelle gleichzeitig trainiert werden. Daher nutzen wir die neuen verteilten Trainingsfunktionen in Amazon SageMaker, um das Training für große generative Modelle effizient zu skalieren.“
Sarah Jane Hong, Mitbegründerin/wissenschaftliche Leiterin, Latent Space
„Musixmatch verwendet Amazon SageMaker, um Modelle für die natürliche Sprachverarbeitung (NLP) und Audioverarbeitung zu erstellen, und experimentiert mit Hugging Face mit Amazon SageMaker. Wir haben uns für Amazon SageMaker entschieden, weil es Datenwissenschaftlern ermöglicht, Modelle schnell iterativ zu erstellen, zu trainieren und zu optimieren, ohne sich um die Verwaltung der zugrunde liegenden Infrastruktur kümmern zu müssen. Das bedeutet, dass Datenwissenschaftler schneller und unabhängiger arbeiten können. Mit dem Wachstum des Unternehmens sind auch unsere Anforderungen an das Training und die Abstimmung größerer und komplexerer NLP-Modelle gestiegen. Wir suchen immer nach Möglichkeiten, die Trainingszeit zu verkürzen und gleichzeitig die Trainingskosten zu senken. Deshalb freuen wir uns über Amazon SageMaker Training Compiler. SageMaker Training Compiler bietet effizientere Möglichkeiten, GPUs während des Trainingsprozesses zu verwenden, und dank der nahtlosen Integration zwischen SageMaker Training Compiler, PyTorch und High-Level-Bibliotheken wie Hugging Face haben wir eine deutliche Verbesserung der Trainingszeit unserer transformatorbasierten Modelle von Wochen auf Tage sowie niedrigere Trainingskosten festgestellt.“
Loreto Parisi, Technischer Direktor für künstliche Intelligenz, Musixmatch
AT&T Cybersecurity verbesserte die Bedrohungserkennung und erforderte Prognosen nahezu in Echtzeit mithilfe von Multimodell-Endpunkten von Amazon SageMaker.
„Multimodell-Endpunkte von Amazon SageMaker sind nicht nur kostengünstig, sondern sie bieten uns auch einen kleinen Leistungsschub, da wir die Speicherung unserer Modelle vereinfachen.“
Matthew Schneid, Chefarchitekt – AT&T
Forethought Technologies, ein Anbieter von generativen KI-Lösungen für den Kundenservice, senkte mithilfe von Amazon SageMaker die Kosten um bis zu 80 Prozent.
„Durch die Migration zu Multimodell-Endpunkten von Amazon SageMaker haben wir unsere Kosten um bis zu 66 % gesenkt und gleichzeitig unseren Kunden eine bessere Latenz und bessere Reaktionszeiten geboten.“
Jad Chamoun, Direktor von Core Engineering bei Forethought Technologies
Bazaarvoice reduziert die Kosten für ML-Inferenz mithilfe von Amazon SageMaker Serverless Inference um 82 %
„Durch den Einsatz von SageMaker Serverless Inference können wir ML effizient und in großem Maßstab durchführen und schnell viele Modelle zu angemessenen Kosten und mit geringem Betriebsaufwand herausbringen.“
Lou Kratz, leitender Forschungsingenieur – Bazaarvoice
Tapjoy verwendet Amazon SageMaker, um ML-Modelle mit Sagemaker innerhalb von Tagen statt Monaten bereitzustellen
„Wir brauchen jetzt nicht mehr etwa drei bis sechs Monate, um ein Modell zu trainieren, zu entwickeln und bereitzustellen. Mit SageMaker können wir das jetzt innerhalb einer Woche erledigen, vielleicht sogar kürzer“, sagt Reffitt.
Nick Reffitt, Vizepräsident für Datenwissenschaft und Engineering – Tapjoy
Zendesk hostete Tausende von ML-Modellen auf Multimodell-Endpunkten (MME) von Amazon SageMaker für die Funktion „Vorgeschlagene Makros“ und erzielte im Vergleich zu dedizierten Endpunkten Einsparungen von 90 % bei der Inferenz.
„Wir haben mithilfe von Multimodell-Endpunkten (MME) von Amazon SageMaker Tausende von ML-Modellen bereitgestellt, die auf unsere über 100 000 Kunden zugeschnitten sind. Mit SageMaker MME haben wir eine mandantenfähige, SaaS-freundliche Inferenzfunktion entwickelt, mit der mehrere Modelle pro Endpunkt gehostet werden können, wodurch die Inferenzkosten im Vergleich zu dedizierten Endgeräten um 90 % gesenkt wurden.“
Chris Hausler, Leiter KI/ML – Zendesk
Amazon Pharmacy
„Mit Amazon SageMaker JumpStart konnten wir mit verschiedenen Basismodellen experimentieren, diejenigen auswählen, die unseren Anforderungen im Gesundheitswesen am besten entsprechen, und mithilfe der HIPAA-konformen Modellbereitstellung von SageMaker schnell ML-Anwendungen starten. Dadurch konnten wir die Geschwindigkeit und den Umfang der Dateneingabe für Rezepte und die Kundenbetreuung verbessern.“
Alexandre Alves, Sr. Principal Engineer, Amazon Pharmacy
Intuit
„Mit Amazon SageMaker können wir unsere Initiativen für künstliche Intelligenz in großem Umfang beschleunigen, indem wir unsere Algorithmen auf der Plattform entwickeln und bereitstellen. Wir erstellen neuartige, groß angelegte maschinelle Lern- und AI-Algorithmen und setzen diese auf der Plattform ein, um komplexe Probleme zu lösen und unsere Kunden erfolgreicher zu machen."
Ashok Srivastava, Chief Data Officer - Intuit
GE Healthcare
Durch die Nutzung von Daten und Analytik in den Bereichen Hardware, Software und Biotechnologie verändert GE Healthcare das Gesundheitswesen, indem es bessere Ergebnisse für Anbieter und Patienten liefert.
„Amazon SageMaker erlaubt GE Healthcare den Zugriff auf leistungsstarke Tools und Services der künstlichen Intelligenz, um die Patientenversorgung zu verbessern. Die Skalierbarkeit von Amazon SageMaker und seine Fähigkeit zur Integration in native AWS-Services bieten einen enormen Mehrwert für uns. Wir freuen uns sehr darüber, dass wir durch die andauernde Zusammenarbeit zwischen der GE Health Cloud und Amazon SageMaker für verbesserte Ergebnisse bei unseren Partnern im Gesundheitswesen sorgen und eine verbesserte Patientenpflege vorantreiben können.“
Sharath Pasupunuti, AI Engineering Leader - GE Healthcare
ADP, Inc.
ADP ist ein weltweit führendes Technologieunternehmen, das Human Capital Management (HCM)-Lösungen anbietet. ADP DataCloud nutzt die unübertroffenen Personaldaten von ADP von über 30 Millionen Mitarbeitern, um praktisch umsetzbare Erkenntnisse zu liefern, die Führungskräften helfen können, Entscheidungen in Echtzeit zu treffen, um ihr Unternehmen besser zu verwalten.
„Talentierte Mitarbeiter zu behalten und anzuziehen ist schwierig, weshalb wir ADP DataCloud weiterhin mit Fähigkeiten der künstlichen Intelligenz erweitern, um Arbeitgebern dabei zu helfen, starke Teams zusammenzustellen und zu pflegen. Wir verwenden AWS Machine Learning, einschließlich Amazon SageMaker, um Mitarbeitermuster schnell zu identifizieren und Ergebnisse vorherzusagen, z. B. Mitarbeiterfluktuation oder die Auswirkungen einer Vergütungserhöhung. Indem wir AWS als unsere primäre Plattform für künstliche Intelligenz und Machine Learning nutzen, konnten wir die Zeit zum Bereitstellen von Machine Learning-Modellen von zwei Wochen auf nur einen Tag reduzieren.“
Jack Berkowitz, Senior Vice President für Produktentwicklung – ADP, Inc.
BASF Digital Farming
BASF Digital Farming hat sich zum Ziel gesetzt, Landwirte in die Lage zu versetzen, intelligentere Entscheidungen zu treffen und zur Lösung der Herausforderung beizutragen, eine wachsende Weltbevölkerung zu ernähren und gleichzeitig den ökologischen Fußabdruck zu verringern.
„Amazon SageMaker und die zugehörige AWS-Technologie unterstützen das schnelle Experimentieren und bieten benutzerfreundliche Funktionen und APIs, die die Einstiegshürde für die Einführung von ML senken. Auf diese Weise können wir schnell das volle Wertpotenzial von ML-Anwendungsfällen erschließen.“
Dr. Christian Kerkhoff, Manager Data Automation – BASF Digital Farming GmbH
Cerner
Die Cerner Corporation ist ein globales Gesundheits- und Technologieunternehmen, das eine Vielzahl von Lösungen, Diensten, Geräten und Hardware im Bereich der Gesundheitsinformationstechnologie (HIT) anbietet.
„Cerner ist stolz darauf, Innovationen im Bereich der künstlichen Intelligenz und Machine Learning in einer großen Vielfalt an klinischer, finanzieller und betrieblicher Erfahrungen voranzutreiben. Mittels neuer Funktionen, die sowohl durch das Cerner-Machine-Learning-Ökosystem als auch durch die Cerner-Sprachtechnologie geschaffen und durch unsere Zusammenarbeit mit AWS ermöglicht wurden, beschleunigen wir skalierbare Innovationen für alle unsere Kunden. Amazon SageMaker ist ein wichtiger Bestandteil, um Cerner in die Lage zu versetzen, unseren Kunden durch KI/ML einen Mehrwert zu bieten. Darüber hinaus bietet Amazon SageMaker Cerner die Möglichkeit, verschiedene Frameworks wie TensorFlow und PyTorch zu nutzen, sowie in verschiedene AWS-Services zu integrieren.”
Sasanka Are, PhD, Vizepräsident – Cerner
Dow Jones
Dow Jones & Co. ist ein globaler Anbieter von Nachrichten und Wirtschaftsinformationen, der Kunden und Unternehmen Inhalte über Zeitungen, Websites, mobile Apps, Video, Newsletter, Zeitschriften, proprietäre Datenbanken, Konferenzen und Radio bereitstellt.
„Da Dow Jones sich weiterhin auf die Integration von Machine Learning in unsere Produkte und Services konzentriert, ist AWS ein großartiger Partner. Im Vorfeld unseres jüngsten Hackathons zum Thema Machine Learning hat das AWS-Team den Teilnehmern Trainings zu Amazon SageMaker und Amazon Rekognition angeboten und allen Teams einen Tag lang Unterstützung geleistet. Das Ergebnis war, dass unsere Teams einige großartige Ideen für die Anwendung von Machine Learning entwickelt haben, von denen wir viele in AWS weiterentwickeln werden. Die Veranstaltung war ein großer Erfolg und ein Beispiel für eine gute Partnerschaft.“
Ramin Beheshti, Group Chief Product and Technology Officer - Dow Jones
Advanced Microgrid Solutions
Advanced Microgrid Solutions (AMS) ist ein Energieplattform- und Dienstleistungsunternehmen, dessen Ziel es ist, die weltweite Umstellung auf eine saubere Energiewirtschaft zu beschleunigen, indem die Bereitstellung und Optimierung sauberer Energieanlagen erleichtert wird. NEM nutzt einen Spotmarkt, auf dem alle Parteien alle 5 Minuten ein Gebot zum Energieverbrauch/zur Energieversorgung abgeben. Dies erfordert die Vorhersage von Bedarfsprognosen sowie die Erstellung dynamischer Gebote innerhalb weniger Minuten bei gleichzeitiger Verarbeitung großer Mengen von Marktdaten. Um diese Herausforderung zu meistern, hat AMS mit TensorFlow auf Amazon SageMaker ein Deep-Learning-Modell erstellt. Dabei nutzten sie die automatische Modelloptimierung von Amazon SageMaker, um die besten Modellparameter zu ermitteln und ihr Modell in nur wenigen Wochen zu erstellen. Ihr Modell zeigte eine Verbesserung der Marktprognosen für alle Energieprodukte beim Net-Energy-Metering (Netto-Energiemessung), was zu erheblichen Effizienzsteigerungen führt.
ProQuest
ProQuest verwaltet die weltweit größte Sammlung von Zeitschriften, E-Books, Primärquellen, Dissertationen, Nachrichten und Videos und entwickelt leistungsstarke Workflow-Lösungen, die Bibliotheken beim Erwerb und Ausbau ihrer Sammlungen unterstützen. ProQuest-Produkte und -Services werden in akademischen, K-12-, öffentlichen, Firmen- und Regierungsbibliotheken in 150 Ländern verwendet.
„Wir arbeiten mit AWS zusammen, um eine ansprechendere Video-Benutzerfreundlichkeit für Bibliotheksbesucher zu schaffen, die es ihnen ermöglicht, relevantere Ergebnisse zu erhalten. Durch die Zusammenarbeit mit dem AWS ML Solutions Lab haben wir verschiedene Algorithmen mit Amazon SageMaker getestet, die Modelle mit Hyperparameter-Optimierung angepasst und den Einsatz von Machine Learning(ML)-Modellen automatisiert. Wir sind mit den bisherigen Ergebnissen zufrieden und prüfen derzeit ML-Technologien für andere Produkte."
Allan Lu, Vice President of Research Tools, Services & Platforms - ProQuest
Celgene
Celgene ist ein globales biopharmazeutisches Unternehmen, das sich der Verbesserung des Lebens von Patienten weltweit verschrieben hat. Der Schwerpunkt liegt auf der Entdeckung, Entwicklung und Vermarktung innovativer Therapien für Patienten mit Krebs, immunentzündlichen und anderen unerfüllten medizinischen Bedürfnissen.
“Bei Celgene ist es unsere Vision, wirklich innovative und lebensverändernde Behandlungen anzubieten und das Leben der Patienten weltweit zu verbessern. Mit Amazon SageMaker und Apache MXNet war die Entwicklung und das Trainieren von Modellen für das tiefgehende Lernen zur Entwicklung von Lösungen und Verfahren schneller und einfacher als zuvor, und wir sind in der Lage, unsere Bemühungen, Behandlungen zu entdecken und Medikamente herzustellen, leicht zu skalieren. Die Verwendung von SageMaker und Amazon EC2 P3-Instanzen hat unsere Übungszeit-Modelle und unsere Produktivität beschleunigt, so dass sich unser Team auf bahnbrechende Forschung und Entdeckung konzentrieren kann.”
Lance Smith, Director - Celgene
Atlas Van Lines
Atlas Van Lines ist die zweitgrößte Umzugsfirma in Nordamerika. Das Unternehmen wurde 1948 von einer Unternehmergruppe aus der Umzugs- und Lagerbranche gegründet. Das Ziel des Unternehmens besteht seit seiner Gründung darin, Umzüge von einer Küste bis zur anderen anzubieten und dabei die goldene Geschäftsregel einzuhalten. Atlas Van Lines verfügt nicht nur über ein kerniges Profil, sondern übertrumpft seine Mitbewerber in der Branche auch durch seine strengen Qualitätsanforderungen an seine Mitarbeiter.
In der Umzugshauptsaison arbeitet das Netzwerk aus Atlas-Mitarbeitern über verschiedene Märkte hinweg zusammen, um die Kundenanforderungen zu erfüllen. Ursprünglich erfolgte die Vorhersage der Kapazitäten manuell und war arbeitsaufwendig. Das Unternehmen vertraute damals auf das Bauchgefühl und die Erfahrung der langjährigen Mitarbeiter. Atlas hatte historische Daten ab dem Jahr 2011 und wollte einen Weg finden, die Kapazität und den Preis anhand von zukünftigen Marktanforderungen dynamisch anpassen zu können.
Atlas arbeitete mit Pariveda Solutions, einem APN Premier Consulting Partner, zusammen, um die Möglichkeiten eines proaktiven Kapazitäts- und Preismanagements in der Fernverkehrsbranche zu erschließen. Pariveda hat die Daten vorbereitet, ein Machine-Learning-Modell entwickelt, es bewertet und dabei die Leistung angepasst. Zum Trainieren und Optimieren des Modells wurde Amazon SageMaker eingesetzt. Anschließend wurde der modulare Aufbau von Amazon SageMaker für die Ausführung von Amazon EC2 genutzt.
Edmunds
Edmunds.com ist eine Fahrzeugmarkt-Website, die detaillierte, ständig aktualisierte Informationen über Fahrzeuge für 20 Millionen Besucher pro Monat bereitstellt.
"Wir haben eine strategische Initiative, der zufolge wir Machine Learning in die Hände unserer Ingenieure legen. Amazon SageMaker ist entscheidend für unser Ziel, Ingenieuren die Erstellung, das Trainieren und die Bereitstellung von Machine Learning-Modellen und -Algorithmen in jedem Umfang zu erleichtern. Wir freuen uns sehr, miterleben zu dürfen, wie Edmunds SageMaker zur Schaffung von Innovationen im gesamten Unternehmen für unsere Kunden einsetzt."
Stephen Felisan, Chief Information Officer - Edmunds.com
Hotels.com
Hotels.com ist ein führendes, global agierendes Hotelmarkenunternehmen, das über 90 lokalisierte Websites in 41 Sprachen betreibt.
"Bei Hotels.com suchen wir stets nach neuen Möglichkeiten, schneller voranzukommen, die neuesten Technologien zu nutzen und innovativ zu bleiben. Amazon SageMaker, das verteilte Training, die optimierten Algorithmen und die integrierten Hyperparameter-Funktionen ermöglichten es meinem Team, genauere Modelle anhand unserer größten Datensätzen rasch zu erstellen, wodurch die geschätzte Zeit bis zur Überführung eines Modells in die Produktion reduziert werden konnte. Das ist einfach ein API-Aufruf. Amazon SageMaker reduziert die Komplexität des maschinellen Lernens deutlich und ermöglicht es uns, unseren Kunden ein besseres Erlebnis zu bieten – und das schnell."
Matt Fryer, VP and Chief Data Science Officer - Hotels.com and Expedia Affiliate Network
Formosa Plastics
Formosa Plastics Corporation ist ein wachsender, vertikal-integrierter Lieferant von Kunststoffharzen und Petrochemikalien. Formosa Plastics bietet eine vollständige Palette an Polyvinylchlorid-, Polyethylen- und Polypropylenharzen, Natronlauge und anderen Petrochemikalien an, die konsistent, leistungsfähig und qualitativ hochwertig und gefragt sind.
„Formosa Plastics ist eines von Taiwans wichtigsten petrochemischen Unternehmen und gilt als einer der weltweit führenden Kunststoffhersteller. Wir haben uns dazu entschieden, einen Blick auf Machine Learning zu werfen, um eine genauere Erkennung von Mängeln zu ermöglichen und um Arbeitskosten zu verringern. Wir haben uns dafür an AWS, unseren bevorzugten Cloud-Anbieter, gewandt. Das AWS ML Solutions Lab hat uns bei jedem Schritt des Vorgangs unterstützt, von einem Workshop zur Definition der Business Cases über die Entwicklung und Auswahl geeigneter ML-Modelle bis hin zur tatsächlichen Bereitstellung. Durch die Verwendung von Amazon SageMaker reduzierte sich die Zeit, welche die Mitarbeiter für manuelle Inspektionen benötigen, durch das maschinelle Lernen um 50 %. Mit Hilfe von Solutions Lab sind wir jetzt in der Lage das SageMaker-Modell zukünftig selbst zu optimieren, sollte dies nötig sein.“
Bill Lee, Assistant Vice President - Formosa Plastics Corporation
Voodoo
Voodoo ist ein führendes Unternehmen für mobile Spiele mit über 2 Milliarden Spiele-Downloads und über 400 Millionen monatlich aktiven Nutzern (MAU). Sie betreiben ihre eigene Werbeplattform und nutzen Machine Learning, um die Genauigkeit und Qualität von Anzeigegeboten zu verbessern, die ihren Nutzern angezeigt werden.
„Bei Voodoo wollen wir eine wachsende Spielerbasis mit Millionen von Nutzern aktiv einbeziehen. Durch die Standardisierung unserer Workloads für Machine Learning und künstliche Intelligenz in AWS sind wir in der Lage, im nötigen Tempo und Umfang zu arbeiten, um unser Geschäft weiter auszubauen und unsere Spieler zu begeistern. Mit Amazon SageMaker können wir in Echtzeit entscheiden, welche Anzeige unseren Spielern gezeigt werden soll, und unseren Endpunkt täglich über 100 Millionen Mal von über 30 Millionen Nutzern aufrufen, was fast einer Milliarde Vorhersagen pro Tag entspricht. Mit AWS Machine Learning konnten wir mit einem kleinen Team in weniger als einer Woche ein genaues Modell in die Produktion bringen, das wir mit dem Wachstum unseres Teams und unseres Unternehmens kontinuierlich entwickeln konnten.“
Aymeric Roffé, Technikvorstand – Voodoo
Regit
Regit war ehemals unter dem Namen Motoring.co.uk bekannt, ist ein Technikunternehmen aus der Automobilindustrie und der führende Online-Service für Autofahrer in Großbritannien. Das Unternehmen bietet digitale Services für die Autoverwaltung an, die auf dem Nummernschild des entsprechenden Fahrzeugs basieren und versorgen Fahrer mit informativen Mitteilungen, z. B. zu Steuern vom Verkehrsministerium, zur Versicherung und zu Rückrufen.
Regit hat mit Peak Business Insight, einem APN Advanced Consulting Partner, zusammengearbeitet und dabei "Kategorische Machine Learning-Modelle" angewendet, die sowohl Kategoriedaten und variable Daten gleichzeitig verarbeiten, um so Vorhersagen über die Wahrscheinlichkeit treffen zu können, mit der Benutzer Fahrzeuge wechseln. Der Einsatz dieser Modelle hat sich für Regit ausgezahlt.
Peak hat AWS-Services, wie z. B. Amazon SageMaker für eine Datenaufnahme in Echtzeit, die Modellerstellung und die Datenausgabe eingesetzt. Amazon SageMaker verarbeitet 5 000 API-Anfragen pro Tag für Regit, nimmt eine nahtlose Skalierung und Anpassung an die Datenanforderungen vor und verwaltet die Lead-Scoring-Ergebnisse. Amazon Redshift und Amazon Elastic Compute Cloud (Amazon EC2)-Instances sorgen für die effiziente und kontinuierliche Optimierung der Modellleistung und Ergebnisse. Mithilfe von Peak konnte Regit vorhersagen, welche seiner 2,5 Millionen Nutzer ihr Fahrzeug wechseln würden und zu welchem Zeitpunkt. Das heißt, das Unternehmen kann Kunden personalisierter und gezielter beraten. Dadurch sind die Call Center-Umsätze um mehr als ein Viertel gestiegen.
Realtor.com
Das Move, Inc. Netzwerk, zu dem realtor.com®, Doorsteps® und Moving.com™ gehören, bietet Immobilien-Informationen, -Tools und professionelles Fachwissen über eine Reihe von Webseiten und mobilen Anwendungen für Konsumenten und Immobilienexperten.
„Wir sind davon überzeugt, dass Amazon SageMaker das Toolset von realtor.com® auf dem Weg zum Eigenheim entscheidend erweitert. Arbeitsabläufe für maschinelles Lernen, die sich historisch gesehen lange entwickelt haben, wie z. B. das Trainieren und Optimieren von Modellen, können effizienter und von einer breiteren Palette von Entwicklern ausgeführt werden. Dadurch können sich unsere Datenwissenschaftler und -analysten darauf konzentrieren, ein optimales Erlebnis für unsere Benutzer zu schaffen."
Vineet Singh, Chief Data Officer and Senior Vice President - Move, Inc.
Grammarly
Die Algorithmen von Grammarly bieten Unterstützung beim Schreiben auf mehreren Plattformen über Geräte hinweg an. Zudem verhelfen sie täglich Millionen von Menschen zu einer effizienteren Kommunikation mittels einer Kombination aus der Verarbeitung natürlicher Sprache und fortschrittlichen Machine Learning-Technologien.
"Amazon SageMaker ermöglicht uns die Entwicklung unserer TensorFlow-Modelle in einer dezentralisierten Trainingsumgebung. Unsere Arbeitsabläufe lassen sich für die Vorverarbeitung auch in Amazon EMR integrieren. Damit können wir unsere Daten von Amazon S3 abrufen, mit EMR und Spark von einem Jupyter Notebook filtern und anschließend in Amazon SageMaker mit demselben Notebook trainieren. SageMaker ist auch in Hinblick auf unsere unterschiedlichen Produktionsanforderungen flexibel einsetzbar. Wir können Inferenzen in SageMaker ausführen oder wenn wir nur das Modell benötigen, laden wir es von S3 herunter und führen Inferenzen unserer Implementierungen auf mobilen Geräten für iOS- und Android-Kunden aus."
Stanislav Levental, Technical Lead - Grammarly
Slice Labs
Das international tätige Unternehmen Slice Labs mit Sitz in New York ist der erste Anbieter von On-Demand-Versicherungs-Cloud-Plattformen. Slice bedient den B2C-Markt mit individuellen On-Demand-Versicherungsangeboten sowie den B2B-Markt mit Möglichkeiten für Unternehmen, intuitive digitale Versicherungsprodukte zu entwickeln.
„Wir bei Slice sind uns der sich ständig ändernden Anforderungen unserer Kunden bewusst und haben AWS aufgrund der vielen Services, der Flexibilität und des guten Rufs bei Versicherern als Cloud-Plattform ausgewählt. Wir verwenden eine Vielzahl von AWS-Services zur Unterstützung unseres Geschäfts, einschließlich AWS Machine Learning, um unseren Kunden die besten Versicherungsoptionen für ihre Bedürfnisse zu bieten. Bei unserer Zusammenarbeit mit Versicherern und Technologieunternehmen, die intelligente Versicherungsprodukte entwickeln und auf den Markt bringen möchten, konnten wir mit AWS enorme Kosteneinsparungen und Produktivitätsvorteile erzielen. Zum Beispiel haben wir die Beschaffungszeit von 47 Tagen auf 1 Tag um 98% verkürzt. Wir freuen uns darauf, sowohl geografisch als auch im Hinblick auf unsere Cloud-Nutzung mit AWS weiter zu expandieren."
Philippe Lafreniere, Chief Growth Officer – Slice Labs
DigitalGlobe
Als weltweit führender Anbieter von Erdbildern in hoher Auflösung, Daten und Analysen arbeitet DigitalGlobe täglich mit enormen Datenmengen.
„Als weltweit führender Anbieter von Erdbildern in hoher Auflösung, Daten und Analysen arbeitet DigitalGlobe täglich mit enormen Datenmengen. DigitalGlobe vereinfacht den Zugriff und das Computing auf unsere gesamte 100-PB-Bildbibliothek, die in der AWS-Cloud gespeichert ist, um Deep Learning auf Satellitenbilder anzuwenden. Wir möchten Amazon SageMaker verwenden, um Modelle mit Erdbeobachtungsbild-Datensätzen im Petabytebereich zu trainieren, mit Hilfe von gehosteten Jupyter-Notebooks, sodass Benutzer der DigitalGlobe Geospatial Big Data Platform (GBDX) auf Knopfdruck ein Modell erstellen können und alles in einer skalierbaren, verteilten Umgebung in großem Maßstab bereitstellen können.“
Dr. Walter Scott, Chief Technology Officer von Maxar Technologies und Gründer von DigitalGlobe
Intercom
Die Messaging-first-Produkte von Intercom lassen sich nahtlos in die Websites und mobilen Apps anderer Unternehmen integrieren, um Kunden zu gewinnen, zu binden und zu unterstützen. Das Unternehmen wurde 2011 gegründet und verfügt über Niederlassungen in San Francisco, London, Chicago und Dublin.
„Bei Intercom verfügen wir über ein wachsendes Team von Daten-Wissenschaftlern und datenorientierten Ingenieuren, und wir möchten häufig schnell iterieren und nach neuen Lösungen für datengetriebene Produkte suchen. Vor Amazon SageMaker haben wir viele verschiedene Optionen zum Erstellen dieser Produkte ausprobiert, aber jede war mit Herausforderungen verbunden: Die gemeinsame Nutzung von Code war schwierig, das Testen großer Datensätze lief langsam und das eigenständige Bereitstellen und Verwalten von Hardware war problematisch. Dann kam SageMaker und hat das alles für uns gelöst. Wir benutzen es vor allem, um Algorithmen für unsere Suchplattformen und Machine Learning Funktionen zu entwickeln, und wir finden, dass die gehosteten Jupyter-Notebooks von SageMaker es uns ermöglichen, schnell zu entwickeln und zu iterieren. Entscheidend ist vor allem die Tatsache, dass SageMaker ein verwalteter Service ist, und es meinem Team erlaubt, sich auf die eigentliche Aufgabe zu konzentrieren. Amazon SageMaker ist ein äußerst wertvoller Service für Intercom, und wir freuen uns, ihn im Zuge des Wachstums unseres Unternehmens weiter zu nutzen.“
Kevin McNally, Senior Data Scientist Machine Learning - Intercom
Kinect Energy Group
Die Kinect Energy Group ist eine Tochtergesellschaft von World Fuel Services, einem Fortune-100-Unternehmen, das Beratungsdienste für die Energiebeschaffung, die Lieferabwicklung sowie Transaktions- und Zahlungsmanagementlösungen für gewerbliche und industrielle Kunden anbietet, die haupsächlich in der Luftfahrt-, Schifffahrts- und Landtransportbranche tätig sind. Kinect Energy ist ein wichtiger nordischer Energieversorger, der auf die natürlichen Energieressourcen, die das windreiche Klima der Region ermöglicht, angewiesen ist.
Das Unternehmen hat sich kürzlich mit der Einführung einer Anzahl von AI / ML Services von AWS enorm verbessert. Mit Amazon SageMaker kann das Unternehmen aufkommende Wetterveränderungen und somit den zukünftigen Monatspreis an Strom vorhersagen. Dies ermöglicht einen beispiellosen und langfristigen Energiehandel, der einen branchenführenden und zukunftsweisenden Ansatz darstellt.
„Wir haben angefangen, Amazon SageMaker zu benutzen, und mit Hilfe des AWS ML Solutions Team und des Solutions Architecture Team haben wir mit Innovation Day die Sache in Schwung gebracht, und seitdem ist die Wirkung enorm. Wir haben unser eigenes KI-Team mehrmals erweitert, um die neuen Vorteile der AWS-Technologien voll auszunutzen. Wir profitieren auf eine neue Art und Weise, nämlich indem wir die Preise auf der Grundlage von Wetterbedingungen, die noch nicht eingetreten sind, festlegen. Wir haben alles auf AWS gesetzt, einschließlich der Speicherung unserer Daten in S3, der Verwendung von Lambda für die Ausführung und Step-Funktionen zusätzlich zu SageMaker. Und dank der engagierten Partnerschaft mit dem AWS ML Solutions Lab sind wir jetzt selbstständig, können die von uns entwickelten Modelle iterieren und unser Geschäft weiter verbessern.“
Andrew Stypa, Lead Business Analyst - Kinect Energy Group
Frame.io
Frame.io ist Ihre Anlaufstelle für alles, was mit Video zu tun hat. Frame.io ist mit mehr als 700 000 Kunden weltweit der führende Anbieter im Bereich Videoprüfung und -zusammenarbeit. Auf Frame.io können Videoprofis jeder Art – vom Freiberufler bis zum Unternehmen – Videos überprüfen, genehmigen und bereitstellen.
„Da wir eine cloudnative Plattform für Videoüberprüfung und Zusammenarbeit sind, und für Prüfer auf der ganzen Welt zugänglich sind, müssen wir unseren Kunden unbedingt erstklassige Sicherheit bieten. Mit dem in Amazon SageMaker entwickelten Modell zur Erkennung von Anomalien sind wir in der Lage, Machine Learning zu nutzen, um unerwünschte IP-Anfragen schnell zu identifizieren, zu erkennen und zu blockieren, um zu gewährleisten, dass die Medien unserer Kunden stets sicher und geschützt sind. Der Einstieg in Amazon SageMaker, die Wartung im Laufe der Zeit, die Skalierung auf unsere Plattform und die Anpassung an unsere spezifischen Workflows waren einfach und unkompliziert. Und mit Hilfe der Jupyter-Notebooks in SageMaker konnten wir mit verschiedenen Modellen experimentieren, um unsere Präzision und den Recall zu verbessern, was Frame.io noch sicherer macht.“
Abhinav Srivastava, VP and Head of Information Security - Frame.io
Cookpad
Cookpad ist Japans größter Service für den Austausch von Koch- und Backrezepten mit ca. 60 Millionen Nutzern pro Monat in Japan und ca. 90 Millionen Nutzern pro Monat weltweit.
„Mit der steigenden Nachfrage nach einer einfacheren Verwendung des Cookpad-Rezeptdienstes werden unsere Datenwissenschaftler mehr Machine Learning-Modelle entwickeln, um die Benutzererfahrung zu optimieren. Bei dem Versuch, die Anzahl der Trainingsdurchläufe für optimale Leistung zu minimieren, haben wir eine wichtige Herausforderung im Bereich der Entwicklung von ML-Inference-Endpunkten erkannt, die unseren Entwicklungsprozess verlangsamt hat. Zur Automatisierung der ML-Modell-Bereitstellung, mithilfe derer Datenwissenschaftler Modelle selbst bereitstellen könnten, haben wir die Inference APIs von Amazon SageMaker verwendet und bewiesen, dass mit Amazon SageMaker keine Anwendungsingenieure mehr für die Bereitstellung der ML-Modelle erforderlich wären. Wir kommen der Automatisierung dieses Prozesses mit Amazon SageMaker in der Produktion zuvor."
Yoichiro Someya, Research Engineer - Cookpad
Fabulyst
Fabulyst ist ein indisches Fashion-Startup. Im Kern des Angebots steht eine positives, hochgradig personalisiertes Shopping-Erlebnis durch Nutzung einer KI, die Händler zu höheren Conversion-Rates verhilft.
„Mit Fabulyst finden Kunden viel einfacher das perfekte Angebot, indem der Lagerbestand des Händlers mit nutzerspezifischen, personalisierten Kriterien abgeglichen wird (zum Beispiel mit Angaben zu Körperbau und Hautton). Onlinehändler können mit uns ihre effektive Conversion-Rate steigern, indem sie computergestützt monatliche Trends abfragen, die auf Daten aus sozialen Medien, Suchabfragen, Blogs usw. basieren. Diese Trends werden von unserem System per Auto-Tagging mit den Katalogen unserer Händlerkunden verknüpft. Fabulyst verlässt sich zur Bereitstellung seiner wegweisenden Produkte auf AWS und unter anderem Amazon SageMaker, um die zahlreichen Vorhersagen zu verarbeiten, die von unseren Angeboten generiert werden. SageMaker und andere AWS-Services sind unerlässlich, um unseren Kunden optimalen Wert zu bieten – und Onlinehändlern zum Beispiel einen 10%igen Ertragszuwachs zu verschaffen. Sie bieten uns die Zuverlässigkeit und Leistung, die wir benötigen, um jederzeit erstklassige Ergebnisse zu liefern."
Komal Prajapati, Gründer und CEO – Fabulyst
Terragon Group
Terragon Group ist ein Daten- und Marketing-Technologieunternehmen, das Unternehmen Wertsteigerungen ermöglicht, indem es mithilfe von Einblicken die mobile Zielgruppe in Afrika erreicht. In den vergangenen Jahren hat sich Terragon Group zu einem führenden Unternehmen im mobilen Sektor entwickelt, das lokale und multinationale Marken bedient und in vielen Regionen aktiv ist. Die richtige Werbebotschaft für den richtigen Benutzer zum richtigen Zeitpunkt erfordert Personalisierung. Terragon verwendet Daten, Einblicke und künstliche Intelligenz, um Unternehmen dabei zu unterstützen, die richtige Zielgruppe in Afrika zu erreichen.
“Amazon SageMaker bietet uns einen durchgehenden Machine-Learning-Workflow, ohne dass wir eine zugrunde liegende Infrastrukturinstallation benötigen. Unsere Teams für Datenwissenschaft und Machine Learning sind in der Lage, innerhalb weniger Stunden von der Datenexploration zum Modelltraining und zur Produktion überzugehen. Für ein Unternehmen mit Sitz in Afrika, das nur über wenige technische Talente verfügt, gibt es keine andere Möglichkeit, ML-Modelle zu entwickeln und bereitzustellen, die reale Probleme in weniger als 90 Tagen lösen.“
Deji Balogun, CTO – Terragon Group
SmartNews
SmartNews ist die größte News-App in Japan; sie versorgt monatlich mehr als elf Millionen aktiver Nutzer weltweit mit qualitativ hochwertigen Informationen. Auf der Basis von Machine-Learning-Technologien unterstützt SmartNews seine Benutzer, indem es nur die relevantesten und interessantesten News-Storys bereitstellt. Die Machine Learning-Algorithmen bei SmartNews bewerten Millionen von Artikeln, Signale in sozialen Medien sowie menschliche Interaktionen und stellen so die Top 0,01 % der Storys bereit, die derzeit die größte Relevanz haben.
"Unser Ziel, der Welt qualitativ hochwertige Storys bereitzustellen, powered by AWS und insbesondere von Amazon SageMaker unterstützt, das uns dabei geholfen hat, den Entwicklungszyklus bei der Servicebereitstellung gegenüber unseren Kunden zu beschleunigen. Die Verwendung von Amazon SageMaker hat bei unseren News-Auswahlmethoden, einschließlich Artikelklassifizierung mithilfe von Deep Learning, Prognose des Life-Time-Werts und zusammengesetzte Modellierung für Texte und Bilder, große Dienste geleistet. Wir freuen uns darauf, mit Amazon SageMaker und anderen KI-Lösungen von AWS künftig noch mehr zu erreichen.”
Kaisei Hamamoto, Co-Founder and Co-CEO - SmartNews, Inc.
Pioneer
Pioneer ist ein multinationales Unternehmen, das sich auf digitale Unterhaltung einschließlich Autoelektronik und Mobilitätsdienstleistungen spezialisiert hat. Pioneer ist von seiner Unternehmensphilosophie „Bewege das Herz und berühre die Seele“ geleitet und bietet seinen Kunden Produkte und Dienstleistungen, die ihnen im Alltag helfen können.
„Mithilfe von Amazon SageMaker und den Modelltrainings-Funktionen wie der automatischen Modelloptimierung konnten wir hochpräzise Modelle für Machine Learning entwickeln und weiterhin den Datenschutz für unsere Kunden gewährleisten. Wir freuen uns auch darauf, AWS Marketplace für Machine Learning sowohl für Algorithmen als auch für vorgefertigte Modelle zu nutzen, um eine Monetarisierungsplattform aufzubauen.“
Kazuhiro Miyamoto, General Manager Information Service Engineering Department – Pioneer
Dely
Dely betreibt Kurashiru, den besten videobasierten Kochservice in Japan. Das Unternehmen ist jeden Tag bestrebt, kulinarische Services bereitzustellen, die die Welt beeindrucken. Kurashiru hilft täglich vielen Menschen, indem es eine Vielzahl von schmackhaften Rezepten vorstellt, die den Esstisch mit Kochvideos bereichern. Mehrere zehn Millionen Menschen nutzen jeden Monat den Video-Rezeptservice in Japan.
“Unsere mobile App wurde seit dem Start des beliebten Kurashiru-Services vor 2,5 Jahren bereits mehr als 15 Millionen Mal heruntergeladen. Wir sind davon überzeugt, dass es wichtig ist, unseren Nutzern mithilfe fortschrittlicher Technologien, wie z. B. Machine Learning, zum richtigen Zeitpunkt die richtigen Inhalte bereitzustellen. Um dies zu erreichen, benutzten wir Amazon SageMaker, mit dem wir die Machine-Learning-Modelle innerhalb von 90 Tagen entwickeln und bereitstellen konnten. Außerdem konnten wir mit Inhaltspersonalisierung die Klickrate um 15 % steigern.“
Masato Otake, CTO – Dely, Inc.
Ayla Networks
Ayla Networks ist ein in San Francisco ansässiges Softwareunternehmen für die IoT-Plattform als Dienstleistung, das Lösungen für Verbraucher- und kommerzielle Märkte entwickelt.
“Wir bei Ayla Networks stellen fest, dass unsere Kunden aufgrund ihrer nachgewiesenen Skalierbarkeit und Zuverlässigkeit hauptsächlich mit AWS-Infrastruktur arbeiten. Insbesondere stellen wir fest, dass kommerzielle Hersteller Amazon SageMaker nutzen, um die Leistungsdaten von Ayla Cloud zu nutzen. Mit Amazon SageMaker und unserem Ayla IQ-Produkt können Unternehmen Erkenntnisse und Anomalien aufdecken, die zu einer besseren Produkt- und Servicequalität führen, selbst wenn Maschinenausfälle vorhergesagt und behoben werden, bevor sie auftreten können. Diese Lösung sorgt dafür, dass unsere Kunden reibungslos arbeiten und ihre Unternehmen ohne Bedenken weiter wachsen, produzieren und skalieren können.“
Prashanth Shetty, VP of Global Marketing - Ayla Networks
FreakOut
FreakOut ist ein führendes Technologieunternehmen, das sich auf digitale Werbung konzentriert. Das Unternehmen bietet Produkte für Anzeigeninventurtransaktionen in Echtzeit in der Internetwerbung sowie Datenanalysen zum Surfen im Internet an. FreakOut nutzt Machine Learning für Prognosen zur Klickrate (Click-through-Rate, CTR) und Conversion-Rate (CVR).
„Wir migrieren gerade Schulungsumgebungen für Machine Learning von lokalen Umgebungen zu Amazon SageMaker. Amazon SageMaker bietet uns eine skalierbare Lösung für unser Unternehmen. Mit der Funktion zur automatischen Modelloptimierung von Amazon SageMaker können wir hochgenaue Modelle für unsere Anforderungen optimieren und prognostizieren.“
Jiro Nishiguchi, CTO - FreakOut
Wag!
"Bei Wag! müssen wir die Anforderungen von Angebot und Nachfrage auf einem zweiseitigen Markt erfüllen. Wir sahen die Möglichkeit, mithilfe von Machine Learning – powered by AWS – die Nachfrage unserer Kunden nach dem Spaziergang mit dem Hund vorherzusagen. Durch die Standardisierung unserer Anwendungen für maschinelles Lernen auf AWS können wir dem kontinuierlichen Wachstum unserer Geschäftsanforderungen gerecht werden, indem wir trotz begrenzter technischer Ressourcen in einem erheblich verbesserten Tempo und Umfang iterieren. Mit Amazon SageMaker können wir unser Experimentieren mit maschinellem Lernen beschleunigen und die Rechenzeit des Modells für 45 Tage auf 3 Tage reduzieren. “
Dave Bullock, VP of Technology of Engineering and Operations – Wag Labs Inc.
Infoblox
Infoblox ist Marktführer im Bereich sicherer cloudverwalteter Netzwerkservices, die dazu dienen, das zentrale Netzwerk zu schützen, genauer gesagt DNS, DHCP und IP-Adressenverwaltung (gemeinsam als DDI bekannt).
„Bei Infoblox haben wir mit Amazon SageMaker einen DNS-Sicherheitsanalytik-Service aufgebaut, der bösartige Akteure aufspürt, die Homogramme erstellen, um sich als hoch geschätzte Domainnamen-Ziele auszugeben, und diese dazu verwenden, Malware zu verbreiten, Benutzerinformationen zu fälschen und den Ruf einer Marke anzugreifen. AWS ist unser Unternehmensstandard in der Cloud und wir können mehrere Funktionen in SageMaker nutzen, um die Entwicklung eines ML-Modells zu beschleunigen. Mit den automatischen Modellabstimmungsfunktionen von SageMaker haben wir unsere Experimente skaliert und die Genauigkeit auf 96,9 % verbessert. Dank SageMaker hat unser IDN-Homografie-Finder, Teil unseres Sicherheitsanalyseservices, über 60 Millionen homografische Domains gefunden. Jeden Monat werden Millionen weitere gefunden, wodurch wir unseren Kunden helfen, gefälschte Marken schneller zu erkennen."
Femi Olumofin, Analytics Architect - Infoblox
NerdWallet
NerdWallet, ein Unternehmen mit Sitz in San Francisco, das im Bereich persönliche Finanzen tätig ist, bietet Bewertungen und Vergleiche von Finanzprodukten wie Kreditkarten, Bankgeschäften, Investitionen, Krediten und Versicherungen.
„NerdWallet verlässt sich auf Datenwissenschaft und ML, um Kunden individuelle Finanzprodukte zu empfehlen. Wir haben uns dafür entschieden, unsere ML-Workloads auf AWS zu standardisieren, weil wir dadurch unsere datenwissenschaftlichen Engineering-Praktiken schnell modernisieren, Hindernisse beseitigen und die Zeit bis zur Auslieferung verkürzen konnten. Mit Amazon SageMaker können unsere Datenwissenschaftler mehr Zeit für strategische Verfolgungen aufwenden und mehr Energie darauf konzentrieren, wo unser Wettbewerbsvorteil liegt – unsere Einblicke in die Probleme, die wir für unsere Anwender lösen.“
Ryan Kirkman, Senior Engineering Manager - NerdWallet
Splice
Splice ist eine kreative Plattform für Musiker, die von Musikern aufgebaut wurde, um Künstler in die Lage zu versetzen, ihr wahres kreatives Potenzial zu entfalten. Das Start-Up für abonnementbasiertes Musikschaffen wurde 2013 gegründet und betreut heute mehr als 3 Millionen Musiker, die den Katalog auf der Suche nach den perfekten Sounds durchforsten.
„Mit unserem Katalog von Sounds und Presets wächst auch die Herausforderung, den richtigen Sound zu finden. Aus diesem Grund hat Splice in den Aufbau klassenbester Such- und Erkennungsfunktionen investiert. Durch die Standardisierung unserer ML-Workloads auf AWS haben wir ein neueres, benutzerfreundlicheres Angebot geschaffen, das es Musikern einfacher als je zuvor machen soll, die gesuchten Sounds zu finden. Seit der Einführung von Similar Sounds haben wir einen fast 10-prozentigen Anstieg der Suchkonversionen verzeichnet. Durch den Einsatz von Amazon SageMaker haben wir die perfekte Ergänzung zur textbasierten Suche geschaffen, die es unseren Benutzern ermöglicht, unseren Katalog auf eine Weise zu entdecken und in ihm zu navigieren, die vorher nicht möglich war.“
Alejandro Koretzky, Head of Machine Learning & Principal Engineer – Splice
Audeosoft
„Bevor wir den Machine-Learning-Pfad einschlugen, konnten wir nur den Text eines Lebenslaufes durchsuchen, aufgrund des Mangels an Funktionen für die optische Zeichenerkennung konnte jedoch nicht einmal jeder Lebenslauf durchsucht werden. Mit Amazon Textract können wir nun Inhalte aus jeder Art Dokument extrahieren und sind in der Lage, alle hochgeladenen Dateien in einem Elasticsearch-Cluster zu indizieren. Jetzt ist jedes hochgeladene Dokument über Elasticsearch durchsuchbar, mit einer um das Zehnfache höheren Suchgeschwindigkeit im Vergleich zur ursprünglichen SQL-Suche. Außerdem haben wir mittels Amazon SageMaker die Wortvektorierung implementiert, um verwandte Suchbegriffe zu einer Suchabfrage hinzuzufügen. Mit diesem Prozess können wir Bewerberinnen und Bewerber präzise klassifizieren und qualifizieren sowie Fehler, die durch in Lebensläufen verwendete Synonyme oder alternative Formulierungen hervorgerufen werden, eliminieren. Durch die Verwendung von Amazon SageMaker und Amazon Textract können wir Personalvermittlern intelligentere und höher qualifizierte Bewerberinnen und Bewerber empfehlen. Stabile Leistung, weltweite Verfügbarkeit und Zuverlässigkeit sind die wichtigsten Erfolgsfaktoren für Audeosoft. Als wir uns vor mehr als acht Jahren entschieden, eine Partnerschaft mit AWS einzugehen, wussten wir, dass dieses Unternehmen ein exzellenter Partner für die Zukunft sein würde. Durch die Auswahl von AWS als unserer bevorzugter Cloud-Anbieter können wir auf einen Partner vertrauen, den auf Dauer dieselbe Motivation und derselbe Wunsch nach Innovation antreibt.“
Marcel Schmidt, CTO bei Audeosoft
Freshworks
Freshworks ist ein in den USA und Indien ansässiges B2B-SaaS-Einzelunternehmen, das sich an kleine und mittlere Unternehmen (SMB) und mittelständische Unternehmen weltweit richtet. Freshworks bietet ein Portfolio von einfach zu bedienenden, aber dennoch leistungsstarken Anwendungen für Kunden- und Mitarbeiterengagement-Workflows.
"Bei Freshworks haben wir unser Flaggschiff unter den KI/ML-Angeboten, Freddy AI Skills, mit hyper-personalisierten Modellen aufgebaut, die den Agenten dabei helfen, Benutzeranfragen zu beantworten und Support-Tickets erfolgreich zu lösen, Vertriebs- und Marketing-Teams bei der Priorisierung von Gelegenheiten und dem schnellen Abschluss von Geschäften helfen und Kundenerfolgsmanager das Abwanderungsrisiko reduzieren und das Geschäft ausbauen. Wir haben uns dafür entschieden, unsere ML-Workloads auf AWS zu standardisieren, weil wir auf einfache Weise für die Anwendungsfälle unserer Kunden optimierte Modelle für Machine Learning erstellen, schulen und einsetzen können. Dank Amazon SageMaker haben wir mehr als 30.000 Modelle für 11.000 Kunden gebaut und gleichzeitig die Schulungszeit für diese Modelle von 24 Stunden auf unter 33 Minuten reduziert. Mit SageMaker Model Monitor können wir Datenabweichungen verfolgen und Modelle neu trainieren, um die Genauigkeit zu gewährleisten. Dank Amazon SageMaker entwickelt sich Freddy AI Skills ständig weiter – mit intelligenten Aktionen, tiefen Dateneinsichten und intentgesteuerten Gesprächen.“
Tejas Bhandarkar, Senior Director of Product – Freshworks Platform
Veolia
Veolia Water Technologies ist ein erfahrenes Designunternehmen und ein spezialisierter Anbieter von technologischen Lösungen und Services für die Wasser- und Abwasserbehandlung.
„In acht kurzen Wochen arbeiteten wir mit AWS an einem Prototypen, der die Reinigung und den Wechsel unserer Wasserfiltermembranen in unseren Entsalzungsanlagen antizipieren kann. Mit Amazon SageMaker entwickelten wir ein ML-Modell, das von vorherigen Mustern lernt und die zukünftige Entwicklung von Verschmutzungsindikatoren voraussagt. Durch die Standardisierung unserer ML-Workloads auf AWS konnten wir Kosten und Ausfallzeiten reduzieren und gleichzeitig die Qualität des produzierten Wassers steigern. Dies wäre nicht möglich gewesen ohne die technische Erfahrung, das Vertrauen und Engagement beider Teams für ein Ziel: eine unterbrechungsfreie, saubere und sichere Wasserzufuhr.“
Aude GIARD, Chief Digital Officer – Veolia Water Technologies
Sportradar
Sportradar, ein führender Anbieter von Sportdaten, liefert Sportdaten in Echtzeit an mehr als 65 Ligen weltweit. Um modernste Erkenntnisse zu liefern, arbeitete das Unternehmen mit dem Amazon ML Solutions Lab zusammen, um eine Vorhersage für Tore im Fußball zu entwickeln.
„Wir haben dem Team von Amazon ML Solutions Lab gezielt eines der kompliziertesten Probleme maschineller Bildgebung vorgelegt, um die Kapazitäten von AWS Machine Learning zu testen, und die Ergebnisse haben mich sehr beeindruckt. Das Team hat ein ML-Modell entwickelt, um Tore mit 2 Sekunden Vorlauf auf das Live-Spiel zu prognostizieren, wobei Amazon SageMaker zum Einsatz kam. Allein dieses Modell hat uns das Tor zu vielen neuen geschäftlichen Möglichkeiten geöffnet. Unsere ML-Workloads auf AWS zu standardisieren, erfüllt uns mit Zuversicht, da wir so Modelle einrichten, trainieren und bereitstellen können, welche die Innovation in unserem Geschäft fördern und unseren Ansprüchen bei Kosten und Latenz entsprechen.“
Ben Burdsall, CTO – Sportradar
Roche
F. Hoffmann-La Roche AG (Roche) ist ein multinationales Schweizer Life-Science-Unternehmen, das sich auf Pharmazeutika und Diagnostika spezialisiert hat.
„Ich wollte meine Teams dazu bringen, unsere ML-Workflows in der Cloud zu systematisieren, also haben wir mit dem Machine Learning Solutions Lab zusammengearbeitet, um Amazon-SageMaker-Workshops anzubieten und zu demonstrieren, wie SageMaker den ML-Produktionsprozess für Daten-Wissenschaftler rationalisiert. Seit dem Workshop werden 80 % unserer ML-Workloads in AWS ausgeführt, wodurch unsere Teams ML-Modelle dreimal schneller in Produktion bringen können. SageMaker und der AWS-Stack ermöglichen es uns, Computing-Ressourcen zu nutzen, um bei Bedarf Trainings durchzuführen, ohne durch die On-Premises-Verfügbarkeit eingeschränkt zu sein.“
Gloria Macia, Data Scientist – Roche
Guru
"Wir bei Guru glauben, dass das Wissen, das Sie für Ihre Arbeit benötigen, Sie finden sollte. Wir sind eine Wissensmanagementlösung, die die wertvollsten Informationen Ihres Teams erfasst und in einer einzigen Quelle der Wahrheit organisiert. Wir setzen KI ein, um Ihnen Wissen am Arbeitsort in Echtzeit zu empfehlen, um sicherzustellen, dass es verifiziert bleibt, und um Ihnen zu helfen, Ihre gesamte Wissensbasis besser zu verwalten. Unser wachsendes Produktdaten-Wissenschaftsteam stellt sich allen Herausforderungen des modernen ML-Teams – Entwicklung, Schulung und Bereitstellung von ML-Systemen in großem Maßstab – und wir verlassen uns auf Amazon SageMaker als Mittel zur Bewältigung einiger dieser Herausforderungen. Wir setzen SageMaker Inference derzeit ein, um unsere ML-Modelle schneller zur Produktion bereitzustellen, wo sie uns helfen, unser oberstes Ziel zu erreichen – unseren Kunden einen Mehrwert zu bieten.“
Nabin Mulepati, Staff ML Engineer – Guru
Amazon Operations
Amazon fühlt sich verpflichtet, während der COVID-19-Pandemie für die Sicherheit aller Mitarbeitenden zu sorgen. Deswegen hat das Team von Amazon Operations eine ML-Lösung bereitgestellt, um die Protokolle zur räumlichen Distanzierung in mehr als 1 000 Betriebsgebäuden weltweit umzusetzen. Amazon Operations hat mit dem Amazon Machine Learning Solutions Lab zusammengearbeitet, um modernste Modelle für maschinelle Bildgebung für die Schätzung der Distanz zu schaffen. Dabei kam Amazon SageMaker zum Einsatz.
Durch die Standardisierung unserer ML-Workloads auf AWS und Zusammenarbeit mit den Experten des ML Solutions Lab konnten wir einen Satz innovativer Modelle schaffen, die unserer Schätzung nach bis zu 30 % manuelle Arbeit einsparen. Die Nutzung von Amazon SageMaker ermöglicht uns, der Sicherheit mehr Zeit zu widmen und die Genauigkeit zu steigern, da täglich hunderte Stunden manueller Sichtung entfallen.“
Russell Williams, Director, Software Development - Amazon OpsTech IT
Freddy’s Frozen Custard & Steakburgers
Freddy’s Frozen Custard & Steakburgers ist eine Kette von Schnellrestaurants, die eine einzigartige Kombination nach Wunsch zubereiteter Steakburger, Hot-Dogs mit Wiener Würstchen, Shoestring-Fritten und weitere würzige Köstlichkeiten bietet und dazu frisch gerührte kalte Cremespeisen. Freddy’s wurde im Jahr 2002 gegründet und ist seit 2004 eine Franchisekette. Derzeit existieren in 32 US-Bundesstaaten nahezu 400 Restaurants.
„Vorher haben wir einfach zwei Restaurants ausgewählt, die ähnlich wirkten. Jetzt aber verfügen wir über ein wirkliches Verständnis der Beziehung zwischen Speisekarte, Gästen und Standorten. Amazon SageMaker Autopilot, das die neue ML-Kapazität von Domo treibt, ist für unsere Marketing- und Einkaufsteams zu einem echten Multiplikator geworden, um neue Ideen auszuprobieren und die Erfahrung für die Gäste zu verbessern.“
Sean Thompson, IT Director – Freddy’s
Vanguard
„Wir freuen uns, dass unsere Vanguard-Datenwissenschaftler und Dateningenieure jetzt in einem einzigen Notebook für Analysen und Machine Learning zusammenarbeiten können. Da Amazon SageMaker Studio nun über eingebaute Integrationen mit Spark, Hive und Presto verfügt, die alle auf Amazon EMR laufen, können unsere Entwicklungsteams produktiver arbeiten. Diese einheitliche Entwicklungsumgebung ermöglicht es unseren Teams, sich auf die Erstellung, das Training und die Bereitstellung von Machine-Learning-Modellen zu konzentrieren.“
Doug Stewart, Senior Director of Data and Analytics – Vanguard
Provectus
„Wir haben auf ein Feature zum Erstellen und Verwalten von Amazon-EMR-Clustern direkt aus Amazon SageMaker Studio gewartet, damit unsere Kunden Spark-, Hive- und Presto-Workflows direkt aus Amazon SageMaker -Studio Notebooks ausführen können. Wir sind begeistert, dass Amazon SageMaker diese Fähigkeit jetzt nativ eingebaut hat, um die Verwaltung von Spark- und Machine-Learning-Aufträgen zu vereinfachen. Dies wird den Dateningenieuren und Datenwissenschaftlern unserer Kunden helfen, effektiver zusammenzuarbeiten, um interaktive Datenanalysen durchzuführen und Machine-Learning-Pipelines mit EMR-basierten Datentransformationen zu entwickeln.“
Stepan Pushkarev, CEO – Provectus
Climate
„Wir bei Climate glauben daran, den Landwirten weltweit genaue Informationen zur Verfügung zu stellen, damit sie datengestützte Entscheidungen treffen und ihren Ertrag auf jedem Feld maximieren können. Um dies zu erreichen, haben wir in Technologien wie Tools für Machine Learning investiert, um Modelle zu erstellen, die auf messbaren Funktionen basieren, z. B. dem Ertrag eines Feldes. Mit dem Amazon SageMaker Feature Store können wir die Entwicklung von ML-Modellen mit einem zentralen Feature Store beschleunigen, um auf Funktionen zuzugreifen und diese problemlos in verschiedenen Teams wiederzuverwenden. SageMaker Feature Store macht es einfach, über den Online-Store in Echtzeit auf Funktionen zuzugreifen oder über den Offline-Store Funktionen nach einem Zeitplan für verschiedene Anwendungsfälle auszuführen. Mit dem SageMaker Feature Store können wir ML-Modelle schneller entwickeln.“
Atul Kamboj, leitender Datenwissenschaftler – iCare, staatliche Versicherungs- und Pflegebehörde von NSW, Australien, Daniel McCaffrey, Vizepräsident für Daten und Analysen, Klima
Experian
„Wir bei Experian glauben, dass es unsere Aufgabe ist, Verbraucher zu befähigen, Kredite in ihrem finanziellen Leben zu verstehen und zu nutzen, und Kreditgebern beim Management von Kreditrisiken zu helfen. Während wir weiterhin bewährte Methoden zur Erstellung unserer Finanzmodelle implementieren, suchen wir nach Lösungen, die die Produktion von Produkten, die Machine Learning nutzen, beschleunigen. Amazon SageMaker Feature Store bietet uns eine sichere Möglichkeit zur Speicherung und Wiederverwendung von Funktionen für unsere ML-Anwendungen. Die Fähigkeit, die Konsistenz sowohl für Echtzeit- als auch für Batch-Anwendungen über mehrere Konten hinweg aufrechtzuerhalten, ist eine wichtige Voraussetzung für unser Geschäft. Mit den neuen Funktionen des Amazon SageMaker Feature Stores können wir unsere Kunden in die Lage versetzen, die Kontrolle über ihre Kredite zu übernehmen und die Kosten in der New Economy zu senken.“
Geoff Dzhafarov, Chief Enterprise Architect, Experian Consumer Services
Dena
„Wir bei DeNA haben es uns zur Aufgabe gemacht, mit Hilfe des Internets und KI/ML Wirkung und Freude zu erzeugen. Die Bereitstellung wertorientierter Services ist unser oberstes Ziel, und wir wollen sicherstellen, dass unsere Unternehmen und Services bereit sind, dieses Ziel zu erreichen. Wir möchten Funktionen innerhalb des Unternehmens entdecken und wiederverwenden. Der Amazon SageMaker Feature Store bietet uns eine einfache und effiziente Möglichkeit, Funktionen für verschiedene Anwendungen wiederzuverwenden. Amazon SageMaker Feature Store hilft uns auch bei der Beibehaltung von Standardfunktionsdefinitionen und unterstützt uns bei einer konsistenten Methodik, wenn wir Modelle trainieren und sie in der Produktion bereitstellen. Mit diesen neuen Fähigkeiten von Amazon SageMaker können wir ML-Modelle schneller trainieren und bereitstellen. So können wir weiterhin unsere Mission umsetzen, unsere Kunden mit den besten Dienstleistungen zu begeistern.“
Kenshin Yamada, General Manager / AI System Dept System Unit, DeNA
United Airlines
„Bei United Airlines verwenden wir Machine Learning (ML), um das Kundenerlebnis zu verbessern. Wir bieten personalisierte Angebote und ermöglichen es unseren Kunden, sich mithilfe des Travel Readiness Center vorzubereiten. Unser Einsatz von ML erstreckt sich auch auf den Flughafenbetrieb, die Netzplanung und die Flugplanung. Als wir die Pandemie überwunden hatten, spielte Amazon SageMaker eine entscheidende Rolle im Travel Readiness Center. Es ermöglichte uns, große Mengen an COVID-Testzertifikaten und Impfpässen mithilfe von dokumentenbasierter Modellautomatisierung zu verarbeiten. Mit den neuen Governance-Funktionen von Amazon SageMaker haben wir die Kontrolle und Sichtbarkeit über unsere Machine Learning-Modelle verbessert. SageMaker Role Manager vereinfacht den Einrichtungsprozess für Benutzer erheblich, indem es Basisberechtigungen und ML-Aktivitäten für jede mit IAM-Rollen verknüpfte Persona bereitstellt. Mit SageMaker Model Cards können unsere Teams proaktiv Modellinformationen erfassen und zur Überprüfung freigeben. Mit SageMaker Model Dashboard können wir die auf MARS, unserer internen ML-Plattform, bereitgestellten Modelle suchen und anzeigen. Mit all diesen neuen Governance-Funktionen sparen wir viel Zeit und können skalieren.“
Ashok Srinivas, Director of ML Engineering and Ops, United Airlines
Capitec
„Bei Capitec verfügen wir über ein breites Spektrum an Datenwissenschaftlern, die in unseren Produktlinien verschiedene ML-Lösungen entwickeln. Unsere ML-Ingenieure verwalten eine zentralisierte Modellierungsplattform, die auf Amazon SageMaker erstellt wurde, um die Entwicklung und Bereitstellung all dieser ML-Lösungen zu ermöglichen. Ohne integrierte Tools führt die Nachverfolgung von Modellierungsbemühungen zu unzusammenhängender Dokumentation und mangelnder Modellsichtbarkeit. Mit SageMaker Model Cards können wir zahlreiche Modellmetadaten in einer einheitlichen Umgebung verfolgen, und SageMaker Model Dashboard bietet uns Einblick in die Leistung jedes Modells. Darüber hinaus vereinfacht der SageMaker Role Manager den Prozess der Zugriffsverwaltung für Datenwissenschaftler in unseren verschiedenen Produktlinien. All dies trägt dazu bei, dass unsere Modell-Governance ausreicht, um das Vertrauen unserer Kunden in uns als Finanzdienstleister zu rechtfertigen.“
Dean Matter, ML-Ingenieur, Capitec Bank
Lenovo
Lenovo™, der weltweit führende PC-Hersteller, hat kürzlich Amazon SageMaker in sein neuestes Angebot für prädiktive Wartung aufgenommen. Ashok Srinivas, Director of ML Engineering and Ops, United Airlines.
„Der neue SageMaker Edge Manager wird dazu beitragen, den manuellen Aufwand zu vermeiden, der für die Optimierung, Überwachung und kontinuierliche Verbesserung der Modelle nach der Bereitstellung erforderlich ist. Damit gehen wir davon aus, dass unsere Modelle schneller laufen und weniger Speicher verbrauchen werden als bei anderen vergleichbaren Plattformen für maschinelles Lernen. Mit SageMaker Edge Manager können wir Daten am Edge automatisch abtasten, sie sicher an die Cloud senden und die Qualität jedes Modells auf jedem Gerät nach der Bereitstellung kontinuierlich überwachen. Dies ermöglicht es uns, die Modelle auf unseren Edge-Geräten auf der ganzen Welt aus der Ferne zu überwachen, zu verbessern und zu aktualisieren, und spart uns und unseren Kunden gleichzeitig Zeit und Kosten.“
Igor Bergman, Vizepräsident von Lenovo, Cloud und Software für PCs und intelligente Geräte.
Basler AG
Die Basler AG ist ein führender Hersteller von hochwertigen Digitalkameras und Zubehör für Industrie, Medizin, Transport und eine Vielzahl anderer Märkte.
„Die Basler AG liefert intelligente Computer-Vision-Lösungen für eine Vielzahl von Branchen, darunter in der Fertigung, in der Medizin und im Einzelhandel. Wir freuen uns, unser Softwareangebot um neue Features zu erweitern, die durch Amazon SageMaker Edge Manager ermöglicht werden. Um sicherzustellen, dass unsere Machine-Learning-Lösungen performant und zuverlässig sind, benötigen wir ein skalierbares Edge-to-Cloud-MLOps-Tool, mit dem wir Machine-Learning-Modelle auf Edge-Geräten kontinuierlich überwachen, warten und verbessern können. Mit SageMaker Edge Manager können wir Daten am Edge automatisch abtasten, sie sicher an die Cloud senden und die Qualität jedes Modells auf jedem Gerät nach der Bereitstellung kontinuierlich überwachen. Dies ermöglicht es uns, die Modelle auf unseren Edge-Geräten auf der ganzen Welt aus der Ferne zu überwachen, zu verbessern und zu aktualisieren, und spart uns und unseren Kunden gleichzeitig Zeit und Kosten.“
Mark Hebbel, Leiter Softwarelösungen bei Basler.
NatWest Group
Die NatWest Group, ein großes Finanzdienstleistungsinstitut, standardisierte seinen Prozess zur Entwicklung und Bereitstellung von ML-Modellen im gesamten Unternehmen. Dadurch wurde der Durchlaufzyklus zur Erstellung neuer ML-Umgebungen von 40 Tagen auf 2 Tage reduziert und die Zeit bis zur Realisierung von ML-Anwendungsfällen von 40 auf 16 Wochen verkürzt.
AstraZeneca
„Anstatt viele manuelle Prozesse zu erstellen, können wir den größten Teil des Entwicklungsprozesses für Machine Learning einfach innerhalb von Amazon SageMaker Studio automatisieren.“
Cherry Cabading, Global Senior Enterprise Architect – AstraZeneca
Janssen
Durch den Einsatz von AWS-Services, einschließlich Amazon SageMaker, implementierte Janssen einen automatisierten MLOps-Prozess, der die Genauigkeit der Modellprognosen um 21 Prozent verbesserte und die Geschwindigkeit des Feature Engineerings um ca. 700 Prozent steigerte. Dadurch konnte Janssen die Kosten senken und gleichzeitig die Effizienz steigern.
Qualtrics
„Amazon SageMaker verbessert die Effizienz unserer MLOps-Teams mit den Tools, die für das Testen und Bereitstellen von Machine-Learning-Modellen in großem Maßstab erforderlich sind.“
Samir Joshi, ML Engineer – Qualtrics
Deloitte
„Amazon SageMaker Data Wrangler ermöglicht es uns, mit einer umfangreichen Sammlung von Transformationstools, die den Prozess der ML-Datenvorbereitung, der für die Markteinführung neuer Produkte erforderlich ist, zu beschleunigen, um unsere Anforderungen an Datenvorbereitung zu erfüllen. Unsere Kunden wiederum profitieren von der Geschwindigkeit, mit der wir eingesetzte Modelle skalieren, die es uns ermöglicht, innerhalb von Tagen statt Monaten messbare, nachhaltige Ergebnisse zu liefern, die die Bedürfnisse unserer Kunden erfüllen.“
Frank Farrall, Principal, AI Ecosystems and Platforms Leader, Deloitte
NRI
„Als AWS Premier Consulting Partner arbeiten unsere Engineering-Teams sehr eng mit AWS zusammen, um innovative Lösungen zu entwickeln, die unseren Kunden dabei helfen, die Effizienz ihres Betriebs kontinuierlich zu verbessern. ML ist der Kern unserer innovativen Lösungen, aber unser Datenvorbereitungs-Workflow umfasst ausgefeilte Datenvorbereitungstechniken, deren Operationalisierung in einer Produktionsumgebung daher viel Zeit in Anspruch nimmt. Mit Amazon SageMaker Data Wrangler können unsere Datenwissenschaftler jeden Schritt des Datenvorbereitungs-Workflows abschließen, einschließlich Datenauswahl, Bereinigung, Exploration und Visualisierung, was uns hilft, den Datenvorbereitungsprozess zu beschleunigen und unsere Daten einfach für ML vorzubereiten. Mit Amazon SageMaker Data Wrangler können wir Daten schneller für ML vorbereiten.“
Shigekazu Ohmoto, Senior Corporate Managing Director, NRI Japan
Equilibrium
„Da sich unsere Präsenz auf dem Markt für bevölkerungsbezogenes Gesundheitsmanagement weiter auf immer mehr Gesundheitszahler, Leistungserbringer, Apothekenleistungsverwalter und andere Gesundheitswesenorganisationen ausdehnt, benötigten wir eine Lösung zur Automatisierung von End-to-End-Prozessen für Datenquellen, die unsere Modelle für ML füttern, einschließlich Anspruchsdaten, Registrierungsdaten und Apothekendaten. Mit Amazon SageMaker Data Wrangler können wir jetzt die Zeit zum Aggregieren und Vorbereiten von Daten für ML beschleunigen, indem wir eine Reihe von Workflows verwenden, die einfacher zu validieren und wiederzuverwenden sind. Dies hat die Lieferzeit und Qualität unserer Modelle dramatisch verbessert, die Effektivität unserer Datenwissenschaftler erhöht und die Datenvorbereitungszeit um fast 50 % reduziert. Darüber hinaus hat uns SageMaker Data Wrangler geholfen, mehrere Iterationen von ML und erhebliche GPU-Zeit zu sparen und den gesamten End-to-End-Prozess für unsere Kunden zu beschleunigen, da wir jetzt Data Marts mit Tausenden von Funktionen erstellen können, darunter Apotheken, Diagnosecodes, Notaufnahmebesuche, stationäre Patientenaufenthalte sowie demografische und andere soziale Determinanten. Mit SageMaker Data Wrangler können wir unsere Daten mit überlegener Effizienz zum Erstellen von Trainingsdatensätzen transformieren, Datenerkenntnisse in Datensätze generieren, bevor Modelle für ML ausgeführt werden und reale Daten für maßstabsgetreue Inferenz/Vorhersagen vorbereiten.“
Lucas Merrow, CEO, Equilibrium Point IoT
icare Insurance and Care NSW
iCare ist eine Regierungsbehörde von New South Wales, die mehr als 329 000 Arbeitgebern des öffentlichen und privaten Sektors in NSW, Australien, und ihren 3,2 Millionen Arbeitnehmern eine Arbeitsunfallversicherung anbietet. Darüber hinaus versichert iCare Entwicklern und Hausbesitzer, behandelt und betreut schwer verletzte Menschen auf den Straßen von New South Wales und schützt mehr als 266,6 Milliarden US-Dollar an Vermögenswerten der Regierung von New South Wales, darunter das Sydney Opera House, die Sydney Harbour Bridge, Schulen und Krankenhäuser.
„Bei Insurance and Care (iCare) NSW ist es unsere Vision, die Art und Weise zu ändern, wie Menschen über Versicherungen und Pflege denken. Amazon SageMaker hat es iCare ermöglicht, Deep Learning-Modelle für die Früherkennung von Patienten mit Langzeitstaubkrankheit zu erstellen und zu trainieren. Durch diese Früherkennung kann lebensbedrohlichen Zustände vorgebeugt werden. Früheren Studien zufolge wurden bei 39 % der Patienten Anzeichen einer Silikose übersehen oder konnten nicht festgestellt werden. Die KI-gestützte Diagnose hat es den Ärzten ermöglicht, 80 % der Fälle korrekt zu identifizieren, verglichen mit 71 % ohne assistierte Diagnosen. Nach der Implementierung dieses Projekts stellen wir Amazon SageMaker zur Entwicklung von Lösungen und Prozessen in anderen Projekten zur Verfügung, da sich dies als schneller und einfacher als zuvor erwiesen hat und wir unsere Bemühungen zur Versorgung der Menschen in New South Wales problemlos skalieren können.“
Atul Kamboj, leitender Datenwissenschaftler – iCare, NSW Government Insurance and Care Agency, Australien