Clients d'Amazon SageMaker
Découvrez comment les plus grandes entreprises du monde entier utilisent Amazon SageMaker pour créer, tester et déployer des modèles de machine learning (ML).Articul8 AI
« Amazon SageMaker HyperPod nous a énormément aidés à gérer et à exploiter nos ressources de calcul de manière plus efficace avec un minimum de durée d’indisponibilité. Nous avons été les premiers à adopter le service HyperPod basé sur Slurm et avons bénéficié de sa facilité d’utilisation et de ses fonctionnalités de résilience, ce qui a permis d’améliorer la productivité de 35 % et d’étendre rapidement nos opérations GenAI. En tant que société Kubernetes, nous sommes ravis d’annoncer le lancement du support Amazon EKS pour SageMaker HyperPod. Cela change la donne pour nous, car il s’intègre parfaitement à nos pipelines d’entraînement existants et nous permet de gérer et d’exploiter encore plus facilement nos clusters Kubernetes à grande échelle. En outre, cela aide également nos clients finaux, car nous sommes désormais en mesure d’intégrer et de produire cette fonctionnalité dans notre plateforme GenAI, ce qui permet à nos clients d’exécuter leurs propres charges de travail d’entraînement et de mise au point d’une manière plus rationalisée. »
Arun Subramaniyan, fondateur et PDG d’Articul8 AI
Observea
« En tant que start-up en pleine évolution et société de recherche en IA, la prise en charge par Amazon EKS dans SageMaker HyperPod a joué un rôle essentiel dans l’accélération de nos délais de commercialisation. Avec SageMaker Hyperpod, nous avons été en mesure de lancer une plateforme stable et sécurisée pour proposer des applications de calcul haute performance (HPC) conteneurisées en tant que service à nos clients finaux, qui comprennent des programmes de recherche en IA des meilleures universités, des start-ups d’IA et des entreprises traditionnelles. Grâce à notre utilisation de SageMaker HyperPod, nos clients et nos équipes internes n’ont plus à se soucier de l’exploitation et de la configuration du plan de contrôle Kubernetes. SageMaker HyperPod fournit les performances du réseau et des configurations optimisées pour prendre en charge les charges de travail HPC complexes. Avec la prise en charge d’EKS dans SageMaker HyperPod, nous pouvons réduire le temps que nous consacrions à des tâches lourdes indifférenciées dans la gestion de l’infrastructure et réduire les coûts opérationnels de plus de 30 %. »
Vamsi Pandari, fondateur d’Observea
Recursal AI
« L’ensemble du processus a été rationalisé. Grâce à SageMaker HyperPod, nous pouvons tirer parti des fonctionnalités de résilience des clusters qui identifient et restaurent automatiquement les tâches d’entraînement depuis le dernier point de contrôle enregistré en cas de panne matérielle. Nous exécutons des charges de travail très diverses, qu’il s’agisse d’applications, d’inférence ou d’entraînement, avec Kubernetes comme fil conducteur. Pour nous, Amazon EKS avec SageMaker HyperPod fonctionne parfaitement : les nœuds s’intègrent à notre cluster. »
Nathan Wilce, responsable de l’infrastructure et des données, Recursal
Rocket Mortgage
« Rocket Mortgage est fière d’être à l’avant-garde de l’intégration de l’IA et de la science des données au processus d’accession à la propriété, avec AWS comme partenaire clé. Grâce à Amazon SageMaker, nous transformons nos opérations de machine learning, améliorant ainsi l’efficacité et la précision. L’éditeur visuel SageMaker Pipelines permet d’évaluer rapidement les performances des nouveaux LLM open source en les exécutant via notre pipeline de validation automatisé. Cela réduit au minimum le temps nécessaire pour évaluer les nouvelles versions, ce qui est crucial dans un environnement en évolution rapide. Sa facilité d’utilisation permet à nos équipes de science des données de se concentrer sur l’innovation plutôt que sur la réécriture de code. »
Shawn Malhotra, Chief Technology Officer chez Rocket Companies
SatSure
SatSure, leader mondial des solutions d’intelligence décisionnelle géospatiale, utilise des données d’observation de la Terre et des modèles de deep learning pour générer des informations pour une variété de cas d’utilisation, allant de la surveillance des cultures par tous les temps et de l’évaluation des risques agricoles à la détection des changements de la couverture terrestre et l’identification des caractéristiques des terres.
« Nous tirons parti d’Amazon SageMaker Pipelines pour créer des modèles pour une application qui identifie les limites des exploitations agricoles sur des images satellites basse résolution. Le développement de modèles de deep learning de pointe à partir de grands jeux de données d’images satellites est extrêmement complexe. Nous sommes en mesure de nous concentrer davantage sur l’innovation en matière d’IA et de consacrer moins de temps aux processus manuels, car Pipelines nous permet d’automatiser le prétraitement fréquent des données, mais aussi l’entraînement et le déploiement de modèles. L’interface utilisateur par glisser-déposer permet aux nouveaux scientifiques des données de l’équipe de passer rapidement à la vitesse supérieure et de créer des flux de travail de machine learning sans connaissances particulières d’un cadre d’orchestration de flux de travail spécifique. »
Prateep Basu, fondateur et PDG, SatSure Ltd.
EagleView
« Afin de répondre à la demande de nos clients qui souhaitent obtenir des informations de haute qualité sur les données, nous recherchons et proposons en permanence de nouvelles fonctionnalités basées sur le ML. La nouvelle interface utilisateur par glisser-déposer d’Amazon SageMaker Pipelines permettra à nos scientifiques des données de rester concentrés sur les problèmes les plus complexes de vision par ordinateur sans se soucier des MLOps. Nous créons des pipelines qui permettent aux scientifiques des données d’enregistrer simplement leurs modèles dans SageMaker sans avoir à se coordonner avec les ingénieurs en ML pour optimiser l’environnement de service de modèles. Le pipeline en plusieurs étapes déploiera automatiquement les modèles enregistrés sur les points de terminaison Amazon SageMaker Inference dans les environnements d’assurance qualité pour les tests de charge et, s’ils sont approuvés par les ingénieurs en ML, dans les environnements de production. La rapidité globale de notre développement ML de bout en bout s’est considérablement améliorée, car Amazon SageMaker Pipelines facilite l’intégration à d’autres services AWS (intégration et livraison continues, services de messagerie) pour créer des flux de travail ML hautement personnalisés. »
Garrett Hemann, directeur de l’IA et du ML, EagleView
GoDaddy
Chez GoDaddy, nous voulons aider les entrepreneurs ordinaires à réussir en leur fournissant les outils nécessaires à la création de leur activité. « Nous servons des clients aux besoins variés. Ils communiquent souvent avec les entreprises auxquelles ils fournissent une assistance 24 heures sur 24 et via de multiples canaux, notamment le courrier électronique, le chat et les réseaux sociaux », explique Jing Xi, VP Applied ML and AI chez GoDaddy. « Aujourd'hui, l’IA générative met les petites entreprises sur un pied d’égalité en leur mettant à portée de main une quantité incroyable de capacités et de connaissances, normalement réservées aux grandes entreprises. Cependant, l’un des plus grands défis auxquels nos équipes de développement d’IA générative sont confrontées est d’essayer de déterminer quel système d'IA à usage général (FM) convient le mieux à leurs applications métier. Il est important pour nous de pouvoir comparer facilement les modèles en fonction de critères spécifiques qui sont les plus importants pour nos clients et de trouver le juste équilibre entre le coût du modèle, la latence, ainsi que la précision et les performances. La nouvelle fonctionnalité d’évaluation des modèles d’Amazon SageMaker nous aide à accélérer le passage de l’idée à la mise en œuvre en éliminant les complexités liées au processus de sélection des modèles et en facilitant l’expérimentation, le développement, le déploiement et la gestion de leur nouvelles versions. Nous sommes ravis d’élargir l’accès à cette nouvelle fonctionnalité à un plus grand nombre d’équipes afin que nos développeurs puissent augmenter leur productivité et exploiter davantage la puissance de l’IA générative, pour ainsi permettre aux clients de développer leur activité ».
« GoDaddy a joué un rôle de premier plan dans l’utilisation du machine learning pour fournir des fonctionnalités axées sur les clients et améliorer la rentabilité de nos opérations internes. Nos scientifiques du ML travaillent sur de nombreux projets pour atteindre ces objectifs. Une itération rapide sur le flux de travail du machine learning pour la conservation des données, la journalisation des expériences, la gestion des artefacts de modèles à l’aide d’un registre de modèles et le déploiement sont essentiels pour générer de la valeur. La nécessité d’un outil sur mesure tel que MLflow était une question claire et forte de la part de nos scientifiques du ML. Amazon SageMaker propose une plateforme gérée et gouvernée aux scientifiques du machine learning pour les flux de travail de bout en bout. En permettant l’utilisation d’un outil standard du secteur tel que MLflow dans SageMaker, nous optimisons le cycle de vie de développement de nos modèles. Nous bénéficions de la sécurité et de la maturité de niveau professionnel de produits tels que le Registre des modèles Amazon SageMaker, tout en bénéficiant du suivi des expériences de machine learning standard via MLflow. L’adoption de MLflow de SageMaker au sein de nos équipes a réduit la charge opérationnelle liée à la maintenance de nos propres instances hébergées MLflow tout en maintenant notre vitesse de livraison et en permettant une meilleure collaboration. Nous sommes heureux d’avoir collaboré avec l’équipe SageMaker dès les premières phases afin de consolider cette offre de produits tout en offrant de la valeur à nos scientifiques du ML. »
Karthik Iyer, directeur de l’ingénierie et du machine learning
KBC
« Chez KBC Bank, nous pensons qu’il est essentiel de doter nos scientifiques des données des bons outils pour stimuler l’innovation. L’expérimentation continue est un moyen efficace d’innover, ce qui nous permet d’explorer de nouvelles idées et d’améliorer nos modèles. MLflow fournit une plateforme robuste pour gérer et documenter les expériences. Le fait de le proposer en tant que service géré améliorera l’expérience utilisateur de nos scientifiques des données tout en simplifiant la configuration et la maintenance de notre plateforme de machine learning. »
Thiago Alves, ingénieur MLOps
Wallapop
« Afin de gérer efficacement le nombre croissant d’expériences de machine learning et de garantir le bon déploiement des modèles, il est essentiel de disposer d’un système robuste de suivi des expériences et d’enregistrement des modèles. MLflow fournit une solution efficace à cette fin, car il permet un suivi détaillé de toutes les expériences de ML, nécessitant un minimum de modifications de notre base de code. Cela facilite la sélection du modèle optimal pour Wallapop et garantit un processus de développement ML rationalisé et efficace. Ainsi, l’intégration et la gestion directes de cette plateforme au sein d’AWS permettent à notre équipe de se concentrer sur la valeur réelle de nos solutions de machine learning, plutôt que sur le gros du travail qu’un tel service nécessiterait. »
Martí Jordà Roca, ingénieur en machine learning
Big Abid
« Amazon SageMaker nous permet de créer facilement des modèles de machine learning distribués à grande échelle. Plutôt que de nous fier à des processus manuels, nous pouvons automatiser la majeure partie du développement de manière fluide dans Amazon SageMaker. Nous avons besoin d’un moyen fiable de suivre les performances de nos tâches de formation automatisées afin de pouvoir comparer les tâches, trouver les meilleurs modèles et les déployer en production. L’intégration à MLflow nous permet de le faire sans la tâche lourde de configuration et de gestion de MLflow par nous-mêmes. Cela améliore encore notre flux de travail, en fournissant des fonctionnalités robustes pour comparer les modèles et enregistrer les modèles, améliorant ainsi considérablement l’efficacité de notre développement et de notre déploiement. »
Eyal Trabelsi, architecte de données
Toyota Connected
« Amazon SageMaker avec MLflow a apporté une grande valeur ajoutée en tant qu’intégration simple, mais très efficace avec SageMaker pour le suivi et la gestion des expériences et de la qualité des modèles. L’intégration native de MLflow à Amazon SageMaker a facilité nos tâches de suivi et de promotion des modèles. En tant que service géré, nous n’avons pas à nous soucier de l’infrastructure sous-jacente, ce qui nous permet de nous concentrer sur l’amélioration de nos modèles et l’accélération de notre cycle de développement. »
Sumeet Kishnani, scientifique des données en chef
Thomson Reuters
« Thomson Reuters est à la pointe du développement de l'IA depuis plus de 30 ans, et nous nous engageons à fournir des solutions significatives qui aident nos clients à obtenir des résultats plus rapidement, avec un meilleur accès à des informations fiables. Pour accélérer notre innovation en matière d'IA générative, outre le partenariat avec des fournisseurs de LLM, nous étudions également la possibilité d'entraîner des modèles personnalisés plus efficacement grâce à notre contenu unique et exclusif et à notre expertise humaine. Les bibliothèques d'entraînement distribué de SageMaker HyperPod nous permettent d'améliorer les performances d'entraînement des modèles à grande échelle. De plus, sa fonctionnalité de résilience permet de gagner du temps lors de la surveillance et de la gestion de l'infrastructure. L'entraînement de nos modèles de base sur SageMaker HyperPod accélérera davantage notre mise sur le marché et nous aidera à fournir des solutions de qualité à nos clients à un rythme soutenu. »
Joel Hron, responsable de l’IA et des laboratoires : Thomson Reuters
« Nous avons pu répondre à nos besoins d’entraînement de grands modèles de langage en utilisant Amazon SageMaker HyperPod. Grâce à Amazon EKS sur SageMaker HyperPod, nous avons pu augmenter notre capacité et exécuter facilement des tâches d’entraînement, ce qui nous a permis de tirer parti des avantages des LLM dans des domaines tels que la synthèse et la classification juridiques. »
John Duprey, ingénieur émérite, Thomson Reuters Labs
Hugging Face
« Hugging Face a utilisé SageMaker HyperPod pour créer d'importants nouveaux modèles de base ouverts comme StarCoder, IDEFICS et Zephyr qui ont été téléchargés des millions de fois. Les capacités de résilience et de performance de SageMaker HyperPod ont permis à notre équipe open science de se concentrer sur l'innovation et la publication d'améliorations importantes dans la façon dont les modèles de base sont construits, plutôt que sur la gestion de l'infrastructure. Nous avons particulièrement apprécié la capacité de SageMaker HyperPod à détecter la panne matérielle de ML et à remplacer rapidement le matériel défectueux sans interrompre l'entraînement continu des modèles. Comme nos équipes doivent innover rapidement, cette fonctionnalité de récupération automatique des tâches nous a permis de minimiser les interruptions pendant le processus d'entraînement des modèles de base, ce qui nous a permis d'économiser des centaines d'heures d'entraînement en l'espace d'un an seulement. »
Jeff Boudier, responsable des produits chez Hugging Face.
Perplexity AI
« Nous étions à la recherche de la bonne infrastructure de ML pour augmenter la productivité et réduire les coûts afin de construire de grands modèles de langage très performants. Après quelques expériences réussies, nous sommes passés d'autres fournisseurs de cloud à AWS afin d'utiliser Amazon SageMaker HyperPod. Nous utilisons HyperPod depuis quatre mois pour construire et affiner les LLM alimentant le moteur de réponse conversationnel Perplexity qui répond aux questions avec des références fournies sous forme de citations. SageMaker HyperPod surveillant l’état des clusters et remédiant aux défaillances des GPU automatiquement, nos développeurs peuvent se concentrer sur l’élaboration de modèles au lieu de passer du temps à gérer et à optimiser l’infrastructure sous-jacente. Les bibliothèques parallèles de données et de modèles intégrées à SageMaker HyperPod nous ont permis d’optimiser le temps d’entraînement sur les GPU et de doubler le débit d’entraînement. Par conséquent, nos expériences d'entraînement peuvent désormais s'exécuter deux fois plus vite, ce qui signifie que nos développeurs peuvent itérer plus rapidement, accélérant ainsi le développement de nouvelles expériences d'IA générative pour nos clients. »
Aravind Srinivas, cofondateur et PDG de Perplexity AI
Workday
« Plus de 10 000 organisations dans le monde s'appuient sur Workday pour gérer leurs actifs les plus précieux : leur personnel et leur argent. Nous fournissons des solutions responsables et transparentes aux clients en sélectionnant le meilleur modèle de base qui reflète les politiques de notre entreprise en matière d'utilisation responsable de l'IA. Pour des tâches telles que la création de descriptions d'emploi, qui doivent être de haute qualité et promouvoir l'égalité des chances, nous avons testé la nouvelle capacité d'évaluation des modèles dans Amazon SageMaker et nous sommes ravis de pouvoir mesurer les modèles de base en fonction de paramètres tels que la partialité, la qualité et la performance. Nous sommes impatients d'utiliser ce service à l'avenir pour comparer et sélectionner des modèles qui répondent à nos critères stricts en matière d'IA responsable. »
Shane Luke, vice-président de l'IA et de machine learning chez Workday.
Salesforce
« Chez Salesforce, nous avons une approche d'écosystème ouvert pour les modèles de base, et Amazon SageMaker est un composant essentiel qui nous aide à mettre à l'échelle notre architecture et à accélérer notre mise sur le marché. En utilisant la nouvelle fonctionnalité SageMaker Inference, nous avons pu placer tous nos modèles sur un seul point de terminaison SageMaker qui a automatiquement géré l'allocation et le partage des ressources de calcul, accélérant ainsi les performances et réduisant les coûts de déploiement des modèles de base. »
Bhavesh Doshi, vice-président chargé de l'ingénierie chez Salesforce.
Bain & Co
« L'un des plus grands défis pour Aura est d'extraire des informations significatives d'un vaste ensemble de données professionnelles non structurées. En utilisant de grands modèles de langage via Amazon SageMaker Canvas, nous avons automatisé le processus d'extraction des données, transformant ainsi la manière dont les entreprises évaluent les compétences de leur personnel et leurs structures organisationnelles. Cette approche nous a permis non seulement de mettre à l'échelle l'analyse de données, mais aussi de contourner les limites des méthodes traditionnelles d'analyse des données, telles que la correspondance des mots-clés. En utilisant les nouvelles capacités de préparation des données et de LLM de SageMaker Canvas, Aura est en mesure d'évaluer quantitativement et de comparer les entreprises sur l'efficacité de leur structure organisationnelle, les compétences de la main-d'œuvre et les performances en termes de résultats financiers. »
Purna Doddapaneni, directrice technique de Founder's Studio et associée chez Bain & Co.
Wix
« L'inférence d'Amazon SageMaker nous aide à déployer des modèles dans plusieurs zones de disponibilité et à exécuter des prédictions à grande échelle, en ligne ou en mode par lots. »
Itamar Keller, chef d'équipe de recherche et développement, Wix
Qred
« Avec une plateforme centralisée utilisant Amazon SageMaker, la conformité est plus simple. Il est plus simple d'ajouter des données sensibles lorsqu'elles sont centralisées et sécurisées. »
Lezgin Bakircioglu, directeur technique, Qred
Stability AI
« En tant que leader de l'IA générative open source, notre objectif est de maximiser l'accessibilité de l'IA moderne. Nous construisons des modèles de base avec des dizaines de milliards de paramètres, ce qui nécessite une infrastructure capable de mettre à l'échelle des performances d'entraînement optimisées. Grâce à l'infrastructure gérée et aux bibliothèques d'optimisation de SageMaker HyperPod, nous pouvons réduire le temps et les coûts d'entraînement de plus de 50 %. Cela rend l'entraînement de nos modèles plus résilient et plus performant afin de construire plus rapidement des modèles de pointe. »
Emad Mostaque, fondateur et PDG : Stability AI
« Chez iFood, nous nous efforçons de ravir nos clients grâce à nos services utilisant des technologies telles que le machine learning (ML). La mise en place d'un flux de travail complet et transparent pour développer, entraîner et déployer des modèles a été un élément essentiel de notre parcours vers la mise à l'échelle de la ML. Amazon SageMaker Pipelines nous aide à créer rapidement plusieurs flux de travail de machine learning automatisés et évolutifs et facilite le déploiement et la gestion efficace de nos modèles. SageMaker Pipelines nous permet d'être plus efficaces dans notre cycle de développement. Nous continuons à mettre l'accent sur notre leadership dans l'utilisation de l'AI/ML pour offrir un service client et une efficacité supérieurs grâce à toutes ces nouvelles fonctionnalités d'Amazon SageMaker. »
Sandor Caetano, scientifique des données en chef, iFood
« Une industrie des soins forte où l'offre correspond à la demande est essentielle pour la croissance économique, de la famille individuelle jusqu'au PIB de la nation. Nous sommes enthousiasmés par Amazon SageMaker Pipelines, car nous pensons que cela nous aidera à mieux évoluer au sein de nos équipes de science des données et de développement, en utilisant un ensemble cohérent de données organisées que nous pouvons utiliser pour créer des pipelines de modèles de machine learning (ML) évolutifs de bout en bout, depuis la préparation des données jusqu'au déploiement. Avec les nouvelles fonctionnalités annoncées d'Amazon SageMaker, nous pouvons accélérer le développement et le déploiement de nos modèles de ML pour différentes applications, aidant ainsi nos clients à prendre des décisions plus éclairées grâce à des recommandations en temps réel plus rapides. »
Clemens Tummeltshammer, responsable des sciences des données, Care.com
« Avec le ML, 3M améliore les produits essayés et testés, comme le papier de verre, et encourage l'innovation dans plusieurs autres domaines, tels que celui de la santé. Alors que nous planifions d’instaurer le machine learning dans d’autres secteurs de 3M, nous voyons la quantité de données et de modèles augmenter rapidement, doubler chaque année. Nous avons hâte de découvrir les nouvelles fonctionnalités SageMaker parce que nous savons qu’elles nous aideront à nous mettre à l’échelle. Amazon SageMaker Data Wrangler simplifie la préparation des données destinées aux modèles d’entraînement et Amazon SageMaker Feature Store éliminera le besoin de créer encore et toujours les mêmes fonctionnalités de modèle. Enfin, Amazon SageMaker Pipelines nous aidera à automatiser la préparation de données, la création de modèles et le déploiement des modèles dans un flux de travail complet pour que la commercialisation de nos modèles se fasse plus rapidement. Chez 3M, nos chercheurs attendent avec impatience de pouvoir profiter de la nouvelle rapidité de la science. »
David Frazee, directeur technique chez 3M Corporate Systems Research Lab
« Avec Amazon SageMaker JumpStart, nous avons pu expérimenter plusieurs modèles de base, sélectionner ceux qui répondent le mieux à nos besoins dans le domaine de la santé et lancer rapidement des applications de machine learning en utilisant le déploiement de modèles conformes à la norme HIPAA de SageMaker. Cela nous a permis d'améliorer la rapidité et l'échelle du processus de saisie des données pour les ordonnances et du service client. »
Alexandre Alves, Sr. Ingénieur en chef, Amazon Pharmacy
« Chez Canva, nous avons pour mission de permettre au monde entier de concevoir et de permettre à chacun de créer facilement quelque chose de beau sur n'importe quel périphérique. Grâce à l'IA générative, nous aidons les utilisateurs à donner vie à leurs idées avec le moins de friction possible. Grâce à SageMaker JumpStart, nous sommes en mesure de donner à nos équipes les moyens de se lancer dans l'IA générative et de tester différents modèles de base. Lors de notre hackathon mondial, les Canvanauts ont pu facilement déployer une grande variété de modèles de fondation et lancer leurs projets. Cela a joué un rôle clé dans le succès de notre hackathon. »
Nic Wittison, responsable de l'ingénierie pour les produits d'IA, Canva
« Chez Dovetail, nous aidons les organisations à améliorer la qualité de leurs produits et de leurs services grâce au pouvoir d'une meilleure compréhension de leurs clients. Avec Amazon SageMaker JumpStart, nous sommes en mesure d'accéder, de tester et de déployer facilement des modèles de base avancés. Nous avons utilisé AI21 Jurassic-2 Mid pour bénéficier d'une synthèse améliorée, puis nous avons été en mesure de l'intégrer dans notre application SaaS en quelques semaines, au lieu de prendre des mois pour la mettre en œuvre. Nos clients peuvent désormais extraire de manière efficace et comprendre les informations issues de leurs données tout en garantissant la confidentialité et la sécurité des données. »
Chris Manouvrier, responsable de l'architecture d'entreprise, Dovetail
« Nos clients ont des milliers de documents juridiques et le processus d'analyse de ces documents est long et fastidieux. Souvent, il n'existe aucun moyen d'obtenir rapidement des réponses, par exemple en comprenant qui a posé une question lors d'une déposition. Grâce à Amazon SageMaker JumpStart, nous pouvons désormais accéder à des modèles de base de pointe pour alimenter nos produits afin que les clients puissent traiter divers cas d'utilisation, tels que la détection de contradictions et la recherche sémantique, dans des milliers de documents à la fois. Les avocats peuvent désormais utiliser les transcriptions passées pour se préparer aux événements futurs, tout en respectant des exigences strictes en matière de sécurité et de conformité. »
Jason Primuth, directeur de l'innovation, Lexitas
« Chez Tyson Foods, nous continuons à rechercher de nouvelles façons d'utiliser le machine learning (ML) dans notre processus de production pour améliorer la productivité. Nous utilisons des modèles de classification d'images pour identifier les produits de la chaîne de production qui nécessitent des étiquettes d'emballage. Cependant, les modèles de classification d'images doivent être recyclés avec de nouvelles images du terrain sur une base récurrente. Amazon SageMaker JumpStart permet à nos scientifiques des données de partager des modèles ML avec des ingénieurs d'assistance afin qu'ils puissent former des modèles ML avec de nouvelles données sans écrire de code. Cela accélère la mise sur le marché des solutions ML, favorise des améliorations continues et augmente la productivité. »
Rahul Damineni, scientifique des données, Tyson Foods
« Grâce à Amazon SageMaker JumpStart, nous sommes en mesure de proposer des solutions ML en quelques jours pour répondre aux besoins de prédiction plus rapide et plus fiable du machine learning. »
Alex Panait, PDG, Mission Automate
« Grâce à Amazon SageMaker JumpStart, nous pouvons avoir de meilleurs points de départ, ce qui nous permet de déployer une solution ML pour nos propres cas d'utilisation en 4 à 6 semaines au lieu de 3 à 4 mois. »
Gus Nguyen, ingénieur logiciel, MyCase
« Avec Amazon SageMaker JumpStart, nous pouvons développer plus rapidement des applications ML dédiées notamment à la détection automatique d'anomalies ou à la classification d'objets et proposer des solutions, de la démonstration de faisabilité à la production en quelques jours seulement. »
Milos Hanzel, architecte de plateforme, Pivotree
« Amazon SageMaker Clarify s'intègre parfaitement au reste de la plateforme numérique de Bundesliga Match Facts et constitue un élément clé de notre stratégie à long terme visant à standardiser nos flux de travail de ML sur Amazon SageMaker. En utilisant les technologies novatrices d'AWS, comme le machine learning pour fournir des informations plus approfondies et assurer aux fans une meilleure compréhension des décisions prises en une fraction de seconde sur le terrain, Bundesliga Match Facts permet aux spectateurs d'avoir une idée plus précise des décisions clés de chaque match. »
Andreas Heyden, vice-président des innovations numériques, DFL Group.
« Avec Amazon SageMaker JumpStart, Slack peut accéder à des modèles de base de pointe pour alimenter Slack AI, tout en donnant la priorité à la sécurité et à la confidentialité. Les clients de Slack peuvent désormais effectuer des recherches plus intelligentes, résumer les conversations instantanément et optimiser leur productivité. »
Jackie Rocca, VP Product, IA chez Slack
« La combinaison d'AutoGluon et d'Amazon SageMaker Clarify a permis à notre modèle de désabonnement de prédire le désabonnement avec une précision de 94 %. SageMaker Clarify nous aide à mieux comprendre le comportement du modèle en fournissant l'explicabilité par le biais des valeurs SHAP. Grâce à SageMaker Clarify, nous avons obtenu jusqu'à 50 % de réduction des coûts de calcul des valeurs SHAP par rapport aux méthodes locales de calcul. La solution conjointe nous permet de mieux comprendre le modèle et d'améliorer la satisfaction client avec un niveau de précision très élevé et d'importantes économies de coûts. »
Masahiro Takamoto, directeur des données, Groupe CAPCOM
« Domo offre une suite évolutive de solutions de science des données faciles à utiliser et à comprendre pour tous les membres d'une organisation. Grâce à Clarify, nous fournissions à nos clients des informations importantes sur la façon dont leurs modèles d'IA effectuent les prédictions. L'association de Clarify et de Domo permet d'accroître la vitesse et l'intelligence de l'IA pour nos clients, en démocratisant la puissance de l'IA au sein de leur entreprise et de leurs écosystèmes. »
Dr Ben Ainscough, responsable de l'IA et de la science des données, Domo
Banque numérique américaine, Varo Bank utilise l'IA/ML pour prendre rapidement des décisions basées sur les risques, afin de proposer des produits et services innovants aux clients.
« Chez Varo, nous sommes très attachés à l'explicabilité et à la transparence de nos modèles de ML, et sommes heureux de voir les résultats d'Amazon SageMaker Clarify contribuer à ces efforts. »
Sachin Shetty, responsable de la science des données, Varo Money
LG AI Research a pour objectif de mener la prochaine ère de l'IA en utilisant Amazon SageMaker pour entraîner et déployer des modèles ML plus rapidement.
« Nous avons récemment présenté Tilda, l'artiste IA alimentée par EXAONE, un système d'IA super géant capable de traiter 250 millions de jeux de données de paires image-texte haute définition. L'IA multi-modalité permet à Tilda de créer une nouvelle image par elle-même, grâce à sa capacité à explorer au-delà du langage qu'elle perçoit. Amazon SageMaker a joué un rôle essentiel dans le développement d'EXAONE, en raison de ses capacités de mise à l'échelle et d'entraînement distribué. En particulier, en raison des calculs massifs nécessaires pour entraîner cette IA super géante, il est très important de disposer d'un traitement en parallèle efficace. Nous devions également gérer en permanence des données à grande échelle et faire preuve de souplesse pour répondre aux nouvelles données acquises. En utilisant les bibliothèques d'entraînement de modèle et d'entraînement distribué d'Amazon SageMaker, nous avons optimisé l'entraînement distribué et entraîné le modèle 59 % plus rapidement, sans modification majeure de notre code d'entraînement. »
Seung Hwan Kim, vice-président et responsable du laboratoire de vision, LG AI Research
« Chez AI21 Labs, nous aidons les entreprises et les développeurs à utiliser des modèles de langage de pointe pour remodeler la façon dont leurs utilisateurs interagissent avec le texte, sans qu'aucune expertise en NLP ne soit nécessaire. Notre plateforme de développement, AI21 Studio, donne accès à la génération de texte, au résumé intelligent et même à la génération de code, tous basés sur notre famille de grands modèles de langage. Notre modèle Jurassic-Grande (TM) récemment entraîné avec 17 milliards de paramètres a été entraîné à l'aide d'Amazon SageMaker. Amazon SageMaker a rendu le processus d'entraînement des modèles plus facile et plus efficace, et a parfaitement fonctionné avec la bibliothèque DeepSpeed. Par conséquent, nous avons pu facilement mettre à l'échelle les tâches d'entraînement distribué à des centaines de GPU Nvidia A100. Le modèle Grande offre une qualité de génération de texte équivalente à notre modèle beaucoup plus grand de 178 milliards de paramètres, pour un coût d'inférence beaucoup plus faible. Par conséquent, nos clients qui déploient Jurassic-Grande en production sont en mesure de servir des millions d'utilisateurs en temps réel sur une base quotidienne, et de profiter de l'avantage d'une meilleure économie unitaire sans sacrifier l'expérience de l'utilisateur. »
Dan Padnos, vice-président chargé de l'architecture, AI21 Labs
Avec l'aide d'Amazon SageMaker et de la bibliothèque de données parallèles distribuées Amazon SageMaker (SMDDP), Torc.ai, leader des véhicules autonomes depuis 2005, commercialise des camions autonomes pour un transport de longue distance sûr et durable dans le secteur du fret.
« Mon équipe est désormais en mesure d'exécuter facilement des tâches d'entraînement distribué à grande échelle en utilisant l'entraînement de modèles Amazon SageMaker et la bibliothèque Amazon SageMaker de données parallèles distribuées (SMDDP), impliquant des téraoctets de données d'entraînement et des modèles avec des millions de paramètres. L'entraînement distribué de modèles d'Amazon SageMaker et le SMDDP nous ont permis de mettre à l'échelle de manière transparente sans avoir à gérer d'infrastructure d'entraînement. Cela a réduit notre temps d'entraînement des modèles de plusieurs jours à quelques heures, ce qui nous a permis de comprimer notre cycle de conception et d'apporter de nouvelles capacités de véhicules autonomes à notre flotte plus rapidement que jamais. »
Derek Johnson, vice-président chargé de l'ingénierie, Torc.ai
Sophos, leader mondial des solutions et services de cybersécurité de nouvelle génération, utilise Amazon SageMaker pour entraîner plus efficacement ses modèles ML.
« Notre puissante technologie détecte et élimine les fichiers dans lesquels des logiciels malveillants ont été ingénieusement dissimulés. L'utilisation de modèles XGBoost pour traiter des jeux de données de plusieurs téraoctets prenait cependant beaucoup de temps et était parfois tout simplement impossible en raison de l'espace mémoire limité. Avec l'entraînement distribué Amazon SageMaker, nous pouvons entraîner avec succès un modèle XGBoost léger qui est beaucoup plus petit sur le disque (jusqu'à 25 fois plus petit) et en mémoire (jusqu'à cinq fois plus petit) que son prédécesseur. En utilisant l'ajustement automatique des modèles Amazon SageMaker et l'entraînement distribué sur les instances Spot, nous pouvons rapidement et plus efficacement modifier et ré-entraîner les modèles sans avoir à ajuster l'infrastructure d'entraînement sous-jacente nécessaire à la montée en puissance de jeux de données aussi vastes. »
Konstantin Berlin, responsable de l'intelligence artificielle, Sophos
« Le machine learning avancé et la simulation de mise à l'échelle d'Aurora sont essentiels pour développer notre technologie rapidement et en toute sécurité, et AWS fournit les performances élevées dont nous avons besoin pour maintenir nos progrès. Grâce à sa mise à l'échelle presque illimitée, AWS prend en charge des millions de tests virtuels pour valider les capacités du pilote Aurora afin qu'il puisse naviguer en toute sécurité dans les innombrables cas de figure de la conduite réelle. »
Chris Urmson, PDG d'Aurora
« Nous utilisons des modèles de reconnaissance d'image pour effectuer la segmentation de la scène, ce qui est important pour la compréhension de la scène. Il fallait auparavant 57 minutes pour entraîner le modèle pour une époque, ce qui nous ralentissait. En utilisant la bibliothèque de parallélisme de données d'Amazon SageMaker et avec l'aide de l'Amazon ML Solutions Lab, nous avons pu entraîner en 6 minutes avec un code d'entraînement optimisé sur des instances 5ml.p3.16xlarge. Grâce à la réduction par 10 du temps d'entraînement, nous pouvons consacrer plus de temps à la préparation des données pendant le cycle de développement. »
Jinwook Choi, ingénieur de recherche principal, Hyundai Motor Company
« Chez Latent Space, nous créons actuellement un moteur de jeu à rendu neural où chacun peut créer à la vitesse de la pensée. Poussés par les progrès de la modélisation du langage, nous travaillons à intégrer la compréhension sémantique des textes et des images pour déterminer ce qu'il faut générer. Notre objectif actuel est d'utiliser l'extraction d'informations pour améliorer l'entraînement des modèles à grande échelle, pour lequel nous disposons de pipelines de ML sophistiqués. Cette configuration présente un défi en plus de l'entraînement distribué, car plusieurs sources de données et modèles sont entraînés en même temps. C'est pourquoi nous tirons parti des nouvelles capacités d'entraînement distribué d'Amazon SageMaker afin de mettre à l'échelle efficacement l'entraînement par rapport aux grands modèles génératifs. »
Sarah Jane Hong, cofondatrice et directrice scientifique, Latent Space
« Musixmatch utilise Amazon SageMaker pour construire des modèles de traitement du langage naturel (NLP) et de traitement audio et teste Hugging Face avec Amazon SageMaker. Nous avons choisi Amazon SageMaker parce qu'il permet aux scientifiques des données de construire, d'entraîner et d'ajuster des modèles de manière itérative et rapide sans avoir à se soucier de la gestion de l'infrastructure sous-jacente, ce qui signifie que les scientifiques des données peuvent travailler plus rapidement et de manière plus indépendante. Au fur et à mesure que l'entreprise s'est développée, nos besoins en matière d'entraînement et de réglage de modèles NLP plus importants et plus complexes se sont également accrus. Nous sommes toujours à la recherche de moyens d'accélérer le temps d'entraînement tout en réduisant les coûts d'entraînement, c'est pourquoi nous sommes ravis de vous présenter Amazon SageMaker Training Compiler. SageMaker Training Compiler fournit des moyens plus efficaces d'utiliser les GPU pendant le processus d'entraînement et, grâce à l'intégration transparente entre SageMaker Training Compiler, PyTorch et des bibliothèques de haut niveau comme Hugging Face, nous avons constaté une amélioration significative du temps d'entraînement de nos modèles basés sur les transformateurs, qui est passé de quelques semaines à quelques jours, ainsi qu'une réduction des coûts d'entraînement. »
Loreto Parisi, directrice de l'ingénierie de l'intelligence artificielle, Musixmatch
AT&T Cybersecurity a amélioré la détection des menaces nécessitant des prédictions en temps quasi réel en utilisant les points de terminaison multimodèles d'Amazon SageMaker.
« Les points de terminaison multimodèles d'Amazon SageMaker sont non seulement rentables, mais ils nous permettent également d'améliorer nos performances en simplifiant la façon dont nous stockons nos modèles. »
Matthew Schneid, Architecte en chef : AT&T
Forethought Technologies, un fournisseur de solutions d'IA générative pour le service client, a réduit ses coûts jusqu'à 80 % grâce à Amazon SageMaker.
« En migrant vers les points de terminaison multimodèles d'Amazon SageMaker, nous avons réduit nos coûts de 66 % tout en offrant une meilleure latence et de meilleurs temps de réponse à nos clients. »
Jad Chamoun, directeur de l'ingénierie de base : Forethought Technologies
Bazaarvoice a réduit ses coûts d'inférence du ML de 82 % grâce à l'inférence sans serveur SageMaker.
« En utilisant l'inférence sans serveur SageMaker, nous pouvons faire du ML efficacement à l'échelle, en produisant rapidement un grand nombre de modèles à un coût raisonnable et avec une faible surcharge opérationnelle. »
Lou Kratz, ingénieur de recherche principal : Bazaarvoice
Tapjoy utilise Amazon SageMaker pour déployer des modèles de ML en quelques jours au lieu de plusieurs mois.
« Nous en avons fini avec les délais de trois à six mois pour entraîner, construire et déployer un modèle. Désormais, avec SageMaker, nous pouvons le faire en une semaine, peut-être même plus rapidement. »
Nick Reffitt, vice-président de la science des données et de l'ingénierie : Tapjoy
Zendesk a hébergé des milliers de modèles de machine learning dans des points de terminaison multimodaux (MME) Amazon SageMaker pour leur fonctionnalité de macros suggérées et a réalisé des économies de 90 % sur les coûts d'inférence par rapport aux points de terminaison dédiés.
« Nous avons déployé des milliers de modèles ML, personnalisés pour nos plus de 100 000 clients, en utilisant les points de terminaison multimodèles (MME) Amazon SageMaker. Avec les MME SageMaker, nous avons construit une capacité d'inférence multi-locataires et SaaS qui permet d'héberger plusieurs modèles par point de terminaison, réduisant ainsi les coûts d'inférence de 90 % par rapport à des points de terminaison dédiés. »
Chris Hausler, responsable de l'intelligence artificielle et du machine learning : Zendesk
Amazon Pharmacy
« Avec Amazon SageMaker JumpStart, nous avons pu expérimenter plusieurs modèles de base, sélectionner ceux qui répondent le mieux à nos besoins dans le domaine de la santé et lancer rapidement des applications de machine learning en utilisant le déploiement de modèles conformes à la norme HIPAA de SageMaker. Cela nous a permis d'améliorer la rapidité et l'échelle du processus de saisie des données pour les ordonnances et du service client. »
Alexandre Alves, Sr. Ingénieur en chef, Amazon Pharmacy
Intuit
« Avec Amazon SageMaker, nous pouvons accélérer nos initiatives d'intelligence artificielle à grande échelle en concevant et en déployant nos algorithmes sur la plateforme. Nous allons créer de nouveaux algorithmes de machine learning et d'IA à grande échelle avant de les déployer sur cette plateforme pour résoudre des problèmes complexes et contribuer à la prospérité de nos clients. »
Ashok Srivastava, Directeur des données - Intuit
GE Healthcare
En exploitant les données et l’analytique dans le matériel, les logiciels et les biotechnologies, GE Healthcare transforme les soins de santé en offrant de meilleurs résultats aux prestataires et aux patients.
« Amazon SageMaker permet à GE Healthcare d'accéder à de puissants outils et services d'intelligence artificielle pour faire progresser l'amélioration des soins aux patients. La capacité de mise à l’échelle d'Amazon SageMaker et sa capacité à s'intégrer aux services AWS natifs nous apportent une énorme valeur ajoutée. Nous sommes enthousiastes quant à la façon dont notre collaboration continue entre le GE Health Cloud et Amazon SageMaker permettra d'obtenir de meilleurs résultats pour nos partenaires prestataires de soins de santé et d'offrir de meilleurs soins aux patients. »
Sharath Pasupunuti, Responsable de l'ingénierie IA - GE Healthcare
ADP, Inc.
ADP est une entreprise mondiale de premier plan dans le domaine de la technologie qui offre des solutions de gestion du capital humain (GCH). ADP DataCloud exploite l'impressionnante base de données d'ADP qui contient des données de 30 millions d'employés pour fournir des informations exploitables susceptibles d'aider les dirigeants à prendre des décisions en temps réel pour mieux gérer leur entreprise.
« Fidéliser et attirer les meilleurs talents n'est pas chose aisée. Par conséquent, nous améliorons constamment ADP DataCloud avec des capacités d'intelligence artificielle dans le but d'aider les employeurs à maintenir des équipes solides. Nous utilisons le machine learning d'AWS, y compris Amazon SageMaker, pour identifier rapidement les modèles de main-d'œuvre et prévoir les résultats avant qu'ils ne se produisent, par exemple le roulement du personnel ou l'impact d'une augmentation de la rémunération. En utilisant AWS comme plateforme principale pour l'intelligence artificielle et le machine learning, nous avons réduit de 2 semaines à seulement 1 jour le temps de déploiement des modèles de machine learning. »
Jack Berkowitz, vice-président, responsable du développement de produits - ADP, Inc..
BASF Digital Farming
BASF Digital Farming a pour mission de donner aux agriculteurs les moyens de prendre des décisions plus intelligentes et de contribuer à résoudre le défi d’une population mondiale croissante, tout en réduisant l’empreinte environnementale.
« Amazon SageMaker et les technologies AWS associées prennent en charge l’expérimentation rapide et fournissent des fonctionnalités et API qui réduisent la barrière d’entrée pour l’adoption du machine learning. De cette façon, nous pouvons exploiter rapidement tout le potentiel des cas d’utilisation de machine learning ».
Dr. Christian Kerkhoff, responsable de l’automatisation des données - BASF Digital Farming GmbH
Cerner
Cerner Corporation est une entreprise mondiale du domaine de la santé et de la technologie qui fournit une variété de solutions de l'information de la santé (HIT), de services, de dispositifs et de matériel.
« Cerner est fier d'encourager l'innovation en matière d'intelligence artificielle et de machine learning par le biais d'un large éventail d'expériences cliniques, financières et opérationnelles. De nouvelles capacités créées à la fois par l'écosystème de machine learning de Cerner et par le traitement du langage naturel de Cerner, et rendues possibles grâce à notre collaboration avec AWS, nous permettent d'accélérer l'innovation évolutive pour tous nos clients. Amazon SageMaker est un élément important qui permet à Cerner de concrétiser son intention de créer de la valeur pour ses clients grâce à l'IA/ML. En outre, Amazon SageMaker offre à Cerner la possibilité d'exploiter différents cadres tels que TensorFlow et PyTorch, ainsi que la possibilité d'intégrer divers services AWS. »
Sasanka Are, docteur et vice-président - Cerner
Dow Jones
Dow Jones & Co. est un fournisseur mondial d'actualités et d'informations sur les entreprises, délivrant du contenu au grand public et aux organisations via de nombreux supports : journaux, sites Web, applications mobiles, vidéos, bulletins d’information, magazines, bases de données propriétaires, conférences et stations de radio.
« Dow Jones continue à se concentrer sur l'intégration du machine learning à nos produits et services. AWS est un excellent partenaire dans ce domaine. Lors de notre récent hackathon consacré au machine learning, l'équipe d'AWS a formé les participants sur Amazon SageMaker et Amazon Rekognition et a fourni toute la journée une assistance à l'ensemble des équipes. Résultat : nos équipes ont eu des idées formidables concernant l'exploitation du machine learning. Nous continuerons d'ailleurs à développer nombre de ces idées sur AWS. L'événement a été un franc succès : l'exemple parfait d'un partenariat fructueux. »
Ramin Beheshti, Responsable produits et technologie - Dow Jones
Advanced Microgrid Solutions
Advanced Microgrid Solutions (AMS) est une entreprise de services doublée d’une plateforme dédiée au secteur de l’énergie qui vise à accélérer la transformation à l’échelle mondiale vers une économie de l’énergie propre en facilitant le déploiement et l’optimisation d’actifs écoénergétiques. NEM utilise un marché au comptant où toutes les parties présentent des offres en matière de consommation ou de fourniture toutes les 5 minutes. Cela nécessite de faire des prévisions sur la demande et de présenter des offres dynamiques en quelques minutes seulement, tout en traitant des masses de données de marché. Pour relever ce défi, AMS a mis au point un modèle de deep learning utilisant TensorFlow sur Amazon SageMaker. AMS s’appuie sur le système d’ajustement automatique de modèles d’Amazon SageMaker pour déterminer les meilleurs paramètres de modèles, et ainsi créer leur propre modèle en quelques semaines seulement. Leur modèle a amélioré les prévisions de marché pour tous les produits du secteur de l’énergie dans le domaine des mesures d’énergie nettes, avec pour corollaire une hausse significative de l’efficacité.
ProQuest
ProQuest est le conservateur de la plus grande collection de revues, de livres électroniques, de sources primaires, de dissertations, de nouvelles et de vidéos au monde, et crée des solutions de flux de travail puissantes qui aident les bibliothèques à acquérir et développer leurs collections. Les produits et services ProQuest sont utilisés dans les bibliothèques universitaires, K-12, publiques, d’entreprises et gouvernementales dans 150 pays.
« Nous collaborons avec AWS pour créer une expérience utilisateur vidéo plus attrayante pour les utilisateurs de bibliothèques, leur permettant d'obtenir des résultats plus pertinents. En travaillant de concert avec AWS ML Solutions Lab, nous avons testé différents algorithmes avec Amazon SageMaker, ajusté les modèles à l'aide de l'optimisation hyperparamètre et automatisé le déploiement de modèles de machine learning. Nous sommes satisfaits des résultats obtenus jusqu'à présent et cherchons actuellement à utiliser les technologies de machine learning pour d'autres produits. »
Allan Lu, Vice-président responsable des outils de recherche, des services et des plate-formes - ProQuest
Celgene
Celgene est une société mondiale biopharmaceutique qui s’engage à améliorer la vie des patients dans le monde entier. Elle s'emploie à découvrir, développer et commercialiser de thérapies innovantes pour les patients atteints de cancer, de troubles immunitaires et inflammatoires et d'autres besoins médicaux non satisfaits.
« Chez Celgene, notre objectif est de proposer des traitements vraiment innovants, capables de changer et d'améliorer la vie de patients du monde entier. Avec Amazon SageMaker et Apache MXNet, la construction et la formation de modèles de deep learning pour développer des solutions et des processus est plus rapide et plus facile qu'auparavant. En outre, nous sommes capables d'adapter facilement nos efforts pour découvrir des traitements et produire des médicaments. Grâce aux instances SageMaker et Amazon EC2 P3, nous avons accéléré nos modèles de formation et notre productivité, ce qui a permis à nos équipes de se concentrer sur la recherche et la découverte. »
Lance Smith, Directeur - Celgene
Atlas Van Lines
Fondée en 1948 par un groupe d'entrepreneurs du secteur du déménagement et du stockage, Atlas Van Lines est la deuxième plus grande société de transport d'Amérique du Nord. L'organisation a été créée avec un seul objectif à l'esprit : aider les gens à déménager d'un bout à l'autre des États-Unis, tout en respectant la règle d'or du secteur. En plus d'être solidement implantée, Atlas se targue de posséder des exigences strictes allant vont au-delà de celles du secteur vis-à-vis de ses agents.
Lors des périodes de pointe pour les déménagements, les agents du réseau Atlas collaborent d'un marché à l'autre pour répondre à la demande des clients. Traditionnellement, leur aptitude à prévoir la capacité nécessaire était manuelle et demandait une main-d'œuvre nombreuse. Les agents s'en remettaient à la sagesse et à l'intuition de collègues ayant de nombreuses années d'expérience. Atlas possédait des données historiques à compter de 2011 et souhaitait trouver un moyen d'ajuster sa force de travail et ses prix de façon dynamique pour les adapter aux futures demandes du marché.
Atlas a fait appel à Pariveda Solutions, partenaire consultant APN Premier, pour l'aider à bénéficier d'une force de travail et d'une gestion des prix proactives dans le secteur du déménagement longue distance. Pariveda Solutions a préparé les données, développé et évalué le modèle Machine learning, et a affiné ses performances. Cette société a utilisé Amazon SageMaker pour tester et optimiser le modèle, puis l'a exporté en tirant parti de la nature modulaire d'Amazon SageMaker afin de l'exécuter dans Amazon EC2.
Edmunds
Edmunds.com est un site Web de commerce automobile qui propose à 20 millions de visiteurs mensuels des informations détaillées et en temps réel concernant des véhicules.
« Notre approche stratégique consiste à placer le machine learning entre les mains de tous nos ingénieurs. Le rôle d'Amazon SageMaker est essentiel pour nous aider à atteindre cet objectif, car il permet aux ingénieurs de développer, de former et de déployer des algorithmes et des modèles de machine learning à grande échelle. Nous sommes impatients de voir comment Edmunds va utiliser SageMaker pour innover en créant de nouvelles solutions pour nos clients dans l'organisation tout entière. »
Stephen Felisan, Directeur informatique - Edmunds.com
Hotels.com
Hotels.com est l'une des plus grandes marques de réservation d'hôtel au monde et gère 90 sites web localisés dans 41 langues.
« Chez Hotels.com, nous cherchons toujours à être plus rapides, à tirer profit des dernières technologies et à rester innovants. Avec Amazon SageMaker, la formation distribuée, les algorithmes optimisés et les fonctions d'hyperparamètre intégrées devraient permettre à mon équipe de concevoir rapidement des modèles plus précis sur nos plus grands volumes de données, réduisant ainsi le temps considérable dont nous avions besoin pour faire passer un modèle à la production. Il s'agit simplement d'un appel d'API. Amazon SageMaker réduit de manière significative la complexité du machine learning, et nous sommes ainsi en mesure de créer rapidement une meilleure expérience pour nos clients. »
Matt Frye, VP et directeur de la science des données - Hotels.com et Expedia Affiliate Network
Formosa Plastics
Formosa Plastics Corporation est un fournisseur de résines plastiques et de produits pétrochimiques verticalement intégré et en plein essor. Formosa Plastics propose une gamme complète de résines de chlorure de polyvinyle, de polyéthylène et de polypropylène, de soudes caustiques et d'autres produits pétrochimiques répondant aux exigences du client en matière de consistance, de performance et de qualité.
« Formosa Plastics est l'une des principales entreprises pétrochimiques de Taïwan. Elle se classe parmi les principaux fabricants de plastique du monde. Nous avons décidé de faire appel au machine learning afin de parvenir à détecter les défauts avec plus de précision et de réduire les coûts liés au travail manuel. Pour ce faire, nous avons donné à AWS le rôle de fournisseur cloud de prédilection. Le laboratoire de solutions AWS ML a travaillé avec nous lors de chaque étape du processus, en commençant par un atelier de découverte visant à définir les cas d'utilisation commerciale et en passant par la création et la sélection de modèles de ML adéquats, jusqu'au déploiement proprement dit. Grâce à Amazon SageMaker, la solution de machine learning a divisé par deux le temps nécessaire à un employé pour réaliser une inspection manuelle. Avec l'aide de ML Solutions Lab, nous sommes désormais en mesure d'optimiser par nous-mêmes le modèle SageMaker pour ainsi aller de l'avant au gré du changement de conditions. »
Bill Lee, Vice-président adjoint - Formosa Plastics Corporation
Voodoo
Voodoo est l'un des leaders du jeu sur mobile avec 2 milliards de téléchargements de jeux et plus de 400 millions d'utilisateurs actifs mensuels (UAM). L'entreprise gère sa propre plateforme publicitaire et utilise le machine learning pour améliorer l'exactitude et la qualité des enchères publicitaires qui sont présentées à ses utilisateurs.
« Un de nos défis chez Voodoo est de maintenir active notre base de joueurs qui compte de millions d'individus et qui ne cesse de grandir. En standardisant nos charges de travail de machine learning et d'intelligence artificielle sur AWS, nous sommes en mesure d'itérer au rythme et à l'échelle dont nous avons besoin pour continuer à développer notre activité et à séduire nos joueurs. Grâce à Amazon SageMaker, nous pouvons décider en temps réel quelle publicité doit être montrée à nos joueurs et invoquer notre point de terminaison plus de 100 millions de fois par plus de 30 millions d'utilisateurs quotidiennement, soit près d'un milliard de prévisions par jour. Avec la technologie machine learning d'AWS, nous avons pu mettre un modèle précis en production en moins d'une semaine avec l'aide d'une petite équipe. Nous avons aussi été en mesure d'en tirer parti continuellement à mesure que notre équipe et notre entreprise grandissaient. »
Aymeric Roffé, Directeur de la technologie – Voodoo
Regit
Anciennement Motoring.co.uk, Regit est une société de technologie automobile et le premier service en ligne pour les automobilistes au Royaume-Uni. Elle offre des services numériques de gestion des véhicules en fonction de leur plaque d'immatriculation, et envoie des rappels et des informations en matière de taxe, d'assurance et de rappels de véhicules aux conducteurs.
Regit a travaillé avec Peak Business Insight, un partenaire consultant APN avancé, afin de mettre en application des « modèles de Machine Learning basés sur des catégories » capables de gérer simultanément des données de catégorie et des données variables afin de prévoir la probabilité que des utilisateurs changent de véhicules, entraînant une vente pour Regit.
Peak a tiré parti de services AWS comme Amazon SageMaker pour l'assimilation, la modélisation et la sortie de données en temps réel. Amazon SageMaker gère 5 000 requêtes d'API par jour pour Regit, en se dimensionnant et en s'ajustant en toute transparence en fonction d'exigences pertinentes en matière de données, et en gérant la fourniture de résultats en matière de notation de leads. Parallèlement, les instances Amazon Redshift et Amazon Elastic Compute Cloud (Amazon EC2) optimisent les performances et les résultats du modèle de façon efficace et continue. Grâce à Peak, Regit a été en mesure de prédire lesquels de ses 2,5 millions d'utilisateurs allaient changer de véhicule, ainsi que le moment où ces derniers le feraient. Regit peut donc s'occuper de ses clients de façon plus personnalisée et plus ciblée, et a augmenté les revenus issus de son centre d'appel de plus d'un quart.
Realtor.com
Composé de realtor.com®, Doorsteps® et Moving.com™, le réseau Move, Inc. fournit, grâce à tout un panel de sites Web et d'expériences mobiles, des informations, des outils et une expertise professionnelle dans le domaine de l'immobilier à destination du grand public et des professionnels de l'immobilier.
« Notre volonté est d'aider les clients dans leur accession à la propriété, et nous pensons qu'Amazon SageMaker est un ajout décisif à notre gamme d'outils realtor.com®. Les flux de travail du machine learning, traditionnellement chronophages, notamment la formation et l'optimisation des modèles, peuvent aujourd'hui être réalisés de manière plus efficace et par un ensemble plus large de développeurs, permettant à nos spécialistes et analystes des données de se concentrer sur le développement de l'expérience utilisateur la plus riche. »
Vineet Singh, Responsable des données et premier vice-président - Move, Inc.
Grammarly
Chaque jour, les algorithmes de Grammarly aident des millions de personnes à communiquer plus efficacement en leur offrant une aide à la rédaction sur diverses plates-formes et différents appareils. Pour cela, elle combine un traitement du langage naturel et des technologies avancées de machine learning.
« Grâce à Amazon SageMaker, nous pouvons développer nos modèles TensorFlow dans un environnement de formation distribué. Par ailleurs, nos flux de travail s'intègrent à Amazon EMR pour le pré-traitement. Nous pouvons donc filtrer nos données Amazon S3 à l'aide d'EMR et de Spart depuis un carnet Jupyter, puis lancer une formation dans Amazon SageMaker avec ce même carnet. SageMaker s'adapte également à nos différentes exigences de production. Nous pouvons exécuter des inférences sur SageMaker lui-même ou, si nous avons seulement besoin du modèle, nous le téléchargeons depuis S3 et exécutons des inférences de nos implémentations sur appareils mobiles pour les clients iOS et Android. »
Stanislav Levental, Responsable technique - Grammarly
Slice Labs
Slice Labs est le premier fournisseur de plateformes d'assurance à la demande sur le cloud. Cette entreprise new-yorkaise est présente dans le monde entier. Au marché B2C, Slice propose des offres d'assurance individuelles à la demande. Sur le segment B2B, elle permet aux entreprises de créer des produits d'assurance numériques intuitifs.
« Chez Slice, nous sommes parfaitement conscients de l'évolution constante des besoins d'assurance de nos clients. Notre choix d'AWS comme plateforme de cloud computing a été motivé par sa large gamme de services, sa flexibilité et la solide réputation dont elle jouit auprès des assureurs. Nous utilisons une gamme variée de services AWS pour mener nos activités. Nous utilisons notamment AWS Machine Learning pour aider les clients à trouver les meilleures options d'assurance en fonction de leurs besoins. Nous travaillons avec des assureurs et des sociétés de technologie qui cherchent à créer et à lancer des produits d'assurance intelligents. Avec AWS, nous avons réalisé d'énormes économies et amélioré notre productivité. Par exemple, nous avons réduit le temps d'approvisionnement de 47 jours à 1 jour, soit une amélioration de 98 %. Nous travaillons à conquérir de nouveaux territoires et sommes très enthousiastes à l'idée de continuer à utiliser davantage le cloud avec AWS. »
Philippe Lafreniere, Directeur de la croissance – Slice Labs
DigitalGlobe
En tant que premier fournisseur au monde d'analyses, de données et d'imagerie terrestre de haute qualité, DigitalGlobe travaille avec d'énormes volumes de données chaque jour.
« En tant que premier fournisseur au monde d'analyses, de données et d'imagerie terrestre de haute qualité, DigitalGlobe travaille avec d'énormes volumes de données chaque jour. DigitalGlobe permet aux utilisateurs de trouver et d'accéder à une bibliothèque d'images de 100 Po, et d'y réaliser plus facilement des calculs. Cette bibliothèque se trouve dans le cloud AWS afin d'appliquer le deep learning à l'imagerie satellite. Nous prévoyons d'utiliser Amazon SageMaker pour entraîner des modèles avec plusieurs pétaoctets d'ensembles de données d'imagerie d'observation de la Terre, en utilisant des carnets Jupyter. Ainsi, les utilisateurs de la plate-forme Geospatial Big Data (GBDX) de DigitalGlobe ont juste à appuyer sur un bouton, créer un modèle et déployer celui-ci dans un environnement distribué évolutif à grande échelle. »
Dr. Walter Scott, Directeur technologique de Maxar Technologies et fondateur de DigitalGlobe
Intercom
Les premiers produits de messagerie d'Intercom s'intègrent de manière transparente aux sites Web et aux applications mobiles d'autres entreprises pour les aider à acquérir, engager et assister les clients. Fondée en 2011, la société a des bureaux à San Francisco, à Londres, à Chicago et à Dublin.
« Chez Intercom, nous avons une équipe en pleine croissance de spécialistes des données et d'ingénieurs de données. Nous souhaitons souvent itérer rapidement et explorer de nouvelles solutions pour les produits basés sur les données. Avant Amazon SageMaker, nous avons essayé différentes options pour créer ces produits, mais chacune posait des problèmes : le partage de code était difficile, les tests sur les grands ensembles de données étaient lents et les opérations de provisionnement et de gestion du matériel que nous exécutions nous-mêmes étaient problématiques. SageMaker est arrivé et a résolu tous ces problèmes. Nous l'utilisons en particulier pour développer des algorithmes pour nos plateformes de recherche et des fonctionnalités de machine learning. Nous constatons que Jupyter Notebooks hébergé par SageMaker nous permet de créer et d'itérer rapidement. Mais le plus important est que SageMaker étant un service géré, notre équipe peut se concentrer sur la tâche à accomplir. Amazon SageMaker est un service extrêmement précieux pour nous chez Intercom, et nous sommes ravis de l'utiliser de plus en plus à mesure que notre société se développe. »
Kevin McNally, Spécialiste des données sénior et responsable du machine learning - Intercom
Kinect Energy Group
Kinect Energy Group est une filiale de World Fuel Services, une entreprise figurant dans le classement Fortune 100 qui fournit des services de conseils en approvisionnement énergétique et qui propose des solutions d'exécution, de transaction et de gestion des paiements à des clients commerciaux et industriels, principalement dans les secteurs de l'aviation, de la marine et du transport terrestre. Kinect Energy est un fournisseur d'énergie nordique clé qui dépend des ressources énergétiques naturelles que produit le climat venteux de la région.
L'entreprise a récemment été propulsée au-devant de la scène grâce à l'introduction de plusieurs services d'IA/ML d'AWS. Ainsi, Amazon SageMaker permet à l'entreprise de prévoir les tendances météorologiques à venir, et donc les prix de l'électricité pour les prochains mois, pour ainsi aboutir à un échange énergétique à grande portée qui constitue une approche avant-gardiste de premier ordre.
« Nous avons commencé à utiliser Amazon SageMaker et, avec l'aide de l'Équipe de solutions ML d'AWS et de l'Équipe d'architecture de solution, nous avons pu créer une dynamique grâce à la Journée de l'innovation, dont l'impact a été considérable depuis lors. Nous avons élargi notre propre équipe d'IA à plusieurs reprises afin d'exploiter pleinement le nouvel avantage que nous procurent les technologies d'AWS. Nous profitons de nouvelles méthodes en fixant des prix basés sur des événements météorologiques qui ne se sont pas encore manifestés. Nous avons opté complètement pour AWS, notamment pour le stockage de nos données dans S3, l'utilisation de Lambda pour l'exécution et les fonctions d'étape en plus de SageMaker. Et, grâce au partenariat solide de l'AWS ML Solutions Lab, nous sommes désormais autonomes, capables d'itérer sur les modèles que nous avons créés et de continuer à améliorer notre activité. »
Andrew Stypa, Analyste principal en informatique de gestion - Kinect Energy Group
Frame.io
Frame.io est votre espace pour tout ce qui concerne la vidéo. Leader en matière de révision de vidéos et de collaboration avec plus de 700 000 clients dans le monde, Frame.io est l'espace où les professionnels de la vidéo de tous horizons, du freelance à l'entreprise, viennent réviser, approuver et diffuser des vidéos.
« En tant que plateforme de collaboration et de révision de vidéos natives cloud accessible aux utilisateurs du monde entier, il est impératif que nous fournissions la meilleure sécurité possible à nos clients. Grâce au modèle de détection des anomalies intégré à Amazon SageMaker, nous sommes en mesure de tirer parti du machine learning pour identifier, détecter et bloquer rapidement les demandes d'adresses IP indésirables afin de nous assurer que les supports de nos clients restent sécurisés et protégés à tout moment. La mise en route d'Amazon SageMaker, sa maintenance au fil du temps, sa mise à l'échelle sur notre plateforme et son adaptation à nos flux de travail spécifiques ont été simples et directes. De plus, avec l'aide des carnets Jupyter dans SageMaker, nous avons pu expérimenter différents modèles afin d'améliorer notre précision et notre rappel de manière à renforcer encore plus la sécurité de Frame.io. »
Abhinav Srivastava, Vice-président et responsable de la sécurité de l'information - Frame.io
Cookpad
Cookpad est le plus grand service de partage de recettes au Japon et compte environ 60 millions d'utilisateurs mensuels au Japon et environ 90 millions dans le monde.
« On nous demande de plus en plus de simplifier le service de recettes Cookpad. Nos spécialistes des données vont donc développer davantage de modèles de machine learning afin d'optimiser l'expérience utilisateur. En essayant de réduire le nombre d'itérations de tâches de formation pour améliorer les performances, nous avons mis en évidence un défi de taille : le déploiement de nos points de terminaison d'inférence de machine learning, qui ralentissait nos processus de développement. Pour automatiser le déploiement des modèles de machine learning de sorte que les spécialistes des données puissent déployer les modèles eux-mêmes, nous avons utilisé les API d'inférence d'Amazon SageMaker. Grâce à cette solution, nous avons prouvé qu'il était possible de déployer des modèles de machine learning sans faire appel à des ingénieurs d'application. Nous prévoyons d'automatiser ce processus avec Amazon SageMaker en production. »
Yoichiro Someya, Ingénieur de recherche - Cookpad
Fabulyst
Fabulyst est une jeune entreprise indienne spécialisée dans le commerce des produits de la mode. Elle permet aux consommateurs de vivre des expériences plus positives et personnalisées et aux détaillants d'obtenir de meilleurs taux de conversion grâce à l'IA.
« Fabulyst permet aux consommateurs de trouver plus facilement les produits qui leur conviennent parfaitement en faisant correspondre les articles en stock aux demandes spécifiques et personnalisées des utilisateurs (en fonction de leur type de corps ou de leur teint, par exemple). Nous aidons aussi les détaillants à améliorer l'efficacité de leurs conversions en utilisant la vision artificielle pour prévoir les tendances mensuelles à partir des données des réseaux sociaux, des recherches, des blogs, etc. et en les marquant automatiquement dans les catalogues de nos clients-détaillants. Chez Fabulyst, nous tirons parti d'AWS pour fournir nos meilleures solutions. Par exemple, Amazon SageMaker nous permet de gérer les nombreuses prédictions qui sous-tendent nos offres. Grâce à SageMaker et à d'autres services AWS, nous sommes en mesure de garantir une valeur ajoutée à nos utilisateurs (augmentation de 10 % des recettes pour les détaillants, par exemple) et avons confiance en notre capacité à fournir des résultats exceptionnels à chaque fois. »
Komal Prajapati, Fondateur et PDG de Fabulyst
Terragon Group
Terragon Group est une entreprise de technologie de données et de marketing qui tire pleinement profit des entreprises qui utilisent des informations pour attirer l'audience mobile en Afrique. Au fil des ans, Terragon Group est devenu leader dans le domaine de la téléphonie mobile desservant des marques locales et multinationales, couvrant plusieurs régions géographiques. La transmission d'un message publicitaire adéquat au bon utilisateur et au bon moment nécessite une certaine personnalisation. Terragon utilise des données, des informations et l'intelligence artificielle pour aider les entreprises à cibler la bonne audience en Afrique.
« Amazon SageMaker nous fournit un flux de travail de machine learning de bout en bout, et ce sans aucune plomberie d'infrastructure sous-jacente. Nos équipes de science des données et de machine learning sont capables de passer rapidement de l’exploration des données à l’entraînement du modèle et à la production en quelques heures seulement. Pour une entreprise basée en Afrique avec peu de talents en ingénierie, nous n’aurions jamais pu créer et déployer des modèles de ML capables de résoudre des problèmes réels en moins de 90 jours. »
Deji Balogun, Directeur technique - Terragon Group
SmartNews
SmartNews est la plus grande application d'actualités du Japon, fournissant des informations de qualité à plus de 11 millions d'utilisateurs actifs par mois dans le monde. Grâce aux technologies de Machine Learning, SmartNews met à la disposition des utilisateurs les articles les plus pertinents et les plus intéressants qui soient. Les algorithmes de machine learning chez SmartNews évaluent des millions d'articles, de signaux sociaux et d'interactions humaines pour fournir les 0,01 % des articles les plus importants et les plus pertinents du moment.
« Notre mission, qui consiste à découvrir et diffuser des contenus de qualité au monde entier, repose sur AWS et notamment sur Amazon SageMaker, ce qui nous a permis d'accélérer le cycle de développement pour servir au mieux nos clients. L'utilisation d'Amazon SageMaker nous a énormément aidés dans nos méthodes de conservation des informations, y compris dans la classification d'articles via le deep learning, la prédiction de la valeur de durée de vie et la modélisation composite pour le texte et l'image. Il nous tarde d'atteindre de nouveaux sommets avec Amazon SageMaker et les autres solutions d'IA d'AWS. »
Kaisei Hamamoto, Cofondateur et codirecteur général - SmartNews, Inc.
Pioneer
Pioneer est une multinationale spécialisée dans le divertissement numérique, y compris l'électronique automobile et les services de mobilité. En phase avec sa philosophie « Bouger le cœur et toucher l'âme », Pioneer propose à ses clients des produits et des services utiles au quotidien.
« En nous appuyant sur Amazon SageMaker et sur les fonctionnalités de formation de modèle telles qu'Automatic Model Tuning, nous avons pu concevoir des modèles de machine learning très précis et continuer à garantir la confidentialité pour nos clients. Nous avons également hâte de tirer profit d'AWS Marketplace pour le machine learning pour les algorithmes et les modèles pré-testés, afin de concevoir une plateforme de monétisation. »
Kazuhiro Miyamoto, Directeur général responsable du département Information Service Engineering - Pioneer
Dely
Dely offre le meilleur service vidéo culinaire du Japon, Kurashiru. Chaque jour, Dely s'efforce de proposer des services culinaires qui impactent le monde entier. Kurashiru aide chaque jour énormément de personnes en présentant de nombreuses recettes de plats savoureux qui colorent la table via ses vidéos culinaires. Au Japon, des dizaines de millions de personnes regardent et écoutent les vidéos culinaires qu'ils publient tous les mois.
« En 2 ans et demi, nous avons dépassé les 15 millions de téléchargements sur notre application mobile, depuis le lancement du service populaire Kurashiru. Nous pensons qu'il est essentiel de fournir à nos utilisateurs le bon contenu, au bon moment, à l'aide des technologies de pointe telles que le machine learning. Pour y parvenir, nous avons utilisé Amazon SageMaker, qui nous a aidés à concevoir et à déployer les modèles de machine learning en production en 90 jours. Nous avons également amélioré le taux de clic de 15 % grâce à la personnalisation du contenu. »
Masato Otake, Directeur technique - Dely, Inc.
Ayla Networks
Ayla Networks est une société de génie logiciel spécialisée dans le plateforme-service (PaaS) pour entreprises de l'IdO. Elle est basée à San Francisco et développe des solutions pour les marchés commerciaux et de consommation.
« Chez Ayla Networks, nous avons remarqué que nos clients font confiance à l'infrastructure AWS principalement en raison de son évolutivité et de sa fiabilité éprouvées. Nous avons notamment remarqué que les fabricants de produits commerciaux utilisent Amazon SageMaker pour exploiter les données de performance depuis Cloud Ayla. Grâce à Amazon SageMaker et notre produit Ayla IQ, les entreprises peuvent avoir des informations et détecter des anomalies pour une meilleure qualité de produit et de service, étant donné qu'elles peuvent prévoir les défaillances des machines et y remédier en amont. Cette solution permet à nos clients de poursuivre leur croissance, leur production et leur transformation en toute sérénité. »
Prashanth Shetty, Vice-président responsable du marketing à International - Ayla Networks
FreakOut
FreakOut est l'une des principales entreprises technologiques orientées sur les publicités numériques. Elle propose des produits de transactions du stock publicitaire en temps réel dans les publicités sur Internet, mais aussi d'analyse des données de navigation sur le Web. FreakOut s'appuie sur le machine learning pour ses opérations de prédiction du taux de clics et du taux de conversion.
« Nous sommes en plein processus de migration des environnements de formation sur le machine learning sur site vers Amazon SageMaker. » Amazon SageMaker nous offre une solution plus évolutive pour notre activité. Grâce à la fonction Automatic Model Tuning d'Amazon SageMaker, nous sommes en mesure d'optimiser et d'estimer des modèles très précis qui répondent à nos exigences. »
Jiro Nishiguchi, Directeur technique - FreakOut
Wag!
« Chez Wag!, nous devons répondre aux besoins de l'offre et de la demande dans un marketplace bilatéral. Nous avons saisi l'opportunité d'utiliser le machine learning (grâce à la technologie AWS) pour prédire la demande de promenades de chiens de nos clients. En standardisant nos applications de machine learning sur AWS, nous sommes en mesure de répondre à la croissance continue de nos besoins commerciaux en itérant à un rythme et à une échelle considérablement améliorés, malgré des ressources d'ingénierie limitées. En utilisant Amazon SageMaker, nous pouvons accélérer notre expérimentation de machine learning, en formant notre modèle non plus en 45 jours de calcul, mais en trois jours. »
Dave Bullock, Vice-président de la technologie de l'ingénierie et des opérations - Wag Labs Inc.
Infoblox
Infoblox est le leader des services sécurisés de réseaux gérés sur le cloud, conçus pour gérer et sécuriser le nœud de la mise en réseau, soit DNS, DHCP et la gestion des adresses IP (ensemble connus sous le nom de DDI).
« Chez Infoblox, nous avons conçu un service DNS de sécurité analytique avec Amazon SageMaker. Ce service détecte les éléments malveillants qui créent des homographes afin de se faire passer pour des cibles de noms de domaine très convoitées et les utilisent pour installer des logiciels malveillants, hameçonner les informations des utilisateurs et nuire à la réputation d'une marque. AWS est notre standard d'entreprise pour le cloud et nous pouvons utiliser de nombreuses fonctionnalités offertes par SageMaker pour accélérer le développement des modèles de ML. Grâce aux fonctionnalités de réglage de modèle automatique de SageMaker, nous avons mis à l'échelle l'expérimentation et amélioré la précision à 96,9 %. Grâce à SageMaker, notre détecteur d'homographes d'IDN, qui fait partie de notre service de sécurité analytique, a identifié plus de 60 millions de résolutions de domaines homographes et continue à en trouver des millions d'autres tous les mois, ce qui aide nos clients à détecter les abus plus rapidement. »
Femi Olumofin, architecte d'analytique - Infoblox
NerdWallet
NerdWallet, une entreprise de finances personnelles basée à San Francisco, fournit des évaluations et des comparaisons de produits financiers dont les cartes de crédit, les services bancaires, les investissements, les prêts et les assurances.
« NerdWallet se repose sur la science des données et le machine learning pour connecter les clients avec des produits financiers personnalisés. Nous avons choisi de standardiser nos charges de travail de machine learning sur AWS car cela nous a permis de moderniser rapidement nos pratiques de la science de l'ingénierie des données, supprimant ainsi les obstacles et réduisant les délais de livraison. Grâce à Amazon SageMaker, nos scientifiques des données peuvent consacrer plus de temps aux poursuites stratégiques et consacrer plus d'énergie là où notre avantage concurrentiel se trouve : dans l'analyse des problèmes que nous résolvons pour nos clients. »
Ryan Kirkman, directeur adjoint de l'ingénierie - NerdWallet
Splice
Splice est une plateforme créative dédiée aux musiciens, créée par des musiciens, et destinée à permettre aux artistes de libérer leur vrai potentiel créatif. La startup de création de musique par abonnement a été fondée en 2013, et rassemble désormais plus de 3 millions de musiciens qui parcourent le catalogue à la recherche des sons parfaits.
« Notre catalogue de sons et de présélections augmente en même temps que la difficulté à trouve les bons sons. C'est pourquoi Splice a investi pour créer des fonctionnalités de recherche et de découverte de premier plan. En standardisant nos charges de travail de machine learning sur AWS, nous avons créé une offre orientée vers l'utilisateur plus récente qui vise à faciliter autant que possible la connexion entre les musiciens et les sons qu'ils recherchent. Depuis le lancement de Similar Sounds, nous avons remarqué une augmentation de près de 10 % des conversions de recherche. En utilisant Amazon SageMaker, nous avons créé le complément idéal à la recherche textuelle afin de permettre à nos utilisateurs de découvrir et de parcourir notre catalogue comme jamais ils ne l'auraient imaginé. »
Alejandro Koretzky, responsable du machine learning et ingénieur principal - Splice
Audeosoft
« Avant d'entamer notre transition vers le machine learning, nous ne pouvions rechercher que le texte d'un curriculum vitae (CV), et notre manque de fonctionnalités de reconnaissance optique des caractères nous empêchait de rechercher l'ensemble des CV. Grâce à Amazon Textract, nous pouvons désormais extraire le contenu de tout type de documents et indexer tous les fichiers chargés dans un cluster ElasticSearch. Désormais, chaque document téléchargé peut être recherché à l'aide d'ElasticSearch qui offre des vitesses de recherche 10 fois plus rapides que la recherche SQL d'origine. De plus, nous avons implémenté la vectorisation de mots à l'aide d'Amazon SageMaker pour ajouter des mots-clés associés à une requête de recherche. Ce processus nous permet de classer et d'évaluer avec précision les candidats et nous aide à éliminer les erreurs causées par des synonymes ou des formulations alternatives utilisées dans les CV. En utilisant Amazon SageMaker et Amazon Textract, nous pouvons proposer des candidats plus compétents et intelligents aux recruteurs. Les performances stables, la disponibilité mondiale et la fiabilité sont des facteurs de réussite clés pour Audeosoft. Lorsque nous avons pris la décision il y a près de 8 ans de nous associer à AWS, nous savions que ce serait un excellent partenaire pour l'avenir. En choisissant AWS comme notre fournisseur cloud préféré, nous disposons d'un partenaire qui a la même volonté et le même désir que nous de créer de l'innovation pour les années à venir. »
Marcel Schmidt, directeur technique chez Audeosoft
Freshworks
Freshworks est une licorne basée aux États-Unis et en Inde spécialisée dans la fourniture de solutions SaaS B2B aux PME et aux entreprises du marché intermédiaire à travers le monde. Freshworks propose un portefeuille d'applications faciles à utiliser mais puissantes dédiées aux flux de travail d'engagement client et des employés.
« Chez Freshworks, nous avons créé Freddy AI Skills, notre offre IA/ML phare, à l'aide de modèles hyperpersonnalisés qui permettent aux agents de bien traiter les requêtes des utilisateurs et les tickets de support. Ils permettent également aux équipes de vente et marketing de classer les opportunités par ordre de priorité et de clôturer rapidement les offres. En outre, les gestionnaires de relation client peuvent s'en servir pour réduire les risques de perte de clientèle et booster la croissance de l'entreprise. Nous avons choisi de standardiser nos charges de travail ML sur AWS, car cela nous permet de créer, d'entraîner et de déployer facilement des modèles de machine learning optimisés pour les cas d'utilisation de nos clients. Grâce à Amazon SageMaker, nous avons créé plus de 30 000 modèles pour 11 000 clients, tout en réduisant les délais d'entraînement de ces modèles de 24 heures à moins de 33 minutes. Avec SageMaker Model Monitor, nous pouvons suivre les déviations de données et entraîner à nouveau les modèles afin d'améliorer leur précision. Freddy AI Skills est une solution en constante évolution basée sur Amazon SageMaker, qui fournit des actions intelligentes, des perspectives approfondies sur les données et des conversations axées sur les intentions. »
Tejas Bhandarkar, directeur principal de la gestion produit - Plateforme Freshworks
Veolia
Veolia Water Technologies est une société de conception expérimentée et un fournisseur de services et de solutions technologiques spécialisé dans la gestion de l'eau et le traitement des eaux usées.
« Pendant près de huit semaines, nous avons collaboré avec AWS afin de développer un prototype anticipant les moments où nous devons nettoyer ou modifier les membranes de filtration de l'eau dans nos usines de dessalement. Grâce à Amazon SageMaker, nous avons pu concevoir un modèle de machine learning qui apprend des précédents modèles et prévoit la future évolution des indicateurs d'encrassement. En standardisant nos charges de travail de machine learning sur AWS, nous avons pu réduire nos coûts et éviter les interruptions, tout en améliorant la qualité de l'eau produite. Ces résultats n'auraient pas été possibles sans l'expérience technique, la confiance et le dévouement des deux équipes dans l'optique d'atteindre un objectif : un approvisionnement ininterrompu en eau propre et potable. »
Aude GIARD, responsable du service numérique - Veolia Water Technologies
Sportradar
Sportradar, principal fournisseur de contenu sur le sport, fournit des données sportives en temps réel à plus de 65 ligues sportives du monde entier. Afin de générer des statistiques de pointe, la société s'est associée à Amazon ML Solutions Lab pour développer un système de prédiction statistique des résultats de football.
« Nous avons délibérément confié l'un des problèmes de vision par ordinateur les plus complexes à l'équipe d'Amazon ML Solutions Lab afin de tester les capacités du machine learning d’AWS, et je dois dire que je suis assez bluffé par les résultats. L'équipe a créé un modèle de machine learning pour prévoir, deux secondes à l'avance, les buts marqués lors d'un match de football en direct, grâce à Amazon SageMaker. Ce modèle est, pour nous, la promesse de nombreuses nouvelles opportunités. Nous sommes impatients de standardiser nos charges de travail ML sur AWS, car nous pouvons créer, tester et déployer des modèles en faveur de l'innovation dans notre secteur tout en respectant nos exigences en matière de coûts et de latence. »
Ben Burdsall, directeur technique - Sportradar
Roche
F. Hoffmann-La Roche AG (Roche) est une entreprise multinationale scientifique suisse spécialisée en produits pharmaceutiques et en diagnostics.
« Je voulais motiver mes équipes à systématiser nos flux de travail de ML dans le cloud. Nous avons donc travaillé avec le Machine Learning Solutions Lab afin d'organiser des ateliers Amazon SageMaker et de prouver à quel point SageMaker simplifie le processus de production de ML pour les scientifiques des données. Depuis l'atelier, 80 % de nos charges de travail de ML s'exécutent sur AWS, ce qui aide nos équipes à mettre les modèles de ML en production trois fois plus rapidement. SageMaker et les piles AWS nous permettent d'utiliser les ressources de calcul pour nous former à la demande, sans être limités par la disponibilité sur site. »
Gloria Macia, scientifique des données - Roche
Guru
« Chez Guru, nous pensons que les connaissances dont nous avons besoin pour travailler doivent nous trouver. Nous sommes une solution de gestion des connaissances qui capture les informations les plus précieuses de votre équipe et les organise en une unique source de vérité. Nous tirons parti de l'IA pour vous recommander des connaissances en temps réel là où vous travaillez, pour nous assurer qu'elles continuent d’être vérifiées et pour vous aider à mieux gérer votre base de connaissances globale. Notre équipe de science des données de produits, en plein développement, fait face à tous les défis rencontrés par les équipes actuelles de ML : la conception, l'entraînement et le déploiement de systèmes de ML à grande échelle. Nous nous reposons sur Amazon SageMaker pour affronter certains de ces défis. À l'heure actuelle, nous tirons parti de l'inférence SageMaker afin de déployer plus rapidement nos modèles de ML en production pour atteindre notre objectif principal : fournir de la valeur ajoutée à nos clients. »
Nabin Mulepati, ingénieur en machine learning – Guru
Amazon Operations
Dans le cadre de l’engagement d’Amazon envers la sécurité de ses associés pendant la pandémie du COVID-19, l’équipe Amazon Operations a déployé une solution ML pour aider à respecter les protocoles de distanciation sociale dans plus de 1000 bâtiments opérationnels dans le monde. Amazon Operations a collaboré avec Amazon Machine Learning Solutions Lab pour créer des modèles de vision par ordinateur de pointe calculant l’estimation des distances avec Amazon SageMaker.
« En standardisant nos charges de travail ML sur AWS et en travaillant avec les experts du ML Solutions Lab, nous avons créé un ensemble innovant de modèles qui, selon nous, pourraient épargner jusqu’à 30 % de l’effort de vérification manuelle. Amazon SageMaker nous permet de passer plus de temps sur la sécurité et l’amélioration de la précision en réduisant le besoin de vérification manuelle pouvant prendre des centaines d’heures cumulées par jour. »
Russell Williams, directeur, développement logiciel – Amazon OpsTech IT
Freddy’s Frozen Custard & Steakburgers
Freddy’s Frozen Custard & Steakburgers est une chaîne de restauration rapide proposant une combinaison unique de burgers préparés sur commande, de hot dogs Vienna Beef, de frites fines et d’autres préparations savoureuses comme des crèmes glacées. Fondée en 2002 et franchisée en 2004, la chaîne Freddy’s compte actuellement pas moins de 400 restaurants dans 32 États.
« Auparavant, nous nous contentions d’essayer de faire deux restaurants à peu près identiques mais maintenant, nous avons une réelle compréhension des relations entre les articles de notre menu, les clients et les emplacements. Amazon SageMaker Autopilot, derrière la nouvelle capacité de ML de Domo, a démultiplié les possibilité de nos équipes marketing et d’achat. Le service a permis d’essayer de nouvelles idées et d’améliorer l’expérience de nos clients. »
Sean Thompson, directeur informatique – Freddy’s
Vanguard
« Nous sommes ravis que nos scientifiques des données et ingénieurs de données Vanguard puissent désormais collaborer dans un seul bloc-notes pour l'analyse et le machine learning. Maintenant qu'Amazon SageMaker Studio dispose d'intégrations intégrées à Spark, Hive et Presto, qui fonctionnent toutes sur Amazon EMR, nos équipes de développement peuvent être plus productives. Cet environnement de développement unique permettra à nos équipes de se concentrer sur la création, l'entraînement et le déploiement de modèles de machine learning ».
Doug Stewart, directeur principal des données et des analyses, Vanguard
Provectus
« Nous attentions une fonctionnalité permettant de créer et gérer des clusters Amazon EMR directement depuis Amazon SageMaker Studio afin que nos clients puissent exécuter des flux de travail Spark, Hive et Presto directement depuis les blocs-notes Amazon SageMaker Studio. Nous sommes ravis qu'Amazon SageMaker ait maintenant intégré cette capacité de manière native pour simplifier la gestion des tâches Spark et de machine learning. Cela aidera les ingénieurs et les scientifiques des données à collaborer plus efficacement pour effectuer des analyses de données interactives et développer des pipelines de machine learning avec des transformations de données basées sur EMR. »
Stepan Pushkarev, président-directeur général (PDG) chez Provectus
Climate
« Chez Climate, nous croyons qu'il est important de fournir aux agriculteurs du monde entier des informations précises pour qu'ils puissent prendre des décisions fondées sur des données et maximiser leur rendement sur chaque hectare. Pour y parvenir, nous avons investi dans des technologies telles que les outils de machine learning pour créer des modèles utilisant des entités mesurables connues sous le nom de caractéristiques, telles que le rendement du champ d'un agriculteur. Avec Amazon SageMaker Feature Store, nous pouvons accélérer le développement des modèles de ML grâce à un magasin de caractéristiques central permettant d'accéder aux caractéristiques et de les réutiliser facilement par plusieurs équipes. SageMaker Feature Store permet d'accéder facilement aux caractéristiques en temps réel en utilisant le boutique en ligne ou d'exécuter les caractéristiques selon un calendrier en utilisant le magasin hors ligne pour différents cas d'utilisation. Avec le SageMaker Feature Store, nous pouvons développer des modèles de ML plus rapidement. »
Atul Kamboj, scientifique des données senior : iCare, agence gouvernementale d'assurance et de soins de la Nouvelle-Galles du Sud, Australie ; Daniel McCaffrey, vice-président chargé des données et de l'analyse, Climate
Experian
« Chez Experian, nous pensons qu'il est de notre responsabilité de donner aux consommateurs les moyens de comprendre et d'utiliser le crédit dans leur vie financière et d'aider les prêteurs à gérer le risque de crédit. Alors que nous continuons à mettre en œuvre les bonnes pratiques pour créer nos modèles financiers, nous recherchons des solutions qui accélèrent la production de produits qui tirent parti du machine learning. Amazon SageMaker Feature Store nous offre un moyen sécurisé de stocker et de réutiliser les caractéristiques de nos applications de ML. La capacité à maintenir la cohérence des applications en temps réel et par lots sur plusieurs comptes est une exigence clé pour notre activité. L'utilisation des nouvelles fonctionnalités d'Amazon SageMaker Feature Store nous permet de donner à nos clients les moyens de prendre le contrôle de leur crédit et de réduire les coûts dans la nouvelle économie. »
Geoff Dzhafarov, architecte d'entreprise en chef, Experian Consumer Services
Dena
« Chez DeNA, notre mission est de produire un impact et un plaisir en utilisant l'Internet et l'IA/ML. Fournir des services basés sur la valeur est notre objectif principal et nous voulons nous assurer que nos entreprises et nos services sont prêts à atteindre cet objectif. Nous aimerions découvrir et réutiliser des caractéristiques dans toute l'entreprise et Amazon SageMaker Feature Store nous aide avec un moyen facile et efficace de réutiliser des caractéristiques pour différentes applications. Amazon SageMaker Feature Store nous aide également à maintenir des définitions de caractéristiques standard et nous aide avec une méthodologie cohérente lorsque nous entraînons des modèles et les déployons en production. Avec ces nouvelles fonctionnalités d'Amazon SageMaker, nous pouvons entraîner et déployer les modèles de ML plus rapidement, ce qui nous permet de continuer à satisfaire nos clients avec les meilleurs services. »
Kenshin Yamada, directeur général / AI System Dept System Unit, DeNA
United Airlines
« Chez United Airlines, nous utilisons le machine learning (ML) pour améliorer l'expérience client en proposant des offres personnalisées, permettant aux clients d'être prêts grâce au Travel Readiness Center (Centre de préparation aux voyages). Notre utilisation du ML s'étend également aux opérations aéroportuaires, à la planification des réseaux, à la programmation des vols. Alors que nous sortions de la pandémie, Amazon SageMaker a joué un rôle essentiel dans le Travel Readiness Center, en nous permettant de traiter de gros volumes de certificats de test COVID et de cartes de vaccination en utilisant l'automatisation des modèles basés sur les documents. Grâce aux nouvelles capacités de gouvernance d'Amazon SageMaker, nous avons un contrôle et une visibilité accrus sur nos modèles de machine learning. SageMaker Role Manager simplifie considérablement le processus de configuration des utilisateurs en fournissant des autorisations de base et des activités ML pour chaque persona lié aux rôles IAM. Grâce à SageMaker Model Cards, nos équipes peuvent capturer et partager de manière proactive les informations sur les modèles pour les examiner, et grâce à SageMaker Model Dashboard, nous sommes en mesure de rechercher et de visualiser les modèles déployés sur MARS, notre plateforme ML interne. Grâce à toutes ces nouvelles fonctionnalité de gouvernance, nous gagnons beaucoup de temps et sommes en mesure de monter en puissance. »
Ashok Srinivas, directeur de l'ingénierie et des opérations ML, United Airlines
Capitec
« Chez Capitec, nous avons un large éventail de scientifiques des données à travers nos lignes de produits, qui développent différentes solutions ML. Nos ingénieurs ML gèrent une plateforme de modélisation centralisée créée sur Amazon SageMaker pour permettre le développement et le déploiement de toutes ces solutions ML. Sans outils intégrés, le suivi des efforts de modélisation tend vers une documentation décousue et un manque de visibilité du modèle. Avec SageMaker Model Cards, nous pouvons suivre de nombreuses métadonnées de modèles dans un environnement unifié, et SageMaker Model Dashboard nous offre une visibilité sur les performances de chaque modèle. En outre, SageMaker Role Manager simplifie le processus de gestion des accès pour les scientifiques des données dans nos différentes lignes de produits. Chacun de ces éléments contribue à ce que notre modèle de gouvernance soit suffisant pour justifier la confiance que nos clients nous accordent en tant que fournisseur de services financiers. »
Dean Matter, ingénieur ML, Capitec Bank
Lenovo
Lenovo™, le premier fabricant mondial de PC, a récemment intégré Amazon SageMaker à sa dernière offre de maintenance prédictive. Ashok Srinivas, directeur de l'ingénierie et des opérations ML, United Airlines.
« Le nouveau SageMaker Edge Manager aidera à éliminer l'effort manuel nécessaire pour optimiser, surveiller et améliorer continuellement les modèles après le déploiement. Avec lui, nous prévoyons que nos modèles s'exécuteront plus rapidement et consommeront moins de mémoire qu'avec d'autres plateformes comparables de machine learning. SageMaker Edge Manager nous permet d'échantillonner automatiquement les données à la périphérie, de les envoyer en toute sécurité vers le cloud et de surveiller en permanence la qualité de chaque modèle sur chaque appareil après le déploiement. Cela nous permet de surveiller, d'améliorer et de mettre à jour à distance les modèles de nos appareils de périphérie dans le monde entier, tout en faisant gagner du temps et en réduisant les coûts pour nous et nos clients. »
Igor Bergman, vice-président de Lenovo, Cloud et logiciels des PC et des appareils intelligents.
Basler AG
Basler AG est l'un des principaux fabricants d'appareils photo numériques et d'accessoires de haute qualité pour l'industrie, la médecine, les transports et divers autres marchés.
Basler AG fournit des solutions d'aide visuelle par ordinateur dans divers industries, y compris des applications de fabrication, médicales et de vente au détail. Nous sommes heureux d'élargir notre offre logicielle grâce aux nouvelles fonctionnalités rendues possibles par Amazon SageMaker Edge Manager. Pour que nos solutions de machine learning soient performantes et fiables, nous avons besoin d'un outil MLOps évolutif de la périphérie au cloud qui nous permet de surveiller, de maintenir et d'améliorer en permanence les modèles de machine learning sur les appareils de périphérie. SageMaker Edge Manager nous permet d'échantillonner automatiquement les données à la périphérie, de les envoyer en toute sécurité vers le cloud et de surveiller en permanence la qualité de chaque modèle sur chaque appareil après le déploiement. Cela nous permet de surveiller, d'améliorer et de mettre à jour à distance les modèles de nos appareils de périphérie dans le monde entier, tout en faisant gagner du temps et en réduisant les coûts pour nous et nos clients. »
Mark Hebbel, responsable des solutions logicielles chez Basler.
NatWest Group
NatWest Group, une grande institution de services financiers, a standardisé son processus de développement et de déploiement de modèles de ML à travers l'organisation, réduisant le cycle de rotation pour créer de nouveaux environnements de ML de 40 jours à 2 jours et accélérant le temps de valeur pour les cas d'utilisation de ML de 40 à 16 semaines.
AstraZeneca
« Plutôt que de créer de nombreux processus manuels, nous pouvons automatiser la majeure partie du processus de développement du machine learning simplement au sein d'Amazon SageMaker Studio. »
Cherry Cabading, architecte en chef d'entreprise mondial : AstraZeneca
Janssen
Grâce aux services AWS, dont Amazon SageMaker, Janssen a mis en œuvre un processus MLOps automatisé qui a amélioré la précision des prédictions du modèle de 21 % et augmenté la vitesse de l'ingénierie des fonctionnalités d'environ 700 %, aidant ainsi Janssen à réduire ses coûts tout en augmentant son efficacité.
Qualtrics
« Amazon SageMaker améliore l'efficacité de nos équipes MLOps grâce aux outils nécessaires pour tester et déployer des modèles de machine learning à l'échelle. »
Samir Joshi, Ingénieur ML – Qualtrics
Deloitte
« Amazon SageMaker Data Wrangler nous permet de partir sur les chapeaux de roues pour répondre à nos besoins en préparation de données avec une vaste collection d'outils de transformation qui accélèrent le processus de préparation de données pour le ML afin de commercialiser de nouveaux produits. Nos clients, à leur tour, profitent de ce moyen que nous utilisons pour mettre à l'échelle des modèles déployés qui nous permet de leur fournir des résultats mesurables et durables qui répondent à leurs besoins en seulement quelques jours et non plus quelques mois. »
Frank Farrall, Principal, Responsable écosystèmes et plateformes d'IA, Deloitte
NRI
« En tant que partenaire consultant AWS Premier, nos équipes d'ingénieurs travaillent en étroite collaboration avec AWS afin d'élaborer des solutions innovantes pour aider nos clients à améliorer constamment l'efficacité de leurs opérations. Le ML est au cœur de nos solutions innovantes, mais notre flux de travail de préparation des données implique des techniques de préparation des données sophistiquées qui, par conséquent, prennent beaucoup de temps avant de devenir opérationnelles dans un environnement de production. Avec Amazon SageMaker Data Wrangler, nos scientifiques des données peuvent mener à bien chaque étape du flux de travail de préparation des données, y compris la sélection, le nettoyage, l'exploration et la visualisation des données, ce qui nous aide à accélérer le processus de préparation des données et à préparer sans difficulté nos données pour le ML. Amazon SageMaker Data Wrangler nous permet de préparer plus rapidement des données pour le ML. »
Shigekazu Ohmoto, Directeur général principal de la société, NRI Japon
Equilibrium
« Notre empreinte dans le marché de la gestion de la santé de la population continuait de se développer auprès de plus de régimes de soins de santé, de fournisseurs, de responsables des bénéfices en pharmacie et d'autres organisations de soins de santé. Nous avions donc besoin d'une solution permettant d'automatiser les processus de bout en bout pour les sources de données qui alimentent nos modèles de ML, dont les données de demandes, les données d'inscription et les données pharmaceutiques. Avec Amazon SageMaker Data Wrangler, nous pouvons désormais réduire le temps nécessaire au rassemblement et à la préparation des données pour le ML en utilisant un ensemble de flux de travail plus faciles à valider à et réutiliser. Cela a considérablement amélioré le temps de livraison et la qualité de nos modèles, augmenté l'efficacité de nos scientifiques des données et réduit le temps de préparation des données de quasiment 50 %. De plus, SageMaker Data Wrangler nous a permis d'éviter de nombreuses itérations de ML et de réduire significativement le temps requis pour le GPU. Le processus complet est maintenant plus rapide pour nos clients car nous pouvons créer des data marts avec des milliers de fonctions incluant le pharmaceutique, les codes de diagnostic, les visites chez le généraliste, les hospitalisations, ainsi que la démographie et d'autres déterminants sociaux. Avec SageMaker Data Wrangler, nous pouvons transformer nos données plus efficacement afin de créer des ensembles de données d'entraînement, de générer des informations sur les données des jeux de données avant d'exécuter les modèles de ML, et de préparer des données réelles du monde tel qu'il est pour une inférence/des prédictions à l'échelle. »
Lucas Merrow, PDG, Equilibrium Point IoT
Assurance et soins icare NSW
iCare est une agence gouvernementale de Nouvelle-Galles du Sud qui fournit une assurance contre les accidents du travail à plus de 329 000 employeurs des secteurs public et privé en Nouvelle-Galles du Sud, en Australie, et à leurs 3,2 millions d'employés. En outre, iCare assure les constructeurs et les propriétaires, fournit des traitements et des soins aux personnes gravement blessées sur les routes de Nouvelle-Galles du Sud et protège plus de 266,6 milliards de dollars d'actifs du gouvernement de Nouvelle-Galles du Sud, notamment l'opéra de Sydney, le Sydney Harbour Bridge, les écoles et les hôpitaux.
« Chez Insurance and Care (iCare) NSW, notre vision est de changer la façon dont les gens perçoivent l'assurance et les soins. Amazon SageMaker a permis à iCare de créer et d'entraîner des modèles de deep learning pour l'identification précoce des patients atteints de maladies liées à la poussière à long terme. Cette identification précoce peut prévenir des maladies potentiellement mortelles. Comme dans les études précédentes, les signes de silicose n'ont pas été détectés ou n'ont pas pu être détectés chez 39 % des patients. Le diagnostic assisté par IA a permis aux médecins d'identifier correctement 80 % des cas, contre 71 % pour un diagnostic non assisté. Après la mise en œuvre de ce projet, nous allouons des ressources à Amazon SageMaker pour développer des solutions et des processus dans le cadre d'autres projets, car cela s'est avéré plus rapide et plus facile qu'auparavant et nous sommes en mesure d'intensifier facilement nos efforts pour fournir des soins aux habitants de Nouvelle-Galles du Sud. »
Atul Kamboj, scientifique des données senior : iCare, agence gouvernementale d'assurance et de soins de la Nouvelle-Galles du Sud, Australie