Créez des portails en libre-service pour les institutions de recherche et favorisez l'expérimentation rapide
Important : Research Service Workbench sur AWS sera mis hors service le 1er décembre 2024. Vous pouvez trouver d’autres solutions liées au cas d’utilisation dans la Bibliothèque de solutions AWS.
Présentation
Research Service Workbench sur AWS est une solution AWS destinée aux services informatiques de recherche et à leurs administrateurs, qui leur permet de créer un portail en libre-service pour des environnements de recherche sécurisés, sans avoir besoin de connaissances en matière d'administration ou de sécurité du cloud. La solution inclut les fonctionnalités nécessaires pour créer des espaces de travail de recherche, se connecter aux données et contrôler l'accès aux ressources AWS. Grâce aux API fournies, les administrateurs ont la possibilité de créer des utilisateurs, des projets et des sources de données. Les administrateurs peuvent également créer les environnements disponibles (y compris les outils et les ressources de calcul) et les sources de données, ainsi qu’affecter des chercheurs et des ressources à des projets bien précis. Les partenaires AWS peuvent utiliser les API pour développer rapidement un portail en libre-service pour les chercheurs.
Avantages
Déployez un exemple d'environnement de recherche interactif à l'aide du bloc-notes Jupyter avec les services AWS.
Maintenez une sécurité, une conformité et une gouvernance cohérentes.
Collaborez avec des chercheurs du monde entier.
Outils virtuellement illimités grâce à l'AWS Service Catalog.
Informations techniques
Vous pouvez déployer automatiquement cette architecture à l’aide du guide d’implémentation.
Étape 1
Déployez la solution à l'aide d'un modèle AWS CloudFormation ou de l'interface de la ligne de commande (CLI) du Cloud Development Kit (CDK) dans le compte principal, puis dans le compte d'hébergement.
Étape 2
Les utilisateurs obtiennent l'accès en fonction de leurs autorisations de groupe stockées dans la table d'autorisations Amazon DynamoDB chiffrée.
Étape 3
AWS Systems Manager traite les documents partagés depuis le compte principal du compte d'hébergement pour lancer l'environnement.
Étape 4
Pour lancer un environnement, AWS Service Catalog exécute le modèle CloudFormation dans le produit.
Étape 5
CloudFormation crée une pile à partir du modèle pour lancer l'environnement dans le cloud privé virtuel (VPC) du compte d'hébergement. Les environnements sont créés dans les sous-réseaux publics du VPC. Les blocs-notes Amazon SageMaker constituent un exemple de ces environnements.
Étape 6
Après leur création, les environnements du compte d'hébergement peuvent se connecter au compartiment d'artefacts Amazon Simple Storage Service (Amazon S3) du compte principal pour configurer des scripts personnalisés dans l'instance. Après leur création, les environnements associés à des jeux de données peuvent accéder à ceux du compartiment de jeux de données S3 via les points d'accès du compte principal.
Étape 7
Les administrateurs informatiques peuvent personnaliser le code source hébergé sur GitHub et effectuer notamment la personnalisation complète des cycles de vie de l'environnement (lancement, résiliation, démarrage et arrêt) et la connexion. Les modifications apportées au code source nécessitent le redéploiement de cette solution.
Étape 8
Les administrateurs informatiques peuvent publier des types d'environnements personnalisés dans Service Catalog au sein du compte principal.
Étape 9
Les utilisateurs peuvent demander des URL S3 pré-signées via un point de terminaison de l'API de cette solution. Grâce à cette URL S3 pré-signée, les utilisateurs peuvent ajouter des données à des jeux de données dans le compartiment de jeux de données S3 au sein du compte principal.
- Date de publication