Amazon SageMaker JumpStart étend son portefeuille avec les modèles texte-image de Bria AI
Amazon Web Services a intégré Les derniers modèles de base texte-image de Bria AI dans Amazon SageMaker JumpStartmarquant une expansion significative de ses capacités d’IA générative de niveau entreprise. L’ajout comprend trois variantes – Bria 2.3, Bria 2.2 HDet Bria 2.3 Rapidechacun étant conçu pour répondre aux besoins spécifiques de l’entreprise en matière de génération de contenu visuel.
Ce déménagement amène Bria IA contenu visuel à un public plus large de développeurs et d’entreprises. Bria affirme que sa formation « sur des données sous licence de qualité commerciale, garantissant des normes élevées de sécurité et de conformité avec une indemnisation légale complète » répond à une préoccupation majeure des entreprises concernant le contenu généré par l’IA.
Bria 2.3 sert de modèle de base, se concentrant sur le photoréalisme et le rendu des détails dans divers styles artistiques. Bria 2.2 HD se spécialise dans la sortie haute définition, promettant des détails « nets et clairs » qui répondent aux exigences des applications haute résolution. Bria 2.3 Rapide déployé sur les instances SageMaker g5 offre latence et débit améliorés par rapport à Bria 2.3 et Bria 2.2 HD. Le déploiement à l’aide d’instances p4d peut réduire encore la latence de moitié.
Bria 2.3, le modèle de base est accessible via le point de terminaison /text-to-image/base. Le modèle met en œuvre quatre méthodes de guidage spécifiques : controlnet_canny, controlnet_profondeur, controlnet_recolorationet controlnet_color_gridchacun fournissant des mécanismes de contrôle distincts sur le processus de génération de résultats. Bria 2.3 Fast représente la variante optimisée en termes de performances, accessible via le point de terminaison /text-to-image/fast. Le modèle emploie Modèle de cohérence latente (LCM) techniques de distillation pour obtenir un temps de réponse plus rapide. Bria 2.2 HD, accessible via le point de terminaison /text-to-image/hd, permet une génération de sortie haute résolution. Le modèle prend en charge deux configurations de résolution spécifiques : 1 920 x 1 080 pixels pour la résolution standard. proportions et 1 536 x 1 536 pixels pour les sorties au format carré.
Amazon SageMaker JumpStart propose une large gamme de modèles fondamentaux (FM) disponibles pour les praticiens du ML à déployer sur des instances SageMaker dédiées et isolées du réseau. Les praticiens peuvent personnaliser ces modèles à l’aide des outils intégrés de SageMaker pour la formation et le déploiement de modèles, accessibles via le Amazon SageMaker Studio interface ou le SDK Python SageMaker. SageMaker JumpStart prend en charge le suivi complet des performances des modèles et les contrôles MLOps à l’aide de fonctionnalités telles que Pipelines Amazon SageMaker, Débogueuret les journaux de conteneurs, ce qui facilite la gestion et l’optimisation des flux de travail de ML.
L’intégration utilise l’infrastructure de SageMaker JumpStart, permettant aux organisations de déployer ces modèles au sein de leur cloud privé virtuel (VPC). Les modèles Bria sont disponibles aujourd’hui pour le déploiement et l’inférence dans SageMaker Studio dans 22 régions AWS où SageMaker JumpStart est disponible. Les modèles Bria nécessiteront des instances g5 et p4 pour le déploiement.
Les développeurs peuvent accéder aux modèles Bria à partir du JumpStart volet de navigationoù ils peuvent afficher les détails du modèle, notamment les licences, les informations sur les données de formation et les options de déploiement. La plateforme nécessite un Marché AWS abonnement avant le déploiement, le processus gérant à la fois l’installation initiale et la configuration du point de terminaison.
Le flux de travail de déploiement s’intègre à l’infrastructure d’AWS via plusieurs méthodes de lancement, la console SageMaker offrant le chemin le plus simple. Le système prend en charge cinq types d’instances: ml.g5.2xlarge, ml.g5.12xlarge, ml.g5.48xlarge, ml.p4d.24xlarge et ml.p4de.24xlarge, nécessitant des limites de service appropriées au niveau du compte. Après avoir sélectionné un type d’instance, les utilisateurs créent un point final configuration et déploiement du modèle, SageMaker gérant le provisionnement de l’infrastructure.
Des capacités de test existent via l’interface de SageMaker Studio et carnet de notes environnements. La plateforme prend en charge inférence grâce à des exemples de charges utiles de requête, l’interface du studio fournissant un retour visuel immédiat. Pour l’accès par programmation, les développeurs utilisent le SDK SageMaker Python pour interagir avec les points de terminaison déployés, permettant ainsi l’intégration dans les flux de travail et les applications existants.
Les modèles revendiquent une force particulière dans la génération d’images à partir d’invites détaillées, « photographie, dynamique, en ville, skateur professionnel, lunettes de soleil, teinte bleu sarcelle et orange », « jeune femme aux cheveux bouclés et flottants se tient sur un quai de métro, illuminée par l’ambiance vibrante ». lumières d’un train à grande vitesse, couleurs violettes et cyan », « gros plan d’un perroquet bleu et vert vif perché sur une branche en bois à l’intérieur d’une pièce confortable et bien éclairée » et « mouvement de vitesse de la lumière avec des couleurs néon bleu et violet et bâtiment dans le « background » a généré des images montrant une solide compréhension des concepts visuels complexes et des orientations de style.
Source: Images générées par le modèle Bria
Analyste cloud Toni Witt a souligné« Les sorties de la plate-forme Bria n’enfreignent pas les lois sur le droit d’auteur. Sous licence d’artistes, de référentiels et de sociétés de médias, les données de formation, ou l’ensemble d’images, sont hautement vérifiées pour exclure les données toxiques qui pourraient réapparaître dans les sorties ».
Aravind Bharadwajdirecteur des investissements chez Intel Capital, expliqué: « Et si, au lieu de rechercher sans discernement sur le Web toutes les données destinées à la formation de modèles, on utilisait uniquement des sources de données approuvées ? Et si les créateurs de contenu bénéficiaient d’une attribution et d’une compensation monétaire pour leur utilisation ? Et si les utilisateurs de la plateforme n’avaient pas à s’inquiéter sur la violation par inadvertance des droits d’auteur de quelqu’un d’autre ? Telles sont les questions que les fondateurs de BRIA se sont posées et les principes sous-jacents sur lesquels BRIA a été construit ».
Gabrielle Chouentrepreneur en série et conseiller chez Photoroom, sound prudence: « Ces développements récents soulignent l’évolution du paysage juridique et éthique entourant l’utilisation d’œuvres protégées par le droit d’auteur dans la formation en IA. Cependant, pour les entreprises qui cherchent à adopter les technologies GenAI, cela représente une opportunité passionnante de diriger l’innovation tout en relevant ces défis de manière responsable ».
En plus d’être disponible sur AWS, Bria modèles sont disponibles via Hugging Face et NIM de NVIDIA catalogue. Les développeurs et les organisations peuvent également explorer et exécuter dans un aire de jeux environnement sans frais, permettant l’expérimentation avant l’engagement. Voici quelques Bria concurrents dans l’espace commercial de conversion texte-image.