Tech

Ingestion basée sur RAG pour les applications d’IA génératives avec Logic Apps Standard en avant-première publique

[ad_1]

Microsoft a récemment annoncé la préversion publique des actions intégrées pour l’analyse et le découpage de documents dans Applications logiques standardCes actions visent à rationaliser l’ingestion basée sur la génération augmentée de récupération (RAG) pour les applications d’IA générative. Avec ces actions, l’entreprise investit davantage dans les capacités d’intelligence artificielle pour son offre low-code.

Grâce à ces opérations prêtes à l’emploi, les développeurs peuvent, selon l’entreprise, ingérer facilement des documents ou des fichiers, y compris des données structurées et non structurées, dans AI Search sans écrire ni gérer de code. Les nouvelles actions Data Operations « « Analyser un document » et « Décomposer un texte » Transformez le contenu de formats tels que PDF, CSV et Excel en chaînes tokenisées et divisez-les en blocs gérables en fonction du nombre de jetons. Cette fonctionnalité est adaptée pour garantir la compatibilité avec Recherche d’IA Azure et Azure OpenAIqui nécessitent une entrée tokenisée et ont des limites de jetons.

Divya Swarnkarresponsable de programme chez Microsoft, écrit :

Ces actions s’appuient sur la Boîte à outils Apache Tika et des bibliothèques d’analyse, vous permettant d’analyser des milliers de types de fichiers dans plusieurs langues, tels que PDF, DOCX, PPT, HTML, etc. Vous pouvez lire et analyser de manière transparente des documents provenant de pratiquement n’importe quelle source sans logique ni configuration personnalisée !

(Source: Article de blog de la communauté technologique)

Wessel Beulinkun architecte cloud chez Rubicon, a conclu dans un article de blog sur les nouvelles actions :

Les fonctionnalités d’analyse et de segmentation de documents d’Azure Logic Apps ouvrent de nombreuses possibilités d’automatisation. Ces fonctionnalités, des workflows juridiques au support client, permettent aux entreprises d’exploiter l’IA pour un traitement de documents plus innovant. En tirant parti de l’ingestion RAG low-code, les organisations peuvent simplifier l’intégration des modèles d’IA, ce qui permet une ingestion plus fluide des données, une recherche améliorée et une gestion plus efficace des connaissances.

Dans son article de blog, il mentionne divers cas d’utilisation qui impliquent l’intégration de fonctionnalités d’analyse dans les flux de travail de l’IA pour rationaliser le traitement des documents, permettre aux chatbots alimentés par l’IA d’ingérer et de récupérer des informations pertinentes pour le support client, et améliorer la gestion des connaissances et la recherche en décomposant les données en éléments gérables.

En outre, Logic Apps fournit des modèles prêts à l’emploi pour l’ingestion de RAG, ce qui facilite la connexion à des sources de données familières telles que SharePoint, Azure File, SFTP et Azure Blob Storage. Ces modèles peuvent aider les développeurs à gagner du temps et à personnaliser les flux de travail en fonction de leurs besoins.

Kamaljeet Kharbanda, étudiant en master de science des données, déclare dans un article de blog moyen RAG transforme le traitement des données d’entreprise en combinant des bases de connaissances approfondies avec les puissantes capacités d’analyse des grands modèles de langage (LLM). Cette synergie permet des interprétations avancées d’ensembles de données complexes, ce qui est essentiel pour générer un avantage concurrentiel dans l’écosystème numérique actuel.

Plateformes low-code/no-code telles que Azure AI Studio, Le substrat rocheux de l’Amazonie, Vertex AIet Logic Apps rendent les fonctionnalités avancées de l’IA accessibles. Parallèlement à ces solutions cloud, des outils tels que LangChain et Index des lamas fournir des environnements robustes pour la mise en œuvre de fonctionnalités d’IA personnalisées via des méthodes gourmandes en code.



Source link