AWS re:Invent NVIDIA Corporation a annoncé un microservice d'IA générative qui permet aux entreprises de connecter de grands modèles de langage personnalisés aux données de l'entreprise afin de fournir des réponses très précises à leurs applications d'IA. NVIDIA NeMo ? Retriever, nouvelle offre de la famille NVIDIA NeMo de frameworks et d'outils pour construire, personnaliser et déployer des modèles d'IA générative, aide les entreprises à améliorer leurs applications d'IA générative avec des capacités de génération augmentée par récupération (RAG) de niveau professionnel.

En tant que microservice de récupération sémantique, NeMo Retriever aide les applications d'IA générative à fournir des réponses plus précises grâce aux algorithmes optimisés par NVIDIA. Les développeurs qui utilisent ce microservice peuvent connecter leurs applications d'IA aux données de l'entreprise, où qu'elles se trouvent dans les nuages et les centres de données. Il ajoute des capacités RAG optimisées par NVIDIA aux fonderies d'IA et fait partie de la plate-forme logicielle NVIDIA AI Enterprise, disponible sur AWS Marketplace. Cadence, Dropbox, SAP et ServiceNow font partie des pionniers qui travaillent avec NVIDIA pour intégrer des capacités RAG prêtes à la production dans leurs applications et services d'IA générative personnalisés.

Les leaders mondiaux améliorent la précision des LLM avec NeMo Retriever : Cadence, leader de la conception de systèmes électroniques, sert les entreprises sur les marchés de l'informatique à grande échelle, des communications 5G, de l'automobile, de la téléphonie mobile, de l'aérospatiale, des produits de consommation et des soins de santé. Il travaille avec NVIDIA pour développer les fonctions RAG pour les applications d'IA générative dans la conception électronique industrielle. Déchiffrer le code pour des applications d'IA générative précises : Contrairement aux boîtes à outils RAG open-source, NeMo Retriever prend en charge l'IA générative prête à la production avec des modèles commercialement viables, une stabilité de l'API, des correctifs de sécurité et un support d'entreprise.

Les algorithmes optimisés par NVIDIA permettent d'obtenir les résultats les plus précis dans les modèles d'intégration de Retriever. Les modèles d'intégration optimisés capturent les relations entre les mots, permettant aux LLM de traiter et d'analyser les données textuelles. Grâce à NeMo Retriever, les entreprises peuvent connecter leurs LLM à de multiples sources de données et bases de connaissances, afin que les utilisateurs puissent facilement interagir avec les données et recevoir des réponses précises et actualisées à l'aide d'invites simples et conversationnelles.

Les entreprises qui utilisent des applications alimentées par Retriever peuvent permettre aux utilisateurs d'accéder en toute sécurité à des informations couvrant de nombreuses modalités de données, telles que le texte, les PDF, les images et les vidéos. Les entreprises peuvent utiliser NeMo Retriever pour obtenir des résultats plus précis avec moins de formation, ce qui accélère la mise sur le marché et favorise l'efficacité énergétique dans le développement d'applications d'IA générative. Déploiement fiable, simple et sécurisé avec NVIDIA AI Enterprise : Les entreprises peuvent déployer des applications alimentées par NeMo Retriever pour qu'elles s'exécutent pendant l'inférence sur des ordinateurs accélérés par NVIDIA dans pratiquement n'importe quel centre de données ou cloud.

NVIDIA AI Enterprise prend en charge l'inférence accélérée et haute performance avec NVIDIA NeMo, NVIDIA Triton Inference Server, NVIDIA TensorRT, NVIDIA TensorRT-LLM et d'autres logiciels d'IA de NVIDIA. Disponibilité : Les développeurs peuvent s'inscrire pour bénéficier d'un accès anticipé à NVIDIA NeMo Retriever.