GBT Technologies Inc. évalue l'utilisation d'un modèle d'algorithme NLP avancé pour améliorer l'expérience d'interaction humaine de son système consultatif de soins de santé basé sur l'IA. Le modèle Text-To-Text Transfer Transformer (T5) introduit une technologie efficace pour effectuer une grande variété de tâches supervisées de traitement du langage naturel (NLP) telles que la classification, les questions-réponses et le résumé. En général, la plupart des nouveaux modèles NLP d'apprentissage profond sont très volumineux et comprennent un grand nombre de paramètres. Normalement, plus le modèle NLP est grand, plus sa capacité d'apprentissage est grande, mais l'un des principaux inconvénients est l'énorme ensemble de données qui peut réduire la performance globale. Le modèle d'algorithme NLP avancé est considéré comme l'un des algorithmes NLP les plus avancés et les plus performants, qui comprend un grand nombre de paramètres, utilise beaucoup moins de mémoire et offre une grande précision. GBT évaluera le modèle pré-entraîné T5 dans le but de l'utiliser dans son système de conseil en soins de santé Hippocrates, en traitant les questions/réponses, les textes, les résumés et les connaissances de bon sens. Le modèle permet un traitement plus parallèle que des méthodes telles que le réseau neuronal récurrent (RNN) et le réseau neuronal convolutif (CNN), ce qui augmente considérablement les capacités de compréhension et de raisonnement des données. Par exemple, le modèle T5 est capable de traiter les mots ensemble plutôt que mot par mot d'un texte donné. Comme on estime que le volume mondial de données atteindra les zettaoctets dans un avenir proche, l'apprentissage profond aura besoin de puissantes capacités de traitement, de compréhension et d'analyse des données, en particulier dans le domaine énorme et non structuré du traitement automatique des langues. Le système est conçu pour fonctionner comme un système consultatif général de questions/réponses sur la santé, fournissant des conseils de première ligne sur la santé.