Ces mesures reflètent les efforts déployés par les principaux fournisseurs d'informatique en nuage pour maîtriser eux-mêmes les technologies sensibles, alors que les législateurs aux États-Unis et en Europe continuent de réfléchir à des limites juridiques globales.

Depuis l'année dernière au moins, Microsoft examine si les systèmes de reconnaissance des émotions sont fondés sur la science.

Ces efforts ont soulevé d'importantes questions concernant la protection de la vie privée, l'absence de consensus sur la définition des "émotions" et l'incapacité à généraliser le lien entre l'expression faciale et l'état émotionnel à travers les cas d'utilisation, les régions et les données démographiques", a déclaré Sarah Bird, directrice de produit du groupe principal de l'unité Azure AI de Microsoft, dans un article de blog.

Les clients actuels disposeront d'un an avant de perdre l'accès aux outils d'intelligence artificielle censés déduire les émotions, le sexe, l'âge, le sourire, la pilosité faciale, les cheveux et le maquillage.

L'année dernière, Google Cloud, propriété d'Alphabet Inc., s'est lancé dans une évaluation similaire, rapportée pour la première fois par Reuters. Google a bloqué 13 émotions prévues dans son outil de lecture des émotions et a mis à l'étude quatre émotions existantes, telles que la joie et la tristesse. Il étudie un nouveau système qui décrirait des mouvements tels que le froncement de sourcils et le sourire, sans chercher à les associer à une émotion.

Google n'a pas répondu immédiatement à une demande de commentaire mardi.

Microsoft a également indiqué que ses clients devaient désormais obtenir une autorisation pour utiliser ses services de reconnaissance faciale, qui permettent de se connecter à des sites web ou d'ouvrir des portes verrouillées par le biais d'un balayage du visage.

L'entreprise a invité ses clients à éviter les situations qui portent atteinte à la vie privée ou dans lesquelles la technologie pourrait s'avérer difficile, comme l'identification de mineurs, mais elle n'a pas explicitement interdit ces utilisations.