Azure OpenAI Service  Accès aux puissants modèles de langage d’OpenAI

Ecrit le 7 janvier 2024 | Azure OpenAI Service

Azure OpenAI Service fournit un accès par l’API REST à des modèles de langage avancés développés par OpenAI, tels que les séries de modèles GPT-4, GPT-4 Turbo avec Vision, GPT-3.5-Turbo et les modèles d’incorporation. Ces modèles sont adaptés à de nombreuses tâches spécifiques telles que la génération de contenu, le résumé, la compréhension d’images, la recherche sémantique, le langage naturel et la traduction de code. Les utilisateurs peuvent accéder au service via des API REST, le SDK Python ou l’interface web d’Azure OpenAI Studio.

Présentation des fonctionnalités

Azure OpenAI Service offre les fonctionnalités suivantes :

Modèles disponibles

  • Série GPT-4 (y compris GPT-4 Turbo avec Vision)
  • Série GPT-3.5-Turbo
  • Série d’incorporations

Pour en savoir plus, consultez notre page Modèles.

Mise au point (aperçu)

  • GPT-3.5-Turbo (0613)
  • babbage-002
  • davinci-002

Prix

Disponible ici

Prise en charge des réseaux virtuels et des liaisons privées

Oui, sauf si vous utilisez Azure OpenAI sur vos données.

Identité managée

Oui, par le biais de Microsoft Entra ID.

Expérience d’interface utilisateur

  • Portail Azure pour la gestion des ressources et des comptes
  • Azure OpenAI Service Studio pour l’exploration et l’optimisation des modèles

Disponibilité régionale du modèle

Disponibilité du modèle

Filtrage du contenu

Les prompts et les complétions sont évalués selon notre politique de contenu avec des systèmes automatisés. Le contenu à forte gravité est filtré.

Intelligence artificielle responsable

Chez Microsoft, nous nous engageons à améliorer l’intelligence artificielle (IA) en plaçant les utilisateurs au centre de nos préoccupations. Les modèles de génération de texte tels que ceux disponibles dans Azure OpenAI Service offrent des avantages significatifs, mais sans une conception et des mesures d’atténuation appropriées, ces modèles peuvent également générer du contenu incorrect voire dangereux. Microsoft a pris des mesures importantes pour renforcer la protection contre les abus et les préjudices non intentionnels. Cela comprend l’obligation pour les demandeurs de présenter des cas d’utilisation bien définis, l’intégration des principes de Microsoft pour une utilisation responsable de l’IA, la création de filtres de contenu pour aider les clients et la fourniture de conseils aux clients pour mettre en œuvre une IA responsable.

Comment accéder à Azure OpenAI ?

Actuellement, l’accès à Azure OpenAI est limité car nous nous concentrons sur les améliorations produits à venir et sur notre engagement envers une IA responsable. Pour le moment, nous travaillons avec des clients qui ont déjà établi un partenariat avec Microsoft, qui ont des cas d’utilisation à faible risque et qui se sont engagés à mettre en œuvre des mesures d’atténuation.

Vous trouverez des informations plus détaillées dans le formulaire de demande. Nous vous remercions de votre patience pendant cette période où nous travaillons à élargir l’accès au service Azure OpenAI de manière responsable.

Appliquer maintenant

Comparaison d’Azure OpenAI et OpenAI

Azure OpenAI Service offre aux clients une IA de langage avancée avec les modèles OpenAI GPT-4, GPT-3, Codex, DALL-E et Whisper, tout en garantissant la sécurité et l’entreprise Azure. Azure OpenAI co-développe les API avec OpenAI, ce qui garantit la compatibilité et une transition en douceur entre les deux.

Avec Azure OpenAI, les clients bénéficient des fonctionnalités de sécurité de Microsoft Azure tout en exécutant les mêmes modèles que ceux d’OpenAI. Azure OpenAI offre également une mise en réseau privée, une disponibilité régionale et un filtrage de contenu responsable de l’IA.

Concepts clés

Prompts et saisies semi-automatiques

Le point de terminaison des saisies semi-automatiques est le composant principal de l’API du service. Cette API permet l’accès à l’interface d’entrée et de sortie de texte du modèle. Les utilisateurs doivent simplement fournir un prompt d’entrée contenant la commande de texte en anglais, et le modèle génère une saisie semi-automatique.

Voici un exemple de prompt et de saisie semi-automatique simples :

Prompt : «  » » compte jusqu’à 5 dans une boucle for «  » » Saisie semi-automatique : for i in range(1, 6): print(i)

Jetons

Jetons de texte

Azure OpenAI Service traite le texte en le divisant en jetons. Les jetons peuvent être des mots ou simplement des blocs de caractères. Par exemple, le mot « hamburger » est divisé en jetons « ham », « bur » et « ger », tandis qu’un mot court et courant comme « poire » est un seul jeton. De nombreux jetons commencent par un espace, par exemple « bonjour » et « au revoir ».

Le nombre total de jetons traités dans une requête donnée dépend de la longueur de vos paramètres d’entrée, de sortie et de requête. La quantité de jetons en cours de traitement affecte également la latence et le débit de votre réponse pour les modèles.

Jetons d’image (GPT-4 Turbo avec Vision)

Le coût en jetons d’une image d’entrée dépend de deux facteurs principaux : la taille de l’image et le niveau de détail (faible ou élevé) utilisé pour chaque image. Voici comment cela fonctionne :

  • Détail : mode basse résolution

Un niveau de détail faible permet à l’API de renvoyer des réponses plus rapidement et de consommer moins de jetons d’entrée pour les cas d’utilisation qui ne nécessitent pas un niveau de détail élevé. Ces images coûtent 85 jetons chacune, quelle que soit leur taille.

Exemple : Une image de 4096 x 8192 (faible niveau de détail) : Le coût est fixé à 85 jetons, car il s’agit d’une image peu détaillée, et la taille n’affecte pas le coût dans ce mode.

  • Détail : mode haute résolution

Le niveau de détail élevé permet à l’API de voir l’image de manière plus détaillée en la découpant en carrés plus petits. Chaque carré utilise plus de jetons pour générer du texte. Le coût du jeton est calculé par une série d’étapes de mise à l’échelle :

  1. L’image est d’abord mise à l’échelle pour s’adapter à un carré de 2048 x 2048 tout en conservant ses proportions.
  2. L’image est ensuite mise à l’échelle pour que le côté le plus court mesure 768 pixels de long.
  3. L’image est divisée en mosaïques carrées de 512 pixels, et le nombre de ces mosaïques (arrondi à l’unité supérieure pour les mosaïques partielles) détermine le coût final. Chaque mosaïque coûte 170 jetons.
  4. 85 jetons supplémentaires sont ajoutés au coût total.

Exemple : une image de 2048 x 4096 (haut niveau de détail)
– Initialement redimensionnée en 1024 x 2048 pour s’adapter au carré de 2048.
– Ensuite redimensionnée en 768 x 1536.
– Nécessite six vignettes de 512 px pour couvrir l’image.
– Le coût total est de 170 x 6 + 85 = 1105 jetons.

Ressources

Azure OpenAI est une nouvelle offre de produit sur Azure. Vous pouvez commencer à utiliser Azure OpenAI comme n’importe quel autre produit Azure en créant une ressource ou une instance du service dans votre abonnement Azure. Vous pouvez en savoir plus sur la gestion des ressources Azure sur notre page de documentation.

Déploiements

Une fois que vous avez créé une ressource Azure OpenAI, vous devez déployer un modèle avant de commencer à effectuer des appels d’API et à générer du texte. Cette action peut être effectuée à l’aide des API de déploiement, qui vous permettent de spécifier le modèle que vous souhaitez utiliser.

Demande à l’ingénierie

Les modèles GPT-3, GPT-3.5 et GPT-4 d’OpenAI sont basés sur des prompts. Dans le cas d’un modèle basé sur des prompts, l’utilisateur interagit avec le modèle en fournissant un prompt de texte, auquel le modèle répond par une saisie semi-automatique. Cette saisie semi-automatique est la continuation du texte d’entrée par le modèle.

La construction du prompt peut être difficile. En pratique, le prompt est utilisé pour configurer les pondérations du modèle afin d’accomplir la tâche souhaitée. Cependant, c’est plus un art qu’une science, et cela nécessite souvent de l’expérience et de l’intuition pour créer un prompt réussi.

Modèles

Le service Azure OpenAI permet aux utilisateurs d’accéder à plusieurs modèles différents. Chaque modèle offre des fonctionnalités et des prix différents.

Les modèles DALL-E, actuellement en préversion, génèrent des images à partir de prompts textuels fournis par l’utilisateur.

Les modèles Whisper, actuellement en préversion, peuvent être utilisés pour la transcription et la conversion de la parole en texte.

En savoir plus sur chaque modèle sur notre page de documentation sur les modèles.

Étapes suivantes

Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.

S'INSCRIRE A LA NEWSLETTER
Restez informé des dernières actualités, prochains stages ou formations en vous abonnant à la lettre d'information.