Azure OpenAI Service offre un accès API à de puissants modèles de langage OpenAI comme GPT-4o, permettant des tâches telles que la génération de contenu, la résumé, la traduction de langage naturel et de code.
Dans ce post, je veux vous montrer à quel point il est facile de déployer un modèle de langage vers une ressource Azure OpenAI existante chaque fois que de nouveaux modèles deviennent disponibles.
Vous avez besoin d’un abonnement Azure actif et d’un accès au service Azure OpenAI, que vous pouvez demander en utilisant ce lien. Au moment où j’écris ceci, il m’a fallu seulement quelques heures pour obtenir l’accès, mais cela peut prendre jusqu’à 10 jours ouvrables.
La première étape est la création d’une ressource. Après vous être connecté au portail Azure, sélectionnez l’option Créer une ressource.
Ensuite, recherchez Azure OpenAI, cliquez dessus, puis utilisez le bouton Créer.
Dans la nouvelle boîte de dialogue, vous devrez :
Après cela, vous pouvez laisser les autres valeurs par défaut et utiliser le bouton Suivant pour avancer, puis le bouton Créer pour terminer la création de la ressource.
La création de la ressource peut prendre quelques minutes, après quoi vous serez redirigé vers une page de résumé pour votre déploiement. Sélectionnez le bouton Accéder à la ressource pour travailler avec votre nouvelle ressource Azure OpenAI.
Naviguer à travers le portail Azure a récemment vu quelques changements, en particulier dans la gestion des déploiements de modèles d’IA. Les utilisateurs habitués à trouver les options de déploiement de modèles sous la section « Déploiements de modèles » dans leur groupe de ressources verront maintenant une invite indiquant que ces fonctionnalités ont été déplacées vers Azure OpenAI Studio.
Dans le nouveau Azure AI Studio mis à jour, les utilisateurs peuvent désormais accéder à une liste complète de modèles d’IA, comme le montre l’image. Il est crucial de noter que la disponibilité de ces modèles dépend de la région sélectionnée lors de l’étape de création.
Maintenant, nous pouvons sélectionner le modèle gpt-4o et l’option de déploiement.
Lors de la configuration d’un nouveau déploiement, les utilisateurs peuvent configurer plusieurs paramètres clés, y compris la version du modèle, le type de déploiement et le nom. Un aspect crucial à prendre en compte est la limite de taux, qui dicte le nombre de jetons traités par minute. Dans cet exemple, la limite de taux est fixée à 1 000 jetons par minute, ce qui se traduit par 6 requêtes par minute (RPM). De plus, la fonction de quota dynamique, activée ici, permet à Azure d’ajuster automatiquement les limites de taux en fonction de la demande et de la disponibilité des ressources.
Une fois que notre nouveau déploiement est prêt, nous pouvons l’utiliser dans l’aire de jeu pour le tester.
Le Playground dans Azure OpenAI Studio offre un environnement dynamique pour tester et peaufiner les modèles d’IA. L’image montre un exemple pratique de l’utilisation du déploiement « rj-gpt-4o » pour générer des réponses basées sur des invitations d’utilisateur.
Le panneau de configuration à gauche permet aux utilisateurs de définir des messages système, d’utiliser des modèles et d’ajouter des exemples pour guider les réponses de l’IA. Le panneau de configuration à droite permet aux utilisateurs de sélectionner leur déploiement et d’ajuster les paramètres de session, tels que le nombre de messages passés inclus et le nombre actuel de jetons. Ici, nous avons demandé au modèle d’imprimer les 100 premiers nombres premiers, démontrant la capacité du modèle à traiter efficacement les requêtes mathématiques. Ce playground interactif est inestimable pour les développeurs pour expérimenter avec différentes configurations et optimiser leurs modèles d’IA pour diverses applications.
Dans le portail Azure, sécuriser et gérer l’accès à vos services d’IA est crucial, et la section « Clés et Endpoint » facilite efficacement ce processus.
Comme le montre l’image, dans le groupe de ressources « rj-gpt-demo », les utilisateurs peuvent accéder à l’option « Clés et Endpoint » mise en évidence par des flèches rouges dans la barre latérale gauche. Cette section affiche des informations essentielles, y compris deux clés d’accès et une URL de point de terminaison, qui sont essentielles pour effectuer des appels API aux services d’IA Azure. Il est conseillé aux utilisateurs de stocker ces clés de manière sécurisée et de les régénérer régulièrement pour maintenir la sécurité, avec des options pour régénérer chaque clé séparément, garantissant un accès ininterrompu pendant le processus de mise à jour.
En utilisant l’Endpoint et la Clé fournis, nous pouvons tester notre modèle en utilisant cURL en posant la même question que celle que nous avons utilisée dans l’aire de jeu avec la commande suivante (remplacez VOTRE_API_KEY par l’une des 2 clés).
curl -X POST -H "Content-Type: application/json" -H "Authorization: Bearer VOTRE_API_KEY" --data '{"prompt": "Quels sont les 100 premiers nombres premiers ?"}' https://api.openai.com/v1/engines/text-davinci-003/completions
Cela renverra une réponse JSON avec les nombres et des informations supplémentaires concernant l’appel lui-même.
Le déploiement de nouveaux modèles de langage en utilisant le service Azure OpenAI est un processus simplifié qui commence par sécuriser l’accès et créer les ressources nécessaires dans le portail Azure. Une fois les ressources configurées, la navigation dans le studio Azure AI mis à jour permet de sélectionner et de configurer des modèles comme GPT-4o, garantissant des performances et une évolutivité optimales.
Le playground interactif offre un environnement précieux pour tester et peaufiner les réponses des modèles, tandis que la sécurisation de l’accès via la section « Clés et Endpoint » est essentielle pour maintenir des interactions API sécurisées. En suivant ces étapes, les développeurs peuvent exploiter l’infrastructure robuste d’Azure pour intégrer efficacement et en toute sécurité de puissantes capacités d’IA dans leurs applications.
Rodrigo Juarez a plus de 25 ans d’expérience dans le développement de logiciels, spécialisé dans les technologies Microsoft. Sa mission est de résoudre des problèmes complexes pour ses clients, en se concentrant sur les résultats. Il y parvient en appliquant la technologie appropriée et en utilisant les meilleures pratiques pour garantir la livraison de solutions de haute qualité. Au cours des 6 dernières années, Rodrigo a perfectionné ses compétences en développement back-end et en création d’applications mobiles, en utilisant initialement Xamarin et en passant maintenant à .NET MAUI. Il est développeur mobile principal chez Trailhead Technology Partners et co-auteur, avec Jesse Liberty, du livre “.NET MAUI for C# Developers”.