AccueilContact

Déploiement d'un modèle GPT-4O sur le service Azure OpenAI

Publié dans DevOps
4 juillet 2024
4 min read
Déploiement d'un modèle GPT-4O sur le service Azure OpenAI

Deploying A GPT-4o Model to Azure OpenAI Service

Azure OpenAI Service offre un accès API à de puissants modèles de langage OpenAI comme GPT-4o, permettant des tâches telles que la génération de contenu, la résumé, la traduction de langage naturel et de code.

Dans ce post, je veux vous montrer à quel point il est facile de déployer un modèle de langage vers une ressource Azure OpenAI existante chaque fois que de nouveaux modèles deviennent disponibles.

Prérequis

Vous avez besoin d’un abonnement Azure actif et d’un accès au service Azure OpenAI, que vous pouvez demander en utilisant ce lien. Au moment où j’écris ceci, il m’a fallu seulement quelques heures pour obtenir l’accès, mais cela peut prendre jusqu’à 10 jours ouvrables.

Création d’une ressource Azure OpenAI

La première étape est la création d’une ressource. Après vous être connecté au portail Azure, sélectionnez l’option Créer une ressource.

Ensuite, recherchez Azure OpenAI, cliquez dessus, puis utilisez le bouton Créer.

Dans la nouvelle boîte de dialogue, vous devrez :

  1. Sélectionner l’abonnement où les nouvelles ressources seront situées.
  2. Créer ou sélectionner un groupe de ressources.
  3. Définir la région. REMARQUE : tous les types de modèles ne sont pas disponibles dans chaque région. Pour accéder aux modèles gpt-4o, vous devez sélectionner East US 2 au moment de la rédaction de ce post.
  4. Créer un nom unique pour la ressource.
  5. Choisir le niveau de tarification.

Après cela, vous pouvez laisser les autres valeurs par défaut et utiliser le bouton Suivant pour avancer, puis le bouton Créer pour terminer la création de la ressource.

La création de la ressource peut prendre quelques minutes, après quoi vous serez redirigé vers une page de résumé pour votre déploiement. Sélectionnez le bouton Accéder à la ressource pour travailler avec votre nouvelle ressource Azure OpenAI.

Déployer le Modèle

Naviguer à travers le portail Azure a récemment vu quelques changements, en particulier dans la gestion des déploiements de modèles d’IA. Les utilisateurs habitués à trouver les options de déploiement de modèles sous la section « Déploiements de modèles » dans leur groupe de ressources verront maintenant une invite indiquant que ces fonctionnalités ont été déplacées vers Azure OpenAI Studio.

Disponibilité du Modèle

Dans le nouveau Azure AI Studio mis à jour, les utilisateurs peuvent désormais accéder à une liste complète de modèles d’IA, comme le montre l’image. Il est crucial de noter que la disponibilité de ces modèles dépend de la région sélectionnée lors de l’étape de création.

Maintenant, nous pouvons sélectionner le modèle gpt-4o et l’option de déploiement.

Lors de la configuration d’un nouveau déploiement, les utilisateurs peuvent configurer plusieurs paramètres clés, y compris la version du modèle, le type de déploiement et le nom. Un aspect crucial à prendre en compte est la limite de taux, qui dicte le nombre de jetons traités par minute. Dans cet exemple, la limite de taux est fixée à 1 000 jetons par minute, ce qui se traduit par 6 requêtes par minute (RPM). De plus, la fonction de quota dynamique, activée ici, permet à Azure d’ajuster automatiquement les limites de taux en fonction de la demande et de la disponibilité des ressources.

Tester le Modèle dans l’Aire de Jeu

Une fois que notre nouveau déploiement est prêt, nous pouvons l’utiliser dans l’aire de jeu pour le tester.

Le Playground dans Azure OpenAI Studio offre un environnement dynamique pour tester et peaufiner les modèles d’IA. L’image montre un exemple pratique de l’utilisation du déploiement « rj-gpt-4o » pour générer des réponses basées sur des invitations d’utilisateur.

Le panneau de configuration à gauche permet aux utilisateurs de définir des messages système, d’utiliser des modèles et d’ajouter des exemples pour guider les réponses de l’IA. Le panneau de configuration à droite permet aux utilisateurs de sélectionner leur déploiement et d’ajuster les paramètres de session, tels que le nombre de messages passés inclus et le nombre actuel de jetons. Ici, nous avons demandé au modèle d’imprimer les 100 premiers nombres premiers, démontrant la capacité du modèle à traiter efficacement les requêtes mathématiques. Ce playground interactif est inestimable pour les développeurs pour expérimenter avec différentes configurations et optimiser leurs modèles d’IA pour diverses applications.

Clés et Accès API

Dans le portail Azure, sécuriser et gérer l’accès à vos services d’IA est crucial, et la section « Clés et Endpoint » facilite efficacement ce processus.

Comme le montre l’image, dans le groupe de ressources « rj-gpt-demo », les utilisateurs peuvent accéder à l’option « Clés et Endpoint » mise en évidence par des flèches rouges dans la barre latérale gauche. Cette section affiche des informations essentielles, y compris deux clés d’accès et une URL de point de terminaison, qui sont essentielles pour effectuer des appels API aux services d’IA Azure. Il est conseillé aux utilisateurs de stocker ces clés de manière sécurisée et de les régénérer régulièrement pour maintenir la sécurité, avec des options pour régénérer chaque clé séparément, garantissant un accès ininterrompu pendant le processus de mise à jour.

Tester avec cURL

En utilisant l’Endpoint et la Clé fournis, nous pouvons tester notre modèle en utilisant cURL en posant la même question que celle que nous avons utilisée dans l’aire de jeu avec la commande suivante (remplacez VOTRE_API_KEY par l’une des 2 clés).

curl -X POST -H "Content-Type: application/json" -H "Authorization: Bearer VOTRE_API_KEY" --data '{"prompt": "Quels sont les 100 premiers nombres premiers ?"}' https://api.openai.com/v1/engines/text-davinci-003/completions

Cela renverra une réponse JSON avec les nombres et des informations supplémentaires concernant l’appel lui-même.

Conclusion

Le déploiement de nouveaux modèles de langage en utilisant le service Azure OpenAI est un processus simplifié qui commence par sécuriser l’accès et créer les ressources nécessaires dans le portail Azure. Une fois les ressources configurées, la navigation dans le studio Azure AI mis à jour permet de sélectionner et de configurer des modèles comme GPT-4o, garantissant des performances et une évolutivité optimales.

Le playground interactif offre un environnement précieux pour tester et peaufiner les réponses des modèles, tandis que la sécurisation de l’accès via la section « Clés et Endpoint » est essentielle pour maintenir des interactions API sécurisées. En suivant ces étapes, les développeurs peuvent exploiter l’infrastructure robuste d’Azure pour intégrer efficacement et en toute sécurité de puissantes capacités d’IA dans leurs applications.

Rodrigo Juarez a plus de 25 ans d’expérience dans le développement de logiciels, spécialisé dans les technologies Microsoft. Sa mission est de résoudre des problèmes complexes pour ses clients, en se concentrant sur les résultats. Il y parvient en appliquant la technologie appropriée et en utilisant les meilleures pratiques pour garantir la livraison de solutions de haute qualité. Au cours des 6 dernières années, Rodrigo a perfectionné ses compétences en développement back-end et en création d’applications mobiles, en utilisant initialement Xamarin et en passant maintenant à .NET MAUI. Il est développeur mobile principal chez Trailhead Technology Partners et co-auteur, avec Jesse Liberty, du livre “.NET MAUI for C# Developers”.

Source de l’article


Share

Article précédent
Exposition du chargeur Fakebat - Méthodes de distribution et infrastructure de l'adversaire

Table Of Contents

1
Deploying A GPT-4o Model to Azure OpenAI Service
2
Conclusion

Articles similaires

Analyse de la panne du réseau Rogers
11 juillet 2024
1 min
© 2024, All Rights Reserved.

Liens Rapides

Partenariats et opportunités publicitairesContactez nous

Réseaux Sociaux