Source : RPSC
Arrangement : Tu Min
OpenAI, qui vient de lancer GPT-4 en mars de cette année, n’a invité que certains développeurs qui ont soumis des applications à participer au test. Voir Greg Brockman, le co-fondateur d’OpenAI, démontrer le modèle GPT-4 “le plus puissant” sur place à l’époque, générer facilement un site Web grâce à un croquis dessiné à la main, et peut développer un petit jeu en 60 secondes. il ne peut pas être utilisé.
Et aujourd’hui même, l’applicabilité du GPT-4 a été encore élargie. OpenAI a officiellement publié l’API GPT-4, qui est désormais entièrement ouverte à tous les développeurs d’API payants !
Au cours des quatre mois qui ont suivi sa mise en ligne, je pense que de nombreuses personnes ont analysé des articles grâce à la technologie (qui ne connaissent pas trop GPT-4.
Selon OpenAI, depuis la sortie de GPT-4 en mars de cette année, des millions de développeurs ont demandé l’accès à l’API GPT-4, et la gamme de produits innovants utilisant GPT-4 s’agrandit chaque jour.
GPT-4 diffère de son prédécesseur, GPT-3.5, par sa capacité améliorée à générer du texte, y compris du code, tout en acceptant des entrées d’image et de texte.
Le modèle performe “au niveau humain” sur divers référentiels professionnels et académiques. Auparavant, les chercheurs d’OpenAI l’ont également testé, affirmant que si GPT-4 était une personne jugée uniquement sur sa capacité à passer des tests, elle pourrait entrer dans une faculté de droit, et probablement dans de nombreuses universités également.
Comme le précédent modèle GPT d’OpenAI, GPT-4 a été formé à l’aide de données accessibles au public, y compris des données de pages Web publiques, ainsi que des données sous licence d’OpenAI. D’un point de vue technique, GPT-4 est un modèle basé sur Transformer qui peut prédire le jeton suivant dans un document après la pré-formation. Une partie centrale de ce projet était le développement de l’infrastructure et des méthodes d’optimisation. Cela permet à OpenAI de prédire avec précision certains aspects des performances de GPT-4 sur la base de modèles entraînés avec pas plus de 1/1000e du calcul de GPT-4.
Cependant, il est un peu dommage que la fonctionnalité ** de compréhension d’image ne soit pas encore disponible pour tous les utilisateurs d’OpenAI. ** Pourtant, comme OpenAI l’a annoncé en mars de cette année, il ne teste qu’avec son partenaire Be My Eyes. Jusqu’à présent, OpenAI n’a pas indiqué quand il ouvrira ses capacités de compréhension d’images à une base d’utilisateurs plus large.
Aujourd’hui, tous les développeurs d’API avec un dossier de paiement réussi peuvent ** accéder aux API GPT-4 avec des contextes 8K, bien sûr, cette fois, ils ne peuvent pas accéder aux contextes 32K. **
Dans le même temps, **OpenAI prévoit également d’ouvrir l’accès à de nouveaux développeurs à la fin de ce mois, puis de commencer à augmenter la limite de débit en fonction de la disponibilité des calculs. **
Il convient de noter que si GPT-4 représente une étape importante dans le développement de modèles d’IA génératifs, cela ne signifie pas qu’il est parfait à 100 %. En ce qui concerne le GPT-4, il est également possible d’“halluciner” et de faire quelques erreurs de raisonnement en toute confiance.
À l’avenir, OpenAI indique qu’il s’efforce également d’activer en toute sécurité le ** réglage fin ** pour GPT-4 et GPT-3.5 Turbo, qui devrait être disponible plus tard cette année.
Dans l’annonce, OpenAI a également annoncé que les API GPT-3.5 Turbo, DALL-E et Whisper seront généralement disponibles pour les développeurs.
Dans le même temps, il a également partagé l’état actuel de l’API Chat Completions largement utilisée avec les développeurs. OpenAI indique que l’API Chat Completions représente désormais 97 % de son utilisation de l’API GPT.
OpenAI note que l’API Completions d’origine a été lancée en juin 2020, fournissant une invite de texte de forme libre avec laquelle les modèles de langage peuvent interagir.
L’interface structurée de l’API Chat Completions (par exemple, les messages système, les appels de fonction) et les capacités de dialogue multi-tours permettent aux développeurs de créer des expériences conversationnelles et des tâches de complétion étendues tout en réduisant le risque d’attaques par injection d’indices, car le contenu fourni par l’utilisateur peut être extrait de la structure. séparé de la commande.
OpenAI a déclaré qu’il comblait actuellement plusieurs lacunes de l’API Chat Completions, telles que la probabilité de journalisation du jeton d’achèvement et l’augmentation de la capacité de démarrage pour réduire le “bavardage” de la réponse.
De plus, OpenAI a également publié le plan de dépréciation de l’ancien modèle. C’est-à-dire qu’à partir du 4 janvier 2024, certains anciens modèles OpenAI, en particulier GPT-3 et ses modèles dérivés, ne seront plus disponibles et seront remplacés par le nouveau modèle “GPT-3 base”, le nouveau modèle L’efficacité de calcul sera être plus élevé.
Selon l’annonce, les modèles obsolètes spécifiques incluent certains anciens modèles dans l’API Completions, y compris le célèbre davinci :
*Les applications utilisant des noms de modèles stables basés sur des modèles GPT-3 (ada, babbage, curie, davinci) seront automatiquement mises à niveau vers les nouveaux modèles mentionnés ci-dessus le 4 janvier 2024. Dans les semaines à venir, de nouveaux modèles seront également accessibles pour des tests précoces en spécifiant les noms de modèle suivants dans les appels d’API : ada-002, babbage-002, curie-002, davinci-002.
Pendant ce temps, OpenAI indique que les développeurs qui souhaitent continuer à utiliser leurs modèles affinés après le 4 janvier 2024 devront travailler sur les nouveaux modèles basés sur GPT-3 (ada-002, babbag-002, curie-002, davinci- 002 ) ou des modèles mis à jour (gpt-3.5-turbo, gpt-4) pour un remplacement affiné.
Alors qu’OpenAI activera le réglage fin plus tard cette année, ils donneront la priorité au réglage fin de GPT-3.5 Turbo et GPT-4 pour les utilisateurs qui ont déjà affiné les anciens modèles. La raison spécifique est qu’OpenAI comprend qu’il est difficile de migrer à partir d’un modèle qui a été affiné sur ses propres données, et ils fourniront une assistance aux “utilisateurs de modèles précédemment affinés pour rendre cette transition aussi fluide que possible”.
En plus de retirer certains anciens modèles d’API Completions, OpenAI a déclaré que les utilisateurs d’anciens modèles d’intégration tels que text-search-davinci-doc-001 devront également migrer vers text-embedding-ada-002 d’ici le 4 janvier 2024.
Enfin, les utilisateurs utilisant l’API Edits et ses modèles associés (tels que text-davinci-edit-001 ou code-davinci-edit-001) devront également migrer vers GPT-3.5 Turbo d’ici le 4 janvier 2024. La version bêta de l’API Edits est une API exploratoire précoce conçue pour permettre aux développeurs de renvoyer des versions modifiées de leurs invites sur commande.
OpenAI a écrit dans l’annonce : “Nous reconnaissons qu’il s’agit d’un changement important pour les développeurs utilisant ces anciens modèles. L’abandon de ces modèles n’est pas une décision que nous prenons à la légère. Nous supporterons le fardeau des utilisateurs qui réintégreront le contenu avec ces nouveaux modèles.” Les coûts financiers."
OpenAI a déclaré qu’il contactera les utilisateurs concernés dans les semaines à venir et qu’ils fourniront plus d’informations une fois que le nouveau modèle sera prêt pour les premiers tests.
La chose la plus attendue est que les responsables d’OpenAI ont également annoncé sur Twitter que l’interpréteur de code sera ouvert à tous les utilisateurs de ChatGPT Plus la semaine prochaine.
Il permet à ChatGPT d’exécuter du code et d’accéder éventuellement aux fichiers téléchargés par l’utilisateur. Les développeurs peuvent directement demander à ChatGPT d’analyser des données, de créer des graphiques, de modifier des fichiers, d’effectuer des opérations mathématiques, etc.
Je me demande si tout le monde l’attend avec impatience ?
Enfin, avec la sortie de l’API GPT-4 cette fois, les développeurs n’ont plus à se soucier d’acheter des services Plus. Appeler l’API GPT-4 la plus puissante de l’industrie à ce jour rendra sans aucun doute les applications associées plus intelligentes.
Alors, que pouvons-nous faire avec l’API GPT-4, et les médias étrangers ont résumé 10 utilisations courantes :
référence: