Джерело: CSDN
Аранжування: вт хв
OpenAI, який щойно запустив GPT-4 у березні цього року, запросив до участі в тесті лише деяких розробників, які подали заявки. Бачити, як Грег Брокман, співзасновник OpenAI, демонструє «найпотужнішу» модель GPT-4 на місці, легко створює веб-сайт за допомогою намальованого від руки ескізу та може розробити невелику гру за 60 секунд. Але його не можна використовувати.
І лише сьогодні сферу застосування GPT-4 було ще більше розширено. OpenAI офіційно випустив GPT-4 API, який тепер повністю відкритий для всіх платних розробників API!
Я вважаю, що за чотири місяці, що минули з моменту виходу в Інтернет, багато людей проаналізували документи за допомогою технології (не дуже знайомі з GPT-4.
За даними OpenAI, з моменту випуску GPT-4 у березні цього року мільйони розробників запитували доступ до API GPT-4, і діапазон інноваційних продуктів, які використовують GPT-4, зростає щодня.
GPT-4 відрізняється від свого попередника, GPT-3.5, розширеною здатністю генерувати текст, включаючи код, а також приймати зображення та текст.
Модель працює на «людському рівні» на різних професійних і академічних рівнях. Раніше дослідники OpenAI також тестували це, кажучи, що якби GPT-4 був людиною, оцінюваною лише за здатністю складати тести, він міг би потрапити до юридичної школи, а ймовірно, до багатьох університетів.
Як і попередня модель GPT OpenAI, GPT-4 було навчено з використанням загальнодоступних даних, включаючи дані з загальнодоступних веб-сторінок, а також дані, ліцензовані OpenAI. З технічної точки зору GPT-4 — це модель на основі Transformer, яка може передбачити наступний токен у документі після попереднього навчання. Центральною частиною цього проекту була розробка інфраструктури та методів оптимізації. Це дозволяє OpenAI точно передбачати певні аспекти продуктивності GPT-4 на основі моделей, навчених не більше ніж на 1/1000 обчислення GPT-4.
Проте трохи шкода, що **можливість розуміння зображень ще не доступна для всіх користувачів OpenAI. ** Проте, як оголосив OpenAI у березні цього року, він тестує лише свого партнера Be My Eyes. Наразі OpenAI не вказав, коли він відкриє свої можливості розуміння зображень для ширшої бази користувачів.
Сьогодні всі розробники API з успішною платіжною записом можуть** отримати доступ до GPT-4 API з контекстами 8K, звичайно, цього разу вони не можуть отримати доступ до контекстів 32K. **
При цьому **OpenAI також планує відкрити доступ для нових розробників наприкінці цього місяця, а потім почати збільшувати ліміт швидкості відповідно до наявності розрахунків. **
Варто зазначити, що хоча GPT-4 є важливою віхою в розробці генеративних моделей ШІ, це не означає, що він на 100% ідеальний. Що стосується GPT-4, то тут також можна впевнено «галюцинувати» та робити деякі помилки в міркуванні.
У майбутньому OpenAI також працює над безпечним увімкненням тонкого налаштування для GPT-4 та GPT-3.5 Turbo, які, як очікується, будуть доступні пізніше цього року.
У повідомленні OpenAI також оголосив, що GPT-3.5 Turbo, DALL-E і Whisper API будуть загальнодоступними для розробників.
У той же час він також поділився з розробниками поточним статусом широко використовуваного API завершення чату. За словами OpenAI, на API завершення чату тепер припадає 97% використання API GPT.
OpenAI зазначає, що оригінальний Completions API був запущений у червні 2020 року, надаючи текстові підказки у вільній формі для взаємодії мовних моделей.
Структурований інтерфейс Chat Completions API (наприклад, системні повідомлення, виклики функцій) і багатоповоротні діалогові можливості дозволяють розробникам створювати розмовний досвід і розширені завдання завершення, одночасно знижуючи ризик атак із впровадженням підказок, оскільки вміст, наданий користувачем, можна витягти зі структури. окремо від команди.
OpenAI заявив, що наразі він компенсує кілька недоліків Chat Completions API, таких як ймовірність журналу завершення маркера та збільшення можливості завантаження, щоб зменшити «балакучість» відповіді.
Крім того, OpenAI також випустив план застарілої версії старої моделі. Тобто, починаючи з 4 січня 2024 року, деякі старі моделі OpenAI, особливо GPT-3 та похідні моделі, більше не будуть доступні та будуть замінені новою моделлю «GPT-3 base», новою моделлю Ефективність обчислень буде бути вище.
Згідно з оголошенням, конкретні застарілі моделі включають деякі старі моделі в Completions API, включаючи знайомий davinci:
*Програми, які використовують стабільні назви моделей на основі моделей GPT-3 (ada, Babbage, curie, davinci), будуть автоматично оновлені до нових моделей, згаданих вище 4 січня 2024 року. У найближчі тижні нові моделі також будуть доступні для раннього тестування, вказавши такі назви моделей у викликах API: ada-002, babbage-002, curie-002, davinci-002.
Тим часом OpenAI каже, що розробникам, які бажають продовжувати використовувати свої вдосконалені моделі після 4 січня 2024 року, потрібно буде працювати над новими моделями на основі GPT-3 (ada-002, babbag-002, curie-002, davinci-002). ) або оновлені моделі (gpt-3.5-turbo, gpt-4) для точної заміни.
Оскільки OpenAI увімкне точне налаштування пізніше цього року, вони віддадуть пріоритет тонкому налаштуванню GPT-3.5 Turbo та GPT-4 для користувачів, які раніше налаштовували старіші моделі. Конкретна причина полягає в тому, що OpenAI розуміє, що міграція з моделі, яка була точно налаштована на власних даних, є складною, і вони нададуть підтримку «користувачам попередньо налаштованих моделей, щоб зробити цей перехід якомога плавнішим».
На додаток до припинення використання деяких старих моделей Completions API, OpenAI заявив, що користувачам старих моделей вбудовування, таких як text-search-davinci-doc-001, також потрібно буде перейти на text-embedding-ada-002 до 4 січня 2024 року.
Нарешті, користувачам, які використовують Edits API та пов’язані з ним моделі (такі як text-davinci-edit-001 або code-davinci-edit-001), також потрібно буде перейти на GPT-3.5 Turbo до 4 січня 2024 року. Бета-версія Edits API — це ранній дослідницький API, розроблений, щоб дозволити розробникам повертати відредаговані версії своїх підказок за командою.
OpenAI написав в оголошенні: «Ми усвідомлюємо, що це суттєва зміна для розробників, які використовують ці старі моделі. Припинення використання цих моделей — це рішення, яке ми приймаємо легковажно. Ми будемо нести тягар користувачів, які повторно вставлятимуть вміст за допомогою цих нових моделей». Фінансові витрати».
OpenAI повідомила, що зв’яжеться з постраждалими користувачами в найближчі тижні, і вони нададуть більше інформації, коли нова модель буде готова до раннього тестування.
Найочікуванішим є те, що представники OpenAI також оголосили в Twitter, що наступного тижня інтерпретатор коду буде відкритий для всіх користувачів ChatGPT Plus.
Це дозволяє ChatGPT запускати код і додатково отримувати доступ до завантажених користувачами файлів. Розробники можуть безпосередньо просити ChatGPT аналізувати дані, створювати графіки, редагувати файли, виконувати математичні операції тощо.
Цікаво, чи всі цього чекають?
Нарешті, з випуском GPT-4 API цього разу розробникам більше не доведеться турбуватися про придбання служб Plus.Виклик найпотужнішого GPT-4 API на сьогоднішній день, безсумнівно, зробить пов’язані програми більш інтелектуальними.
Отже, що ми можемо зробити з API GPT-4, а іноземні ЗМІ узагальнили 10 поширених способів використання:
посилання: