14 березня OpenAI випустила оновлену модель штучного інтелекту — GPT-4.
Про це повідомляють на сайті компанії.
“Ми створили GPT-4, останню віху в зусиллях OpenAI по масштабуванню глибокого навчання. GPT-4 — це велика мультимодальна модель (приймає вхідні дані у вигляді зображень і тексту, видає вихідні дані у вигляді тексту), яка, хоча і поступається людині в багатьох реальних сценаріях, демонструє продуктивність на рівні людини в різних професійних і академічних тестах”, — йдеться у повідомленні.
Перша головна відмінність
Тобто перша головна відмінність полягає у тому, що GPT-4 є мультимодальним і може сприймати зображення як вхідні дані. Відтепер чат-бот не просто читає текст, а й аналізує зображення.
Функція розпізнавання зображень поки що доступна не всім клієнтам OpenAI — для початку OpenAI тестує її з одним партнером, компанією Be My Eyes, пише TechCrunch. Нова функція віртуального асистента Be My Eyes, що працює на базі GPT-4, може відповідати на запитання про надіслані їй зображення. Компанія пояснює, як це працює, у своєму блозі.
“Наприклад, якщо користувач надішле фото телевізора, віртуальний асистент зможе не лише правильно визначити, яка в нього модель, а й екстраполювати та проаналізувати, що можна зробити з цим девайсом. Інструмент також може запропонувати кілька варіантів каналаі для для вашої геолокації”.
Другий важливий апгрейд
Другий важливий апгрейд — модель може позмагатись з людьми в складанні професійних і академічних тестів. Наприклад, GPT-4 здає симуляцію адвокатського іспиту з оцінкою, яка наближається до 10% найкращих учасників іспиту (тоді як результат GPT-3.5 був близько 10% найгірших).
Третя відмінність
Третє – це можливість працювати з величезними текстами. GPT-4 може обробляти понад 25 тисяч слів тексту, що дає змогу використовувати його для створення довгих текстів, розгорнутих розмов, а також для пошуку та аналізу документів.
Згідно з заявою компанії, OpenAI витратила шість місяців на “ітеративне вирівнювання” GPT-4, використовуючи уроки з внутрішньої програми змагального тестування, а також купить ChatGPT, в результаті чого отримала “найкращі в історії результати” щодо фактичності, керованості та відмови виходити за межі обмежень. Як і попередні моделі GPT, GPT-4 навчався з використанням загальнодоступних даних, зокрема з публічних вебсторінок, а також даних, ліцензованих OpenAI.
“У звичайній розмові різниця між GPT-3.5 і GPT-4 може бути непомітною, — написали в OpenAI в блозі, анонсуючи GPT-4. “Різниця проявляється, коли складність завдання досягає достатнього порогу — GPT-4 більш надійний, креативний і здатний обробляти набагато більше нюансованих інструкцій, ніж GPT-3.5”.
Але навіть з системними повідомленнями та іншими оновленнями, OpenAI визнає, що GPT-4 далека від досконалості. Він все ще “галюцинує” фактами й робить помилки в міркуваннях, іноді з великою впевненістю. В одному з прикладів, наведених OpenAI, GPT-4 назвав Елвіса Преслі “сином актора”, що є очевидно хибним твердженням. GPT-4, як і попередня модель, не має знань про події після вересня 2021 року. Також в компанії додають, що ШІ не вчиться на власному досвіді.
Проте за даними розробників, GPT-4 показав на 40% вищі результати, ніж GPT-3,5 за результатами тестів оцінки фактології. Компанія стверджує, що GPT-4 на 82% рідше відповідає на запити щодо “забороненого” контенту порівняно з GPT-3.5. Та на 29% частіше відповідає на делікатні запити — наприклад, медичні поради.
OpenAI вже відкрила список очікування на отримання API GPT-4. Також модель зможуть протестувати користувачі платної преміумверсії чат-бота компанії ChatGPT Plus, але з обмеженою кількістю запитів. Розробники кажуть, що нова модель ШІ вже інтегрована в низку проєктів поза межами компанії.
Читайте також: Samsung інвестує 230 мільярдів доларів у найбільшу базу з виробництва мікросхем в Південній Кореї.