Официально анонсирована последняя языковая модель OpenAI: GPT-4, но что она может делать такого, чего не могли ее предшественники? Вот некоторые из самых значимых функций, которые мы смогли обнаружить.
В прошлый вторник OpenAI анонсировала GPT-4: языковую модель AI следующего поколения. Хотя компания предупредила, что различия между GPT-4 и его предшественником не сильно заметны в обычном разговоре/чате, система приобрела множество интересных возможностей.
- Она может обрабатывать изображения вместе с текстом;
- А также стала лучше справляться с творческими задачами и решением проблем.
Модели AI в целом чрезвычайно сложны и многофункциональны. Проверка скрытых возможностей является той еще задачей. Например, когда GPT-4 сообщает вам, что он создал новое химическое соединение, вы не узнаете, правда ли это, пока не спросите настоящих химиков.
OpenAI в своем техническом отчете заявляет: по-прежнему самым большим ограничением AI является тот факт, что он выдумывает информацию и будет часто выдавать предположение за единственно верное утверждение.
Несмотря на ошибки, GPT-4 определенно интересен с технической точки зрения и уже интегрируется в массовые продукты. Остановимся на нескольких функциональных обновлениях.
Обработка изображений вместе с текстом
Система является мультимодальной, то есть она может анализировать как изображения, так и текст, тогда как GPT-3.5 может обрабатывать только текст.
Это означает, что GPT-4 может анализировать содержимое изображения и связывать эту информацию с письменным вопросом.
Однако не сгенерирует само изображение, в отличии от DALL-E, Midjourney или Stable Diffusion.
Как это работает:
1. The New York Times провела тестирование данной функции. GPT-4 показывают содержимое холодильника и спрашивают, какие блюда можно приготовить из ингредиентов. Основываясь на изображении, AI предлагает несколько примеров.
Однако стоит отметить, в одном из рецептов присутствует ингредиент, которого, кажется, там нет: лепешки.
2. В промо ролике OpenAI показала, как GPT-4 может создать код для веб-сайта на основе нарисованного от руки эскиза.
3. Компания работает со стартапом Be My Eyes, который использует распознавание объектов, чтобы помочь людям с проблемами зрения.
Более продвинутые речевые обороты
OpenAI утверждает, что GPT-4 лучше справляется с задачами, требующими творчества или продвинутого мышления. Это предположение кажется правильным, основываясь на некоторых тестах, которые мы видели. Однако не станем говорить об этом, как о прорыве.
Во время демонстрации соучредитель OpenAI Грег Брокман попросил пересказать часть ранее сформированного сообщения, используя только слова, начинающиеся с «g».
AI может обрабатывать больше текста
Стоит отметить, что GPT не имеет счетчика символов или слов как такового, но измеряет ввод и вывод в единицах — «токенах». Процесс токенизации довольно сложен, но приблизительно:
- Токен равен четырем символам;
- 75 слов обычно занимают около 100 токенов.
- Максимальное количество токенов в запросе к GPT-3.5-turbo — 4000 токенов или 3000 слов.
- GPT-4 может обрабатывать — 32 000 токенов или 25 000 слов.
Вместе с тем компания заявляет, что все еще оптимизирует систему для более массивного контента.
Вы можете сдавать тесты с помощью GPT
Кроме этого……..
- Bing все это время работал на GPT-4. После анонса OpenAI Microsoft подтвердил, что модель, которая используется в чате в Bing, на самом деле является GPT-4.
- Сервис для изучения иностранных языков Duolingo добавил функции платной подписки: Explain My Answer («Объясни мой ответ») и Roleplay («Ролевая игра»).
- Академия Кана внедряет AI в учебный процесс: сможет помочь учащимся с написанием курсовой или поделится с учителями идеями для уроков.
- Платежный процессор Stripe будет использовать систему для ответов на вопросы по технической документации.
- Intercom объявила, что обновляет своего бота службы поддержки.