Американская компания OpenAI представила новое поколение алгоритма по обработке естественного языка – мультимодальную модель GPT-4 (Generative Pre-trained Transformer 4). Об этом пишет ТАСС. Новая нейросеть ушла вперед по сравнению с GPT-3.5: она может давать ответы на изображения, а сами ответы более достоверны, утверждают создатели. Эта новая версия креативней своей предшественницы и даже превосходит её по
Американская компания OpenAI представила новое поколение алгоритма по обработке естественного языка – мультимодальную модель GPT-4 (Generative Pre-trained Transformer 4). Об этом пишет ТАСС.
Новая нейросеть ушла вперед по сравнению с GPT-3.5: она может давать ответы на изображения, а сами ответы более достоверны, утверждают создатели. Эта новая версия креативней своей предшественницы и даже превосходит её по достоверности на 40 %.
Она может принимать вводные в виде текста и картинок, а не только текста, как было ранее, а выходные данные пользователь получает по-прежнему в текстовом формате.
— В различных обстоятельствах – включая документы с текстом и изображениями, диаграммы или скриншоты – GPT-4 демонстрирует те же возможности, что и при работе с только текстовыми данными, – отмечает OpenAI.
К слову, загрузка изображений пока предварительно тестируется – эта возможность ещё недоступна для пользователей.
Ещё одним отличием от предыдущего поколения являются новые меры предосторожности в части запрещенного контента – склонность нейросети к ответам на вопросы подобного характера снижена на 82 %.
При этом на 29 % увеличилась частота допустимых, в соответствии с политикой компании, ответов на чувствительные вопросы, к примеру на просьбы дать медицинский совет. Хотя риск получить на запрос «вредный» совет сохраняется. Как заявляет сама компания-разработчик, она потратила шесть месяцев на отладку GPT-4. Тем не менее нейросеть всё ещё может допускать ошибки или давать «вредные советы» – её новые возможности несут новые риски. OpenAI привлекла более 50 специалистов из разных областей, чьи советы легли в основу мер по смягчению последствий таких рисков. Так, GPT-4 теперь способна чаще и лучше отклонять запросы о синтезировании опасных химикатов.
Сейчас опробовать новую модель могут лишь подписчики ChatGPT Plus. Но в будущем компания-разработчик не исключает, что введет новый уровень подписки для более массового использования GPT-4, а может и вообще откроет доступ без подписки. Все будет зависеть от итогов наблюдений за трафиком.
Источник новости: Amur.Info