Компания OpenAI создала мультимодальную модель искусственного интеллекта GPT-4. В ней используются наработки по предварительной версии, GPT 3.5, а также реализовано несколько новых технологий. Полноценная презентация GPT-4 состоится на следующей неделе, но уже сейчас доступна предварительная информация о возможностях этой ШИ-модели.
GPT-4 предусматривает несколько способов взаимодействия с человеком – не только посредством ввода текста, но и во время голосового общения, отправки изображения, звука или видео. ИИ сможет как воспринимать информацию в этом виде, так и воспроизводить в таком же формате. Ответы ChatGPT при использовании модели GPT-4 будут еще более человечными, то есть сильнее приближенными к языку, обычно используемому людьми, общаясь друг с другом. В GPT-4 будет предусмотрена поддержка множества языков.
OpenAI также планирует выпустить мобильное приложение ChatGPT на базе нейросети GPT-4. Пока общаться с этим чат-ботом можно только в браузере, хотя существуют неофициальные приложения и телеграмм-боты, в которых используются модели GPT 3 и 3.5. Кроме того, компания Microsoft, вложившая в развитие OpenAI десять миллиардов долларов, запустит обновленную версию поисковика Bing, где будет использоваться GPT-4. Эта же ШИ-модель может найти применение в некоторых других продуктах Microsoft, в частности, в операционной системе Windows 11.