Функция Live Video в ChatGPT готовится к более широкому бета-развертыванию
С расширенным голосовым режимом OpenAI добавила немного дружелюбия к ChatGPT, позволяя пользователям вести естественные беседы с ИИ-помощником.
Однако также была обещана возможность зрения, которую OpenAI продемонстрировала во время анонса GPT-4o в мае 2024 года. Похоже, что OpenAI работала над этой функцией, и она готова выйти из фазы альфа.
Согласно нескольким строкам кодов, возможности функции Live Vision в ChatGPT в расширенном голосовом режиме могут готовиться к более широкому бета-развёртыванию. Строки были замечены в последней бета-сборке ChatGPT v1.2024.317.
Во время анонса GPT-4o OpenAI продемонстрировала расширенный голосовой режим с возможностями зрения. В демонстрации ChatGPT без проблем распознал объект в камере, запомнил его имя, распознал мяч и связал его с собакой.
Демонстрация была весьма впечатляющей, учитывая, что у ИИ-помощника было мало информации, которую пользователь должен был ввести, чтобы получить ответы.
Некоторые счастливчики-тестировщики альфа-версии также имели возможность протестировать функцию ChatGPT Live Video (Vision) и предположили, что функция работала безупречно и была очень полезной.
Теперь, согласно строкам, обнаруженным в последней бета-версии ChatGPT, эта функция может называться «Live Camera», когда она будет доступна пользователям бета-версии.
Есть некоторые строки, как пишет портал Android Authority, которые предупреждают пользователей не использовать функцию ChatGPT «Live Camera» для навигации в реальном времени или решений, которые могут повлиять на их здоровье или безопасность.
Интересно, что коды были обнаружены в бета-версии ChatGPT, а это намекает на то, что функция вскоре будет готова к более широкому развёртыванию, возможно, для ChatGPT Plus и платных подписчиков помощника на основе искусственного интеллекта.
Новости партнеров
Похожие публикации
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.