Google представила совершенствование своих поисковых функций с запуском Live Search в режиме искусственного интеллекта, что является частью инициативы Project Astra. Новая функция расширяет возможности Google Lens, предоставляя пользователям возможность вести интерактивные беседы в режиме реального времени с использованием поиска, мощно поддерживаемого мультимодальными возможностями Gemini.
С этой функцией пользователи могут делиться потоком с камеры своего телефона, чтобы получать мгновенные ответы, ссылки для более глубоких исследований, переводы и контекстную информацию. Например, открыв приложение Google на Android или iOS, пользователи могут нажать значок Live под строкой поиска, направить камеру на такие объекты, как принадлежности для матча, и задать вопросы об их использовании или истории.
Интерактивные функции и доступность
В отличие от традиционной методики, где требуется сделать снимок и дождаться результата, новая функция Live Search позволяет вести диалоги в режиме реального времени. Это существенно меняет способ взаимодействия пользователей с их окружением через поиск. Она обогащает возможности Google Lens, добавляя динамическое взаимодействие пользователя с предметами в поле зрения камеры.
По словам компании, Live Search доступна для всех пользователей Android и iOS в США с 24 сентября. Пользователи могут получить доступ к этой функции непосредственно из приложения Google, что делает ее более интегрированной и легкодоступной частью цифрового опыта.
Эти нововведения направлены на то, чтобы сделать Information retrieval более дружелюбной и эффективной, создавая для пользователей инновационные способы получать нужную информацию в скорости и детализации, которая может быть необходима.



