Google работает над новой технологией для устройств, способных читать язык человеческого тела

Компания Google поделилась подробностями своей радарной технологии Soli для невербального взаимодействия между людьми и компьютерами. Например, невербальным взаимодействием может быть взаимодействие с устройством путем взмаха рукой или поворота головы. Технология, которую компания все еще разрабатывает, объединяет датчики движения с алгоритмами.

Google объясняет, как работают датчики и алгоритмы, в недавнем видео и описывает будущие варианты использования. Компания предполагает, что преимущества этой технологии заключаются в уменьшении нагрузки на устройство и в том, чтобы сделать гаджеты более полезными и менее навязчивыми.

Такие жесты, как «подойти и уйти», используют алгоритмы глубокого обучения, чтобы определить, находится ли кто-то в «личном пространстве» устройства. Согласно Google, перекрытие личного пространства является хорошим индикатором того, будут ли люди взаимодействовать или просто проходить мимо.

Такие действия, как «отвернуться/направиться» и «взгляд», распознаются алгоритмами машинного обучения, которые могут понимать более тонкий язык тела. Например, эта технология может определить, в какую сторону повернута ваша голова, что позволяет предсказать, насколько вероятно, что вы будете вовлечены.

Радарный датчик Soli был запущен в 2015 году и использовался во многих устройствах Google. Google использовал его в Pixel 4 для Motion Sense для обнаружения жестов рук, позволяя пользователям выполнять такие действия, как приостановка музыки или будильники, без необходимости прикосновения к своим телефонам. Датчики также использовались в функции определения сна, доступной на интеллектуальном дисплее Nest Hub второго поколения – инструмент помогает отслеживать качество сна, определяя характер дыхания и движения.

Добавлено: 3-03-2022, 16:11
0
196

Похожие публикации


Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Наверх