Как учёные научили ИИ понимать жесты

Как учёные научили ИИ понимать жесты

👎 В чём дело: пока технологии недостаточно крутые, чтобы достоверно определять человеческие жесты. Есть технологии узнавания по картинкам, но нужна чёткая картинка. Есть технологии на основе датчиков изгиба, но они не слишком точные.

😳 Что: учёные придумали гибридную модель распознавания жестов. Она одновременно смотрит и на картинку, и на данные с датчиков изгиба — и обучается как бы сразу с двух сторон. Такого ещё не делали.

🤔 Как работает: говорят, что работает как человеческий мозг — именно так он обрабатывает мультисенсорную информацию. Это вдохновило учёных использовать визуальный и сенсорный поток данных одновременно, в итоге модель обучилась точнее.

👥 Кто: команды учёных из Наньянского технологического университета и Технологического университета Сиднея.

👉 Почитать

Источник: Tech Xplore

Получите ИТ-профессию
В «Яндекс Практикуме» можно стать разработчиком, тестировщиком, аналитиком и менеджером цифровых продуктов. Первая часть обучения всегда бесплатная, чтобы попробовать и найти то, что вам по душе. Дальше — программы трудоустройства.
А вы читали это?
[Глядите] GRID Compass — ноутбук НАСА, который летал в космос

Первый портативный компьютер, между прочим.

«Браслет тишины» запретит смарт-устройствам подслушивать

Так им!

3D-маска запросто обманула системы распознавания лиц

Большой брат не так силен, как кажется.

[Почитайте] что такое «мышление правого клика»

И при чём тут NFT.

Полицейские алгоритмы оказались дюже предвзятыми

Во всём виноваты «грязные» данные.

[Почитайте] как НАСА разрабатывали автономный космический вертолет

Linux на Марсе.

Посмотрите на этих роботов (часть 1)

Они подают напитки, занимаются йогой, выступают, перетаскивают вещи и делают другие забавные штуки.

Компьютер нарисует мысли человека

Уметь рисовать уже не надо.

Wear OS от Google напоминает мыть руки не меньше 40 секунд

Теперь тебе орут не только «лицо не трогай».

[anycomment]
Exit mobile version