Как учёные научили ИИ понимать жесты

👎 В чём дело: пока тех­но­ло­гии недо­ста­точ­но кру­тые, что­бы досто­вер­но опре­де­лять чело­ве­че­ские жесты. Есть тех­но­ло­гии узна­ва­ния по кар­тин­кам, но нуж­на чёт­кая кар­тин­ка. Есть тех­но­ло­гии на осно­ве дат­чи­ков изги­ба, но они не слиш­ком точ­ные.

😳 Что: учё­ные при­ду­ма­ли гибрид­ную модель рас­по­зна­ва­ния жестов. Она одно­вре­мен­но смот­рит и на кар­тин­ку, и на дан­ные с дат­чи­ков изги­ба — и обу­ча­ет­ся как бы сра­зу с двух сто­рон. Тако­го ещё не дела­ли.

🤔 Как рабо­та­ет: гово­рят, что рабо­та­ет как чело­ве­че­ский мозг — имен­но так он обра­ба­ты­ва­ет муль­ти­сен­сор­ную инфор­ма­цию. Это вдох­но­ви­ло учё­ных исполь­зо­вать визу­аль­ный и сен­сор­ный поток дан­ных одно­вре­мен­но, в ито­ге модель обу­чи­лась точ­нее.

👥 Кто: коман­ды учё­ных из Наньян­ско­го тех­но­ло­ги­че­ско­го уни­вер­си­те­та и Тех­но­ло­ги­че­ско­го уни­вер­си­те­та Сид­нея.

👉 Почи­тать

Источ­ник: Tech Xplore