Научились отличать живой голос от записи

😢 Про­бле­ма: к любо­му устрой­ству, кото­рое реа­ги­ру­ет на голос, мож­но полу­чить доступ, если дать ему послу­шать запись голо­са вла­дель­ца. Под­ме­на голо­со­во­го вво­да счи­та­ет­ся одной из самых про­стых: про­сто запи­сы­ва­ешь голос в одной ситу­а­ции, а вос­про­из­во­дишь в дру­гой. И такую ата­ку очень слож­но обна­ру­жить, пото­му что харак­те­ри­сти­ки запи­си сов­па­да­ют с живым голо­сом жерт­вы.

😎 Реше­ние: Void — систе­ма обна­ру­же­ния живо­го голо­са. Он ори­ен­ти­ру­ет­ся на спек­тро­грам­мы — визу­а­ли­за­ции спек­тра частот для обна­ру­же­ния «живо­сти» голо­са, в отли­чие от дру­гих подоб­ных при­ло­же­ний, кото­рые исполь­зу­ют машин­ное обу­че­ние. С таким под­хо­дом Void обна­ру­жи­ва­ет ата­ки в восемь раз быст­рее, чем ней­рон­ки.

👨‍🔬 Кто: Data61 CSIRO вме­сте с Samsung Research и уни­вер­си­те­том Сунг­кьюн­кван, Южная Корея.

Источ­ник: ZDNet