Best Paper Award 2018

Erstellt von Lara Kris­tin Zei­tel | |   Aktuelle Meldungen

Alex­an­dru Nelus und Rai­ner Mar­tin vom In­sti­tut für Kom­mu­ni­ka­ti­ons­a­kus­tik wur­den im Rah­men der 13. ITG Fach­ta­gung Sprach­kom­mu­ni­ka­ti­on in Ol­den­burg vom 10.-12. Ok­to­ber 2018 mit dem "Best Stu­dent Paper Award" für den Ar­ti­kel "Gen­der Dis­cri­mi­na­ti­on Ver­sus Spea­ker Iden­ti­fi­ca­ti­on Through Pri­va­cy-Awa­re Ad­ver­sa­ri­al Fea­ture Extrac­tion" aus­ge­zeich­net.

Ihre Ar­beit be­schreibt ein Ver­fah­ren zur Ge­win­nung von Au­dio­merk­ma­len mit Hilfe neu­ro­na­ler Netze, wel­ches durch ein "ad­ver­sa­ri­al trai­ning" un­er­wünsch­te In­for­ma­tio­nen mi­ni­miert. In einem Bei­spiel zei­gen sie, dass kon­ven­tio­nel­le Au­dio­merk­ma­le für die Er­ken­nung des Ge­schlechts des Spre­chers auch einen si­gni­fi­kan­ten An­teil zu­sätz­li­cher spre­cher­ab­hän­gi­ger In­for­ma­tio­nen ent­hal­ten. Ein An­grei­fer, der diese Merk­ma­le bei der Über­tra­gung in einem Netz­werk ab­ge­fan­gen hat, kann sie bei­spiels­wei­se auch zur Fest­stel­lung der Spre­cher­iden­ti­tät nut­zen und somit wei­ter in die Pri­vat­sphä­re eines Spre­chers ein­drin­gen. Durch Op­ti­mie­rung des Merk­mal­s­ex­trak­tors für die Ge­schlechts­er­ken­nung bei gleich­zei­ti­ger Mi­ni­mie­rung der für die Spre­cher­iden­ti­tät maß­geb­li­chen In­for­ma­tio­nen, kann die Leis­tungs­fä­hig­keit der Spre­cher­iden­ti­fi­ka­ti­on si­gni­fi­kant ver­schlech­tert wer­den, so dass die in­hä­ren­ten Da­ten­schutz­ri­si­ken durch das vor­ge­schla­ge­ne Ver­fah­ren deut­lich ver­min­dert wer­den.


Alex­an­dru Nelus and Rai­ner Mar­tin both from the In­sti­tu­te of Com­mu­ni­ca­ti­on Acoustics have been awar­ded the Best Stu­dent Paper Award for their paper "Gen­der Dis­cri­mi­na­ti­on Ver­sus Spea­ker Iden­ti­fi­ca­ti­on Through Pri­va­cy-Awa­re Ad­ver­sa­ri­al Fea­ture Extrac­tion" at the 13. ITG Fach­ta­gung Sprach­kom­mu­ni­ka­ti­on in Ol­den­burg on 10.-12. Ok­to­ber 2018.

Their work tack­les the pri­va­cy risks en­coun­te­red when extrac­ting audio fea­tures using neu­ral net­works and pro­po­ses to al­le­via­te them by em­ploy­ing ad­ver­sa­ri­al trai­ning of such net­works. In their ex­amp­le it is shown that con­ven­tio­nal audio fea­tures extrac­ted for the pur­po­se of gen­der clas­si­fi­ca­ti­on also carry a si­gni­fi­cant amount of spea­ker-de­pen­dent data, al­lowing a third party at­ta­cker who has in­ter­cep­ted the fea­tures to use them for a more pri­va­cy in­va­si­ve task such as spea­ker iden­ti­fi­ca­ti­on. By trai­ning the fea­ture extrac­tor in an ad­ver­sa­ri­al fa­shion the un­wan­ted spea­ker iden­ti­fi­ca­ti­on per­for­mance is si­gni­fi­cant­ly re­du­ced, thus re­du­cing the in­herent pri­va­cy risks.