TehnoȘtiri

VOCILE GENERATE CU AJUTORUL TEHNOLOGIEI DEEPFAKE AI

(c) RossHelen/Shutterstock

Un software-ul disponibil gratuit, care poate imita vocea unui anumit individ, produce rezultate care pot păcăli oamenii și asistenții vocali inteligenți.

Cercetătorii din domeniul securității sunt din ce în ce mai preocupați de software-urile de tip deepfake, care folosesc inteligența artificială pentru a modifica videoclipuri sau fotografii, de exemplu prin maparea feței unei persoane pe o alta.

Emily Wenger și colegii acesteia din cadrul Universității din Chicago au dorit să investigheze versiunile audio ale acestor instrumente, care generează o voce realistă pe baza vocii unei persoane reale. În anul 2019, o astfel de tehnologie a fost folosită pentru a fura 220.000 euro dintr-o companie germană, care avea sediul în Marea Britanie.

În prezent, comenzile vocale sunt utilizate pentru a controla asistenții digitali, precum Alexa Amazon, dar și unele sisteme de telefonie automate administrate de companii, precum băncile. „Am vrut să analizăm cât de practice pot fi aceste atacuri”, a declarat Wenger.

Ea și colegii acesteia au folosit două sisteme de sinteză vocală deepfake, descărcate de pe portalul GitHub, pentru a imita voci reale. Unul dintre sisteme, denumit AutoVC, necesită până la 5 minute de vorbire pentru a genera o imitație acceptabilă a vocii țintă. Totuși, cel de-al doilea, denumit SV2TTS, necesită doar 5 secunde de vorbire.

Cercetătorii au folosit software-ul pentru a încerca să deblocheze sistemele de securitate de recunoaștere a vocii utilizate de Microsoft Azure, WeChat și Alexa. Sistemul de recunoaștere a vocii Microsoft Azure este certificat de mai multe organisme formale din industrie, WeChat permite utilizatorilor să se conecteze prin intermediul comenzilor vocale, iar Alexa le permite oamenilor să-și folosească vocea pentru a efectua plăți în aplicații terțe, precum Uber.

AutoVC a reușit să păcălească Microsoft Azure în 15% din cazuri, în timp ce SV2TTS  avut o eficacitate de 30%. Cu toate acestea, Azure cere utilizatorilor să rostească fraze de securitate pentru a se autentifica. Echipa a constatat faptul că SV2TTS ar putea falsifica cu succes cel puțin una din 10 dintre aceste fraze obișnuite, în cazul a 62,5% dintre persoanele analizate, sugerându-se faptul că un atacator ar avea un șansa de a sparge aceste tipuri de conturi.

Având în vedere performanțele sale mai reduse, echipa nu a încercat să utilizeze software-ul AutoVC împotriva WeChat și Amazon Alexa. Totuși, sistemul SV2TTS a reușit să păcălească cu succes ambele sisteme în 63% din cazuri.

Rezultatele au variat, dar software-urile de tip deepfake au avut un succes mai mare în falsificarea vocilor femeilor și a persoanelor care nu vorbesc limba engleză. „Pentru moment, nu am reușit să ne dăm seama de ce are loc acest lucru”, a declarat Wenger.

Reprezentanții companiilor Microsoft și WeChat au refuzat să comenteze aceste acuzații. Totuși, un purtător de cuvânt al companiei Amazon a declarat: „Alexa dispune de mai multe sisteme de confidențialitate și securitate concepute pentru a păstra informațiile clienților în siguranță”.

Vocile create cu ajutorul software-urilor de tip deepfake nu au avut succes doar împotriva sistemelor informatice. Într-un experiment separat, echipa de cercetare a cerut unui grup de 200 de persoane să identifice dacă vocile auzite erau false sau reale. Sistemul a reușit să păcălească aproximativ 50% dintre participanți.

„Aceste sisteme au fost deja utilizate pentru a compromite atât oamenii, cât și țintele biometrice. Această cercetare consolidează viabilitatea tehnologiei, care se află într-un stadiu incipient de dezvoltare. Realismul și accesibilitatea vocilor artificiale vor continua să se îmbunătățească. Acest lucru va aduce cu sine implicații profunde în ceea ce privește securitatea cibernetică”, a declarat Henry Ajder din cadrul Metaphysic, o companie care dezvoltă instrumente de timp deepfake.