Cautare


14 Mai 2018
Alexa, Google Assistant si Siri pot fi pacaliti de comenzi "silentioase"

Asistentii vocali pot fi manipulati prin folosirea unor comenzi "inaudibile".

Potrivit unui articol din New York Times, cercetatorii din cadrul Universitatii din California, Berkeley, au demonstrat ca pot lansa comenzi "silentioase" in muzica sau in textul vorbit care ar putea determina asistentul vocal sa adauge ceva in lista de cumparaturi, sa controleze un dispozitiv IoT sau chiar mai rau. 

Instructiunea ascunsa nu poate fi auzita de urechea umana, asa incat nu exista nicio modalitate usoara de a spune cand Alexa ar putea fi inselat pentru a adauga un element in cosul de cumparaturi Amazon sau de a va debloca, spre exemplu, usa. 

Cercetatorii sustin chiar ca au reusit sa ascunda comanda, "OK Google, navigheaza pe evil.com" in inregistrarea propozitiei vorbite "Fara setul de date, articolul este inutil". 

Unul dintre autorii lucrarii, Nicholas Carlini, student in cadrul UC Berkeley, a declarat pentru New York Times ca, desi astfel de atacuri nu au fost raportate, sunt posibile oricand.

Ca raspuns, Amazon a declarat pentru publicatie ca a luat masuri pentru a se asigura ca smart speaker-ul sau Echo este sigur, in timp ce Google a declarat ca Assistant are functii care pot elimina comenzile audio nedetectabile. 

Apple a declarat ca smart speaker-ul sau Home Pod este proiectat pentru a impiedica comenzile sa faca lucruri precum deblocarea usilor si a precizat ca iPhone-urile si iPad-urile trebuie sa fie deblocate inainte ca Siri sa actioneze pe baza de comenzi. 





Info util

Numai 5 producatori de solutii antivirus, inclusiv ESET, au indeplinit criteriile de detectie si dezinfectare solicitate pentru Windows 7.



Newsletter


Adresa mea de email:
Parteneri

Despre noi

Download

Contact

Strada Retezatului nr.5 / Tg.Mures 540 068
tel/fax:0265 265 910 / contact@smartnews.ro

Publicitate