Apple Siri, Google Assistant, Microsoft Cortana, dan Amazon Alexa, berpotensi di-hack dengan metode DolphinAttack

Para peneliti keamanan dari Zhejiang University di China menemukan metode untuk mengaktifasi voice assistant Siri dan memerintahkannya untuk melakukan pemanggilan telepon. Metode yang dinamakan sebagai DolphinAttack ini tidak hanya dapat dilakukan pada Siri, namun pada semua voice assistant lain seperti Cortana, Assistant, serta Alexa yang “mendengarkan” suara penggunanya sebagai perintah.

Hack ini memanfaatkan kemampuan microphone pada setiap smartphone yang ternyata dapat menerima suara dengan frekuensi ultrasonik. Dengan demikian yang dibutuhkan hanyalah sebuah perangkat amplifier sederhana yang dapat menghasilkan suara dengan frekuensi yang sangat tinggi (di atas 20 KHz) sehingga tidak dapat didengar oleh pengguna smartphone itu sendiri.

Para peneliti membuktikan keberhasilannya dengan mengunggah sebuah video proof of concept mengenai metode hack seperti ini. Untuk sementara waktu, tidak ada satupun smartphone yang mampu menghalau metode hack seperti ini, iOS dan Android sama-sama rentan, selama produsen microphone atau pembuat sistem operasi tidak memodifikasi produknya untuk mendeteksi dan menolak frekuensi suara ultrasonik.

Berikut adalah sebuah video yang mempertontonkan keberhasilan para peneliti di China tersebut:

(sumber: PhoneArena)

Iklan

Tinggalkan Balasan

Isikan data di bawah atau klik salah satu ikon untuk log in:

Logo WordPress.com

You are commenting using your WordPress.com account. Logout /  Ubah )

Foto Google+

You are commenting using your Google+ account. Logout /  Ubah )

Gambar Twitter

You are commenting using your Twitter account. Logout /  Ubah )

Foto Facebook

You are commenting using your Facebook account. Logout /  Ubah )

Connecting to %s