Bagaimana Proses "Melihat" dengan Suara?

By , Jumat, 4 April 2014 | 16:19 WIB

Seorang wanita yang buta sejak lahir, duduk di hadapan meja dengan semangkuk apel hijau dan merah. Apel hijau lebih banyak dibandingkan merah, yang hanya satu.

Namun ketika diminta mengambil apel yang berwarna merah, ia tanpa keraguan menyomot dan... pilihannya tepat. Audiens bertepuk.

Situasi itu merupakan demo dari aplikasi baru yang membikin tunanetra mendengar informasi yang umumnya hanya bisa diketahui lewat penglihatan.

Jadi, wanita tadi mengenakan headphone dan kamera mini yang menempel pada kacamata, terhubung dengan laptop. Pesan diterjemahkan ke serangkaian isyarat —yang terdiri atas musik dan nada-nada, dalam sekuen— berbeda. 

Mendengarkan alunan tersebut menggantikan fungsi mata baginya, sehingga ia dapat mengenali warna, bentuk, dan letak objek yang dituju.

Aplikasi ini bernama EyeMusic SSD (Sensory Substitution Device), menggunakan algoritma untuk membangun "soundscape" yang dapat menyampaikan informasi visual melalui not-not musik.

Dikembangkan oleh Amir Amedi, seorang pakar neurosains dan kepala peneliti multisensorik di Hebrew University of Jerusalem, yang mengatakan, meski gagasan alat semacam EyeMusic sudah santer sejak tahun 1960-an, sistem pengganti indra penglihatan cenderung kurang praktis—biasanya memerlukan komputer— untuk digunakan dalam jangka waktu yang lama.

Amedi dan rekannya sekarang mengembangkan software yang dapat berjalan pada smartphone, meminimalkan kebutuhan peralatan.

Setelah mengunduh EyeMusic, cukup dengan headphone dan layar ponser di hadapan mereka, mereka bisa mulai mendengarkan sekitarnya. Kamera akan memindai lingkungan setiap 2 detik sekali, dan EyeMusic menyajikan gambar piksel per piksel.