Sementara teknologi touchscreen saat ini masih terbatas pada bagian mana dari layar yang tersentuh, peneliti di Carnegie Mellon University berharap untuk mengembangkan kemampuan teknologi touchscreen ini dengan sistem baru yang bisa tahu persis apa yang telah menyentuh layar.
Dikembangkan oleh mahasiswa Pd.D (Product design and Development) Chris Harrison dan Julia Schwartz, bersama dengan bersama dengan profesor mereka Scott Hudson dari Human-Computer Interaction Institute, teknologi bernama TapSense ini adalah sebuah sistem menggunakan mikrofon terpasang di touchscreen yang dapat digunakan untuk mengetahui apa yang telah berinteraksi dengan layar. Bukan hanya mengidentifikasi telah dilakukannya tap, sistem ini mampu membedakan antara tap menggunakan ujung jari, telapak jari, kuku, dan bahkan "knuckle." Jadi selain untuk mendeteksi gerakan, software bisa 'mendengarkan' apa bagian dari jari yang digunakan.
Kemampuan baru teknologi touchscreen ini bisa diterapkan pada berbagai fungsi touchscreen, seperti "knuckle" secara eksklusif dapat digunakan untuk membuka menu, sementara aplikasi menggambar bisa berganti antara jenis kuas yang digunakan ketika pengguna beralih dari ujung jari ke kuku mereka.
Sayangnya untuk saat ini sistem TapSense bergantung pada mikrofon eksternal untuk bisa berfungsi, karena mikrofon yang terdapat pada smartphone didesain khusus untuk mengidentifikasi suara saja, bukan suara dari jari yang digunakan untuk men-tap touchscreen.
Namun sistem dari TapSense ini mampu dan sangat mudah untuk diimplementasikan pada sebuah touchscreen smartphone dengan adanya sebuah mikrofon ekstra nantinya. Dan selain untuk mengenali bagian jari atau bagian tubuh manapun yang digunakan untuk men-tap layar, TapSense nantinya juga mampu untuk membedakan ujung stylus, yang mana hal ini memungkinkan untuk lebih dari satu orang menggunakan satu layar yang sama. [RY]