澤田秀之:入力インタフェースとしては、最近最も発展しているのは、音声認識かと思います。英語については、相当高い精度で認識してくれますね。英語ネイティブでない方であれば、発音の確認やスピーチのトレーニングに使えます。発音が良くないと認識率も低下するので。
日本語の音声認識は、漢字の自動変換が必要になりますので、いくぶんか認識は低下するように感じますが、それでも文字の入力にはだいぶ有効に利用できると思います。2000年頃までは、HMM(隠れマルコフモデル)に基づくアルゴリズムが主流でしたが、深層学習に基づく機械学習により、音声認識の精度が格段に上がったと思います。
質問者の問いは、入力インタフェースというよりも、GUI(Graphical User
Interface)の進歩についてかな、とここで思いました。確かに、GUIとしては、マウスとキーボードによるものが、ずっと標準的に使われてきていますね。これまで、ディスプレイ上部に搭載されたカメラでユーザの視線を認識したり、脳波を使ってカーソルを動かしたり、声の高さと長さを使って画面上のカーソルを操作する、といったインタフェースが提案されていますが、なかなかマウスを代替するものとはなっていませんね。スマートフォンやタブレットPCでは、タッチパネルが搭載されていますが、アイコンを選択するのには有利ですが、文字を入力する手段としては、やはり物理キーボードの方が速度や利便性が高いように思います。
回答者は、スマートフォンの入力には、アイコン選択にはタッチを、文字入力には音声認識を主に使っていますが、特に漢字の誤変換があった場合の修正にいくつかの手間がかかり、まだまだ課題は多いと感じています。