とはいえメールのやり取りや、書類の通読、自社製品の規制情報収集がせいぜいのところで、外人とリアルタイムで意見を交換するようなことはない。
なので、いざ外人との会話になるとサッパリだし、会議に入ると貝になり、セミナーでもちょっと込み入った話になると理解が追いつかなくなる。
そこに、Google様がリリースした(リリース自体は2月だが)Live Transcribeである。
https://www.buzzfeed.com/jp/yuikashima/live-transcribe
巷間言われているように、精度がかなり良い。試しにWebinerでモニタの前に置いてみたところ、なるほどここはこう言っていたのか・・・と気付かされることが多数ある。
これなら外人がグワーっとしゃべっても、次々と表示される文字列をチラ見し、とりあえずキーワードだけを拾っておけば、置いてけぼりになることもなさそうだ。
自分は以前からキーワードだけを聞き取って、必死で会話についてくタイプ(TOEICもこの方法で何とかしのいでいる次第)だったので、もともとキーワードだけは聞き取れていたことが多いのだが、それにしてもAIが正確に文字起こししてくれたものが視覚情報として入ってくるのは、想像以上に大きい。
ただ、問題点はこの文字列をどこで見るかだ。手元に泥タブやPixel3を置くのももちろん良いのだが、できればチンアップした状態で聞きたい。となると、目の前に仮想現実を写すスマートグラスの出番だ。
幸いにもエプソンが出しているMoverioはAndoroidの画面を投射できるらしい。
https://epson.com/moverio-augmented-reality
こいつにPixel3を繋げば、外人と会話しながら、常に英文字幕を確認できることになる。
もっと言えば、仮にMoverioに2窓を映せるとしたら、自分の日本語での受け答えを音声認識させ、そいつをGoogle翻訳に自動で翻訳させた英文を表示させることも可能かもしれない。あとはそれを口に出して読み上げればいいだけなのだから、まさにほんやくコンニャクだ。いずれ読み上げるところも自動音声が代替するようになるだろう。
そんな時代がすぐそこまで来ていることに安心し、俺は英語を勉強するのを一切止めることにした。今後はTOEICの点数を競う時代ではなく、上記のようなガジェットをどれだけ使いこなせるかの勝負になるのではないだろうか。
余談:最近は英文書類も「みらい翻訳」で一度翻訳してから読むようにしている。理解のスピードが上がるし、英文読解で何より怖い「先入観」によるミスリードを防止できる。最近は英文メールも面倒くさくなって、一度日本文をみらい翻訳で英文翻訳させてから、アレンジして送るようにしている。