2019-09-04

英会話2.0

自分場合仕事英語を使うことが日常的にある。

とはいえメールのやり取りや、書類通読、自社製品規制情報収集がせいぜいのところで、外人リアルタイム意見を交換するようなことはない。

なので、いざ外人との会話になるとサッパリだし、会議に入ると貝になり、セミナーでもちょっと込み入った話になると理解が追いつかなくなる。

そこに、Google様がリリースした(リリース自体は2月だが)Live Transcribeである

https://www.buzzfeed.com/jp/yuikashima/live-transcribe

巷間言われているように、精度がかなり良い。試しにWebinerでモニタの前に置いてみたところ、なるほどここはこう言っていたのか・・・と気付かされることが多数ある。

これなら外人がグワーっとしゃべっても、次々と表示される文字列をチラ見し、とりあえずキーワードだけを拾っておけば、置いてけぼりになることもなさそうだ。

自分は以前からキーワードだけを聞き取って、必死で会話についてくタイプTOEICもこの方法で何とかしのいでいる次第)だったので、もともとキーワードだけは聞き取れていたことが多いのだが、それにしてもAIが正確に文字起こししてくれたもの視覚情報として入ってくるのは、想像以上に大きい。

ただ、問題点はこの文字列をどこで見るかだ。手元に泥タブやPixel3を置くのももちろん良いのだが、できればチンアップした状態で聞きたい。となると、目の前に仮想現実を写すスマートグラスの出番だ。

幸いにもエプソンが出しているMoverioはAndoroidの画面を投射できるらしい。

https://epson.com/moverio-augmented-reality

こいつにPixel3を繋げば、外人と会話しながら、常に英文字幕確認できることになる。

もっと言えば、仮にMoverioに2窓を映せるとしたら、自分日本語での受け答えを音声認識させ、そいつGoogle翻訳自動翻訳させた英文を表示させることも可能かもしれない。あとはそれを口に出して読み上げればいいだけなのだから、まさにほんやくコンニャクだ。いずれ読み上げるところも自動音声が代替するようになるだろう。

そんな時代がすぐそこまで来ていることに安心し、俺は英語勉強するのを一切止めることにした。今後はTOEICの点数を競う時代ではなく、上記のようなガジェットをどれだけ使いこなせるかの勝負になるのではないだろうか。

余談:最近英文書類も「みらい翻訳」で一度翻訳してから読むようにしている。理解スピードが上がるし、英文読解で何より怖い「先入観」によるミスリードを防止できる。最近英文メールも面倒くさくなって、一度日本文をみらい翻訳英文翻訳させてからアレンジして送るようにしている。

https://miraitranslate.com/trial/

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん