日本語と英語の「実装形態」

残念ながら他の多くの業界同様、私の仕事でもグローバルな場での共通語は日本語ではなく英語である。海外の人と仕事をする時、御多分にもれず英語でのコミュニケーションには苦労する。たまたま自分の母国語が共通語になっているアメリカやイギリスの人はつくづくラッキーだと思う(その分、外国語が上達してコミュニケーションの幅が広がる楽しみもないのだろうけど)。一緒に仕事をしていたドイツ人(英語は達者だが母国語はもちろんドイツ語)は、「我々には、ネイティブスピーカーに対して『もう一度言ってくれ』とか『ゆっくりしゃべってくれ』と言う権利がある。だからどんどん要求すべきだ」と言っていた。

言語を習得していくに従って脳にはその言語専用の「言語野」というもの(正確にはウェルニッケ言語野というらしい)ができるというが、確かに英語で会話をしているといつも、自分の脳の中での「実装形態」が日本語とは違うというのを実感する。例えばこんな感じ。

私の脳の中では日本語の処理は高機能なDSP(専用の信号処理プロセッサ)上に実装されており、メインCPUで行われる思考に影響をほとんど与えずに処理が可能である。このDSPは語彙・文法規則などの膨大な情報を専用データベースとして保持している。ちなみに私の日本語用DSPの「しゃべる機能」のモジュールは大阪弁仕様にカスタマイズされているが、読み、書き、聞く機能は標準語の処理も可能である。

これに対し、英語の方はメインCPU内のソフトウェアプロセスとして実装されている。したがって他の思考・制御処理とCPUパワーを取り合う。しかもこの英語ソフトウェアは効率が悪くてバグが多い。専用データベースも貧弱である。

例えば英語で会議をすると、会議の内容そのものと英語での会話(聞く・話す)の両方に頭を使うので非常に疲れる。メインCPUが2つの処理を並行して行うため、CPU負荷が非常に高くなっているのである。日本語なら会話の方にはDSPを使うのでCPUには余裕がある。

自分一人だけが日本人という状況で朝から晩まで英語で会話をしていても、指を机の角にぶつけたり熱いものを触ったりすると「いたっ」「あつっ」と言ってしまう。これなど、CPUでは英語プロセスを実行中であるにもかかわらず、触覚からの刺激に対してCPUをほとんど介さずにDSPが直接入出力処理を行ってしまうのである。思わず"Ouch!"とか"Oops!"とか言ってしまうなんてことは絶対にない。時々日本人で英語の会話の時に"Oops!"と言う人がいるが、あれは絶対「言おうと意識して言っている」のだと思う(ところで、ネイティブスピーカーは"Oops!"をよく使うが"Ouch!"の方は聞いたことがない。本当に使われている言葉なのか?)。

前述のドイツ人が日本に来た時に車で京都を案内したことがあるが、車を運転しながらだと私の英語をしゃべる能力は明らかに落ちることに気づいた。会話よりも安全運転の方がプライオリティ(優先度)が高いため、CPUパワーが食われて英語の会話の方にまわってこないのである。日本語なら実行するプロセッサが別なので並列に処理できる ― つまり運転しながら普通に会話できるのだが。

さらに、いつも感じるのだが、私程度の実力だと英語での会話の好不調は精神状態に大きく左右される。気分がよくてハイな状態では割とよくしゃべれるが、気分が沈んでいるときには英語が出てこない。CPUクロックの周波数が落ちていて、英語をしゃべる処理の性能が出ないのである。これも日本語ならCPUクロックとはとりあえず関係なしにDSPが動作するから、精神状態に影響されず普通にしゃべれる。

脳の中に英語の言語野を作るということは、英語専用のDSPを1つ実装することに相当しそうである。もっともっと英語に触れて、日本語のほどではなくてもそこそこの機能・性能を持つDSPを実装しないといけないのだが。CPUの性能向上は望めそうにないし。