News Release

「ヒ」と「シ」の発音を混同するメカニズムを リアルタイムMRIとスーパーコンピュータにより解明

Real-time MRI and supercomputer simulations reveal the production mechanisms of these sounds in a Japanese dialect

Peer-Reviewed Publication

Toyohashi University of Technology (TUT)

「ヒ」と「シ」のシミュレーション

video: リアルタイムMRIでの観察と口のモデル内の渦の様子 view more 

Credit: COPYRIGHT (C) TOYOHASHI UNIVERSITY OF TECHNOLOGY. ALL RIGHTS RESERVED.

豊橋技術科学大学の吉永司助教、飯田明由教授と国立国語研究所の前川喜久雄教授からなる研究チームは、関東や東北地方の方言などで観察される「ヒ」と「シ」が混同して発音される現象に関して、リアルタイムMRIとスーパーコンピュータを用いた解析により、舌の位置は変えずに舌の左右方向の形状を変化させて発音していることが原因であることを明らかにしました。本研究成果はアメリカ音響学会誌Journal of the Acoustical Society of Americaに4月7日付けで掲載されました。

<詳細>

日本語の発音では、サ行の「シ」/si/の子音は、「サ」/sa/や「ス」/su/の子音と異なっています。「サ」の子音は舌の先端を歯茎に近づけて発音するのに対し、「シ」の子音は舌の位置を歯茎の辺りから少し後方にずらすことで、「サ」や「ス」と区別しています。一方、ハ行の発音の中で「ヒ」/hi/の子音は、「ハ」/ha/や「へ」/he/の子音に比べて舌の位置が歯茎に近い前寄りになっています。そのため、「シ」と「ヒ」の舌の位置は似ており、東京や東北の広い地域において、「東」を「ヒガシ」ではなく「シガシ」と発音したり、「髭」を「ヒゲ」ではなく「シゲ」と発音することが知られています。また、「7月」を「シチガツ」ではなく「ヒチガツ」と発音する人は日本中で見られます。この2つの発音が混同してしまう問題は広く知られており、その原因は発音するときの舌の位置が似ているためだと言われていましたが、具体的にどのように音を区別して発音しているのかは明らかではありませんでした。

そこで研究チームは、発音時の舌が動く様子を観察できるリアルタイムMRIにより、東京方言話者の被験者10名が「これがヒシがた」と発音する際の「ヒ」と「シ」の舌の位置を観察しました。その結果3人の被験者において、「ヒ」と「シ」を発音する際の舌の前後の位置はほとんど同じであることを発見しました。この時、被験者らの舌の位置は同じであるにもかかわらず、「ヒ」と「シ」の音の違いは聞き分けることができました。

これらの子音がどのように区別して発音されているかを調べるため、研究チームはさらに、口の形を模したモデルを構築し、発音時の空気の流れと音の発生をスーパーコンピュータでシミュレーションすることにより、舌の前後の位置が同じでも、舌の左右方向の形状が異なることによって「ヒ」と「シ」の子音の違いが生まれることを明らかにしました。

これまで音声学では、子音の分類は主に舌の前後方向の位置の違いにより行われてきましたが、左右方向の舌の形状が重要となってくることは新たな発見です。一方、舌が前後方向に同じ位置であっても発音が区別できるということは、方言の一部に見られるような「ヒ」と「シ」の混同の原因にも成り得ます。

筆頭著者の豊橋技術科学大学・吉永司助教は次のようにコメントしています。

「日本語の「ヒ」や「シ」は何気なく会話に用いている発音ですが、その音の発生をシミュレーションするには、口の中で発生する乱気流の小さな渦を一つ一つ計算して、その渦から発生する音を予測する必要があります。そのため、研究で構築した口のモデル一つに対して、約1億点の計算格子を設定し、スーパーコンピュータで解析する必要があります。そして、その計算した渦の中で、「ヒ」と「シ」の音の違いを生み出す渦を発見したときは、とても興奮しました。」

<今後の展望>

今回の研究で観察された日本語の「ヒ」と「シ」の混同が知られ、音の違いが生まれる要因が理解されるようになれば、日本人の滑舌がより良くなるととともに、この知識が、構音障害など特定の発音が区別できない人に対して行う言語聴覚士の訓練にも応用されることが期待できます。また同様の解析を、外国語を発音する日本人話者に応用することにより、外国言語の発音向上に用いることができます。現在、共著者の国立国語研究所・前川喜久雄教授は、リアルタイムMRIによる調音動画データベースを構築しており、このデータベースを用いたさらなる発音メカニズムの解明が期待されます。

###

本研究は、文部科学省「富岳」成果創出加速プログラム(hp200123, hp200134)を通じて、大阪大学が提供するスーパーコンピュータSX-ACEの計算資源の提供を受けるとともに、日本学術振興会科学研究費(JP17H02339, JP19H03976, JP19K21641, JP20H01265, JP20K14648)、国立国語研究所コーパス開発センターの助成によって実施されたものです。

<論文情報>

Tsukasa Yoshinaga, Kikuo Maekawa, and Akiyoshi Iida (2021). Aeroacoustic differences between the Japanese fricatives [ɕ] and [ç], The Journal of the Acoustical Society of America, DOI: 10.1121/10.0003936.
https://doi.org/10.1121/10.0003936


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.