News Release

Facebook の内容について一番のフィルター はユーザー

Peer-Reviewed Publication

American Association for the Advancement of Science (AAAS)

このニュースリリースには、英語で提供されています。

Facebook のようなオンラインソーシャルネットワークではユーザーを囲うように「フィルターバ ブル」が作成されることで、ユ ーザーは単に見たい情報を見ているだけか。 Eytan Bakshy らは 1,000 万以上の Facebook ユーザーの行動を分析した。その結果、 Facebook では実際にそのユーザ ー向けに内容にフィルターがかかるとはいえ、最も強力な検閲はユーザー自身が行っていること を発見した。 Bakshy らによると、各ユーザーは何をクリックするか(そして何をクリックしな いか)を選択することで、 Facebook のアルゴリズム以上に、自身の意見に相反する考えや見方に 接する機会を限定していたという。ユーザーが好むと思われる内容を予測し て提示しようとする Facebook のソーシャルアルゴリズムは、それによって人々が相容れない考え方に目を向けないよ うになるのであれば、民主主義にとって有害になる可能性がある。また、ニュースや地域情報を 収集する際のソーシャルメディアへの依存が一層高まっていることから、そういったパーソナイズされたウェブサイトやウェブブラウザーが、従来のメディアソースと比べ、ユーザーの世界 観をどのように形成するかを把握することは重要である。 Bakshy らは Facebook 上で自身の政治 的選好を公開している米国の Facebook ユ ーザーを調査した。ユーザーが友人らに向けてオンラ イン上に掲載する情報‐リベラル派か保守派かに注目する‐を検討してから、そのユーザーの友 人らが掲載するどういった種類の情報が実際に Facebook のソーシャルアルゴリズムを通してユ ーザーに届くかを突き止めた。また、ユーザーが最終的にクリックして読む内容も分析した。そ れらから、 Facebook ではユーザーの信念に反すると思われる約 15 %の情報がフィルターされ、 ユーザーも Facebook が実際に提示した種々の思考を促す投稿の約 70 %について無視を選択する ことが結果と して示された。したがって、 Bakshy らは Facebook のようなソーシャルメディアネ ットワークは引き続いて研究する必要があると主張すると同時に、自身の意見や考えに疑問を持 つ鍵を握っているのはユーザー自身であること、そして、 Facebook はおそらく大半のブログやニ ュースサイト以上にイデオロギー的に相反する考えをユーザーに提示していると述べている。 Perspective では David Lazer がこれらの研究結果についてより詳しく説明し、「ソーシャルアル ゴリズムの隆盛」に専念して研究すべき新しい分野の必要性 に注目している。

###

Article #21: "Exposure to Ideologically Diverse News and Opinion on Facebook," by E. Bakshy; S. Messing; L. Adamic at Facebook in Menlo Park, CA; L. Adamic at University of Michigan in Ann Arbor, MI.


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.