選択されているタグ : Design , science , information

COVID-19からの学び2:更新されつづける情報とその残響


混乱を大きくした情報の残響


「新型コロナにはイブプロフェンが効く」、「英国でかえって症状を悪化させたと話題になっている」、「英国での改めて効果を検証中(2020/6/4時点)」。「マスクは無意味」、「一定の効果はある」、「マスクは必須」。
 コロナ禍、あらゆる情報が激しく揺れ動いた。
 
 そもそもこれが深刻な感染症のかの議論から始まり、感染率の高低、どうやってうつるのか(飛沫感染はあるのか)、どういう症状か、どんな薬が効くのか、どれくらい感染者がいるのか、どう対処したら良いのかなどなど、この数ヶ月間さまざまな重要情報が毎日のように大量に出てきては、早い場合は1日も経たないうちに覆った。
 (私も含め)最初は主張の一貫性を重視していた人達も、しばらくすると「知識が常に更新されつづけるのがサイエンス」と考えを改め、前言に固執するよりも最新の情報に基づいて柔軟に考えを変えつづける方が大事だと変容していった。
 そんな情報の乱流の中、混乱をひどくしていたのがソーシャルメディアだった。
 あきらかな悪意を伴ったデマや根拠のない断定口調という文字コミュニケーションに起因する問題もあるが、今のソーシャルメディアの仕様や使われ方にも問題点があり、これは正せる可能性がある。
 私が最大の問題と感じている問題に「残響情報」という名前をつけさせてもらった。
 皆さんは1日にソーシャルメディアを見ていて、何度、同じ情報を目にするかを思い返して欲しい。
 何かの事件が起きて、それがツイッターに流れる。例えばGeorge Floydさんの殺害事件などを例に挙げると、私はそもそものきっかけとなっていた動画のツイートを英語圏の友達のリツイート(再配信)で見ていた(あまりにショッキングだったのでリツイートできなかった)。
 その後、この事件はすぐに、CNNだ、APだ、Reuterだ、BBCだと、さまさまざまなニュースで取り上げられ、それらのツイッターアカウントからも情報が発信される。すると、次にそのニュースを見た人たちが、ニュースを拡散し始める。ただ公式RTをする人もいれば、ひとこと添えてリツイートを行う人もいる。さらにそれを見た人と第2波、第3波が重なってゆく。
 これだけでも同じ情報が何重にも重なって繰り返されるには十分だが、これで終わりではない。
 もう少し時間が経つと、さきほどのニュースメディアの人たちが、さきほどのツイートを見逃した人たちのために、一度ツイート済みの情報を繰り返しツイートを行う。ツイッター慣れをしていない人は違和感を感じるかも知れないが、つ1日中ツイッターを見ている人はいない。朝の通勤電車で見る人、ランチ中に見る人、夜しか見ない人もいるため、時間をずらして同じツイートを行うと、異なる層の人たちから大きな反響がくる。世界中で話されている英語でのツイートとなれば、時差の観点からも、これが重要になる。
 こうやって1つのニュースが、何百何千種類の記事になって、長い時では1週間くらいTwitterの上を還流し続けている。
 時間をおいて、再発信する行為そのものを否定するつもりはない。そもそも自分でもやっているので否定できる立場にない。
 だが、平常時なら許容できるこうした情報の流れが、緊急時には実害を伴う。
 例えばCOVID-19への対処方法に関するニュースが数日間還流している最中に、その情報が間違いで逆効果であるニュースが発せられたとする。
 メディア企業は新事実が発覚したと同時にそれを伝え、以後、古い記事を改めてツイートすることは避けるだろうし、ちゃんと古い記事には訂正を入れる。
 だが、読者となるとそうはいかない。ほとんどの人は、ニュースの日付なんか確認せず、ただ価値がある/面白いと思ったら拡散をしてしまう。こうして、いつまでも古い情報が環流を続ける。



デジタルツールの主流は情報堆積型


TwitterやFacebookなどのソーシャルメディアの投稿は削除ができないわけではないが、それをする人はほとんどおらず、基本的に次々と新しい投稿が追加される一方だ。
 ただ、あまりにもたくさんん新しい情報が追加され続けるるから、古い情報は遡れなくなって、どこかへと流れていってしまう。名付けてストリーム(川の流れ)型メディアとも呼ばれる(だからこそ、時差投稿が意味を持つ)。ストリームと書くと軽やかなイメージがあるが、見方を変えれば情報が堆積しつづけるメディアともいえる。
 東日本大震災後、IT技術が災害時にどう役だったか(あるいは役立たなかったか)、グーグルの依頼で山路さんと調査した(東日本大震災と情報、インターネット、Google)。この時もデマの対処法としてたどり着いた結論は、「デマの拡散量にまけないくらいたくさん正しい情報を流す」で、結局は情報をさらに増やす方向のものだった。

 だが、新聞や雑誌など紙媒体ではこうはいかない。1ページ辺りの文字量も、全体のページ数も決まっていて、デスクと呼ばれる人が、限られた紙幅でどの情報を載せるか常に取捨選択をしている。
 だから、情報の受け手は、膨大すぎる情報に押し潰されることなく、決まった読書量に凝縮された美味しいところどりの情報を得られる。
 これに対してインターネットの情報は、記事1つの長さも、1日にどれだけの量の記事を提供するかも制限がない。食べ終わっても、おかわりがで続けるわんこそばのようなものだ。
 人には1日24時間という時間の制約もあれば、次の食事を取るまでに活動できる量、1日に吸収できる情報の量といったもののキャパシティーが決まっている。デジタル情報はそうした身体性を無視して、ホワイトホール(ブラックホールの逆の存在)のように情報を出し続ける。
 Twitterは、そこに1投稿140文字の制限を設けて、情報を飲み込みやすくした。たが、1日に投稿できる数の制限はないのでホワイトホール感に変わりはない。
 気がつけばニュースサイト、ソーシャルメディア、メッセンジャーソフト、電子メール、どのデジタル情報ツールも永遠に終わりがやってこない巻き物のような構造あるいは閉まることのない蛇口から永遠に情報を浴びせられつづける構造だ。われわれはそこでおぼれ続けるしか道はないのか?



情報をまとめなおすというWikiのアプローチ


よく見渡すと、ストリーム型(情報堆積型)とは異なるアプローチのサービスが既に存在している。Wiki(ウィキ)という仕組みだ。
 知っている人は少ないかもしれないが、このWikiでつくられたWikipedia(ウィキペディア)なら知っているという人が多いだろう。
 Wikipediaは、どこかの出版社が無償提供している電子辞典サービスではなく、Wikiというインターネット上のワープロのような仕組みを使って、何万人もの人が言葉の定義を共同作業で編集してつくられている。善意の塊による辞典だ。
 面白いのは、既にあったWikipedia上の定義があとで間違いだとわかると、気がついた人が、既に書かれていた他の誰かがせっかく書いてくれた内容をバッサリ削除して、書き直す。
 ただ、ここがデジタルの素晴らしいところで、実はどの文章が削除され、どう書き換えられたかはちゃんと履歴が残っていて、いつでも古い状態に戻すこともできるのだ。
 だから、勘違いをしている人が書き直しをしてしまっても、ちゃんと前の元の状態に戻せる(勘違いした人がどうな書き換え、再訂正されたかの履歴も残る)。
 情報を延々と追加しつづけるのではなく、「まとめなおせる」というのがストリーム型メディアとの違いで、1つの文章を100人が編集したからと言って100人分の情報をつきつけられるのではなく、あくまでも目にする情報の量は見た目上は増えない(その代わりにすぐには見えない履歴は増え続ける)としたのがWikiの画期的なところだ。
 ストリーム型メディアのように1+1=2と情報が積み重なるのではなく、1+1=betterな1という感じで、情報の量を増やさず質だけを高めることができる。
 メッセージアプリ(やメール)での議論なども、誰かがWikiで決定事項をメモしていれば、途中から参加した人も、やりとりを冒頭からすべて読み直すのではなく、wikiで決定事項のまとめを見て、いきなり議論に参加することができる。
 残念ながらWikiはたくさん種類があるが、どれも操作方法が難しく、なかなかとっつきにくいという問題がある。
 だが、今ではMicrosoft WordやApple社のPagesなど多くのワープロソフトや、るGoogleドキュメントのクラウド版ワープロも同様の編集履歴の記録を備えており、これらをWiki的に活用することもできるはずだ。



新しい情報サービスへの期待


投稿者名 Nobuyuki Hayashi 林信行 投稿日時 2020年06月05日 | Permalink