Slow Informatics Laboratory Get in Touch

Get In Touch

当研究室への配属を希望される方,研究プロジェクトにご関心のある方,共同研究をご希望の方は,下記フォームよりお問い合わせください.

2021年5月第2週朝活論文紹介

当研究室では毎週月〜木曜日の朝9:00-10:00は,研究室のメンバーで集まって英語の論文を読んで紹介するというイベントを行っています.

今週の朝活では,下記論文を紹介しました.

  • PriView - Exploring Visualisations to Support Users’ Privacy (from CHI 2021)
  • Generative Models are Unsupervised Predictors of Page Quality: A Colossal-Scale Study (from WSDM 2021)
  • “Good Enough!”: Flexible Goal Achievement with Margin-based Outcome Evaluation(from CHI 2021)
  • Expanding Explainability: Towards Social Transparency in AI systems (from CHI 2021)

PriView– Exploring Visualisations to Support Users’ Privacy (from CHI 2021)

書誌情報

Sarah Prange, Ahmed Shams, Robin Piening, Yomna Abdelrahman, and Florian Alt. 2021. PriView– Exploring Visualisations to Support Users’ Privacy Awareness. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (CHI ‘21). Association for Computing Machinery, New York, NY, USA, Article 69, pp.1–18, 2021.

140字概要

プライバシーリスクを可視化するための良いデザインを探るため,プライバシーを侵害する可能性のあるデバイスの位置と状態を可視化するPriViewを作成した.24人の実験協力者にシステムを使用してもらい,インタビューを行ったところ,多くの協力者からプライバシー保護に役立つという意見が得られた.

まとめスライド

PriView– Exploring Visualisations to Support Users’ Privacy.png (279.0 kB)

感想
  • デバイスの起動状態を可視化するのは,ユーザにとってプライバシーリスクを判断しやすく良いと感じた.さらに詳細な情報として,デバイスがどういう情報を取っているかといったことを含めて提示した場合,ユーザのプライバシー意識にどういう影響を与えるか調べると面白そう.
  • 実用に向いているものはスマホアプリの方だと考える.テキストでの情報を好む実験協力者が多かったとが,電車などでの利用を考えると,テキストに埋め尽くされそうなシーンもありそうである.可視化の方法は都度切り替えることができると便利そうだ.実験協力者の声にもあったが,実際に利用するとなると,利用者側も他のユーザにカメラなどを向けることになるジレンマについて考える必要がありそうだ.
  • 今回は視覚からプライバシーリスクについて考えさせ,行動の変容を促すものであったが,マイクに関しては視覚ではなく聴覚にアプローチすると,どのような音声が取られているかわかり,効果的ではないかと思った.

Generative Models are Unsupervised Predictors of Page Quality: A Colossal-Scale Study (from WSDM 21)

書誌情報

Dara Bahri, Yi Tay, Che Zheng, Cliff Brunk, Donald Metzler, Andrew Tomkins: Generative Models are Unsupervised Predictors of Page Quality: A Colossal-Scale Study, WSDM ’21, p301, 2021.

140字概要

文書が人間によるものか自動生成文か判定する分類器が,文書の品質予測に使用可能だと分かった.また低品質な文書は特定のカテゴリに偏ることも明らかになった. 分類器の出す「自動生成文っぽさ」は、その文章の低品質さを表す数値として問題ないことが実験によって分かり、それを使って数億ページの文書を分析して、低品質文書の傾向を調べられた。

まとめスライド

image.png (144.2 kB)

感想
  • 手法自体は単純だが、教師データ不要という点で非常に強力だ。発想の勝利という気がする。いずれ検索結果画面の並び順などに応用可能だと思うし、できることなら直ちに応用してほしい。 (森泉)
  • 単純な手法だが,先駆者のいない試みということで先端的な研究だと感じた.手法として用いた分類器が実際にどんな文書を自動生成であると見なしているのか興味が湧いた.(中野)
  • 文書分類を品質予測に適用できる部分が新しいと思った。低品質な文書と小説のような抽象的な文書の違いを判別する方法についても、(永野)

“Good Enough!”: Flexible Goal Achievement with Margin-based Outcome Evaluation (from HCI2021)

書誌情報

Jio Oh, Youjin Jung, Juho Sun, Ha-Kyung Kong, Uichin Lee: “Good Enough!”: Flexible Goal Achievement with Margin-based Outcome Evaluation. CHI ‘21: Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems, Pages 1–15, May 2021

140字概要

目標達成プロセスに柔軟性のあるマージン「グッドゾーン」を提案することで、ユーザーが目標達成に向けてより多くの努力をすることを促せるか調査した。 マージン設定により目標達成率はわずかに向上したが、優位差は出なかった。マージン設定としては固定マージンよりランダムなマージンの方が達成率が高かった。

まとめスライド

“Good Enough!”_ Flexible Goal Achievement with Margin-based Outcome Evaluation.png (182.7 kB)

感想
  • ゴールと評価基準を分離することで、ユーザーが行動変容の途中で挫折したり、小さな失敗をしても、継続して行動できるようにするという斬新なアイデアだったと思う。
  • 「未達成」という事実によってやる気を削がないというアプローチは考えになかった。向上心がある前提になりそうなので、効果がある対象者は限られそう。
  • There is no need to be perfect, sometimes the desire for perfection does no good to ourselves.

Expanding Explainability: Towards Social Transparency in AI systems (from CHI 2021)

書誌情報

Upol Ehsan, Q. Vera Liao, Michael Muller, Mark O. Riedl, Justin D. Weisz: Expanding Explainability: Towards Social Transparency in AI systems. CHI Conference on Human Factors in Computing Systems (CHI’21), 19 pages, May, 2021

140字概要

XAIの分野で従来は技術的なアプローチばかりが注目されてきたが,実用上は社会的な文脈(誰が・いつ・どういった理由で・AIの判断を活用し,その結果どうなったか)が人間の意思決定には重要である.そのため,社会的文脈をシナリオにしてAIシステムの説明可能性の向上させる枠組みを提案した.

まとめスライド(1枚のpngファイル)

Expanding Explainability_ Towards Social Transparency in AI systems.png (160.2 kB)

感想
  • 他人の視点や,個々の具体的な状況を参考にできるのは,AIの判断を活用する人間自身に考えることを自然と促す事ができる点で有効だと感じた.しかし,依存する対象がAIの判断から他人の判断に変わるだけになってしまうことにもなりかねないので,シナリオ提示の方法はさらに検討ができそうだと感じた.
  • 何かを理解して活用するとき,なぜそうなるのか(技術的な説明)よりも,どうやって利用できるのか(社会的な文脈)の情報を先に与えられたほうがよいと思った.この演繹的よりも帰納的に理解するという考え方は,人に何かを説明するときや新しく何かを学習する場面で応用することができると感じた.
  • 最終判断は人間が下すべきだという価値観は共感できるが,関係する人間が納得できるような見せ方ができるかどうかになってしまわないか心配である.
  • AIの下した意思決定に基づいて意思決定をした他の人が,どのような結果になったかをもとに自分の意思決定をすることは,他人の結果から意思決定をしただけであり,自身で考え意思決定をするというプロセスがなくなってしまうのではないかと考える.AIや他人の評価ではなく,最終的には自身で意思決定をする機会を与えられるようなデザインが必要なのではないか.