人工知能学会全国大会に参加してきました!

今回は2019年6月4日~7日に開催された 2019年度 人工知能学会全国大会(第33回) の現地レポートをお届けします!
what's niigata


こんにちは、アナリティクスサービス部の中西です。今回は6月4日から7日にかけて開催された2019年度人工知能学会全国大会に参加してきたので、その様子をご紹介をします。弊社はスポンサー企業として企業展示ブースを出させていただいた他、オーガナイズドセッションにて「不動産とAI」分野、インダストリアルセッションでの発表を行いました。それでは当日の様子をお伝えしていきたいと思います。

会場の様子

2019年度 人工知能学会全国大会は新潟の朱鷺メッセで行われました。今年の参加者は学会史上最多の人数が集まり、未だに衰えを知らないAIブームを肌で感じました。その様子は学生だけでなく、幅広い業界の企業が参入していることからも伺うことができました。そんな中、弊社もスポンサーとしてブースを出させていただきました。

会場の様子

スポンサーブースの様子

学会期間中は全期間にわたり、企業展示をさせていただきました。 企業展示では、キャッチーなポスターの展示や、事例紹介のためのリーフレットの配布などを行いました。

スポンサーブース

ポスター展示では、以前プラチナデータブログでバズった「CNN可視化手法の一つであるGrad-CAMの紹介」を採用したポスターが多くの方に興味、関心を持っていただいていたように思いました。セッションにおいても、Black-boxなモデルの使用に伴う説明責任性に関する論争も多かったように感じ、需要の高さが伺えました。

参考記事はこちら:
blog.brainpad.co.jp

ブースの展示中は、弊社を知らない方からよく知っていてくださっている方まで幅広く、優しく接していただきありがとうございました。

弊社社員も発表しました!

太田の発表風景

  • 「ブレインパッドにおける機械学習プロジェクトの進め方」(アナリティクスサービス本部 副本部長(現チーフデータテクノロジーオフィサー) 太田 満久)

インダストリアルセッションでは、弊社の太田から「ブレインパッドにおける機械学習プロジェクトの進め方」を発表いたしました。社会実装が進まない背景をうけ、機械学習プロジェクトにおいて気をつけている点をご紹介いたしました。簡単にまとめると、

  1. 関係者を巻き込む・・・関係者全員の共通認識が重要
  2. 品質担保の体制を作る・・・チームとして成果を出すことが重要
  3. トラブルを回避するための体制を作る・・・機械学習のみに頼るのではなく周囲の仕組みでカバーすることが重要

詳しくは以下のスライドをご覧ください!

  • 「深層学習を用いた不動産画像の分類システムのビジネス適用」(アナリティクス本部 開発部 塚原 朋也)

オーガナイズドセッションでは「不動産とAI」の分野においての発表を弊社の塚原が行いました。
こちらでは営業スタッフが手動で不動産画像を、キッチン、リビング、玄関などとラベル付けし、システムに登録していた背景をうけ、機械学習、また、ルールベースを用いることで工数削減にご協力させていただいた大東建託様の事例をご紹介させていただきました。

「深層学習を用いた不動産画像の分類システムのビジネス適用」
https://confit.atlas.jp/guide/event-img/jsai2019/1D2-OS-10a-03/public/pdf?type=in


大東建託様の事例はこちらをご参考ください:
www.brainpad.co.jp

気になったセッションのご紹介

私は「機械学習における説明可能性・公平性・安全性への工学的取り組み」のセッションにて、「機械学習の公平性への取り組み」を聴講させていただいたので内容を引用しながら軽くご紹介していきたいと思います。

公平性配慮型データマイニング

背景として、機械学習の有用性が主張される中、そのデータのバイアスなどから予測結果等に公平性が担保できないという問題が発生しています。

例えば以下の例では、アマゾンが人事採用にAIを導入していましたが、過去の採用データの大多数が男性であるといった理由からそのデータを用いて判定を行なった結果、システムは男性を採用するのが好ましいと認識してしまったため採用に偏りが生じてしまったということがあります。
jp.reuters.com

このような機械学習やデータマイニング分野における公平性を取り扱う分野は、
公平性配慮型データマイニング(fairness-awaredata mining)などと呼ばれています。

以下では公平配慮型データマイニングのタスクについて簡単に紹介しようと思います。

公平配慮型データマイニングのタスク

確率変数  S X は、それぞれセンシティブ特徴と非センシティブ特徴を表すとします。
例えば、採用などの決定について扱うとき、社会的公平性の観点からその関与を排除すべき対象者の性別や人種といった個人属性情報を、このセンシティブ情報とします。
確率変数  Y は目的変数で、採用などの決定を表し、この変数の表す内容に関心があるとします。予測値を  {\hat{Y}}、観測値を  Y として表すとします。

公平配慮型データマイニングの分析タスクは、不公平発見(unfairness discovery)と不公平防止(unfairness prevention)に大きく分類することができます。ここでは不公平防止について紹介いたします。

不公平防止とは、不公平な分析結果が生じないようにしつつ、クラス分類や回帰といった分析を行う手法です。通常の予測問題と同様に、多様な目的変数が扱われています(分類、回帰、次元削減、推薦、ランキングというような拡張されています)。これらの手法は、公平性を達成する過程の違いに基づいて、前処理型(preprocess)、中処理型(in-process)、および後処理型(postprocess)に分けることができます 。

図は (Y, X, S)上の分布を表します。

Processes of Unfairness Prevention Methods
(参照:http://www.kamishima.net/fadm/)

ここで、それぞれ
水平平面:確率分布のモデル分布の族を表すモデル部分空間(model sub-space)
垂直平面:公平性制約(例えば目的変数  {\hat{Y}}はセンシティブ変数 Sと独立となるような条件など)を満たす公平部分空間(fair sub-space)
を表します。

不公平防止タスクの目標は、公平性制約を満たさない可能性のある分布から得た標本・訓練データから、公平性を満たすモデル分布の中で最も近似誤差の小さなモデルを見つけることとなります。

  • 前処理型では、訓練データを公平性を満たしつつひずみが最小になるよう垂直平面上に写像し、その後、通常の分類器などを使って目標モデルを見つける方法です(図の 1 → 2 を通じて目標モデルに到達)
  • 中処理型の手法は、訓練データから、目標モデルを直接獲得する方法です(図の 3 を通じて目標モデルに到達)
  • 後処理型では、通常の予測器を使って学習してモデルを獲得し、その後,公平性制約を満たすようにそのモデルを修正して目標モデルを得る方法です(図の 4→5 を通じて目標モデルに到達)


こういった公平性を担保する分析はさらに身の回りがデータ化していく中で、重要性が増していく分野だと思い紹介させていただきました。今後ますます注目の集まっていく分野かと思いますので必見です!!


ブレインパッドは、イベントへの参加や最先端の情報収集など、さまざまな取り組みを積極的に実施しています。実際のビジネスで自分の知識・技術を活用してみたいという方、ぜひエントリーください!
www.brainpad.co.jp


参考URL:機械学習における説明可能性・公平性・安全性への工学的取り組み(https://www.jst.go.jp/crds/sympo/201906_JSAI/index.html)

[^1]: 論文:神嶌 敏弘, 小宮山 純平. "機械学習・データマイニングにおける公平性 Fairness in Machine Learning and Data Mining". 第33回人工知能学会全国大会, 人 工 知 能 34 巻 2 号(2019 年 3 月).