【コラム】AIによる離職予測は倫理的にNGかOKか?




2010年代からブームとなっているビッグデータと機械学習(ディープラーニング含む)を組み合わせた技術、すなわちAIは、世の中のさまざまなシーンで活用できる技術です。

実装されている例としては、Uberにおける配車やダイナミックプライシングの最適化や、機械学習を使ったアート作品などが挙げられます。また、これからは自動運転が実現されたり、インフラ(電力や水道など)の需給を精度高く予測することで無駄をなくすような仕組みが出来ていきそうです。

一方で、AIによる問題というものもブームに伴ってどんどん表出化してきています。例えば、ひとつはデータの独占による企業間格差の広がりです。機械学習を有効にビジネス利用するには、最低限の質と量を兼ね揃えたデータが必要になります。

しかし、質が高く大量のデータを手にしているのは、GAFAやYAHOO、リクルートやクレジットカード会社といった大手がほとんどです。取得できるデータ量は事業の規模や顧客の数によって左右されるので、中小企業はそもそも大企業ほど大量のデータを持っていないことがほとんどなのです。

そうすると、大企業は自社のデータを高い給料で雇った優秀なデータサイエンティストに分析させ、さらに事業を拡大していく一方で、中小企業はそのようなデータも人材もいないため差がますます開いていきます。

大企業が事業を拡大するということは、顧客の数が増えるということなので、さらに取得できるデータの量が加速していき、予測モデルは精度をコツコツと上げていきます。これが「データ格差問題」と言われるものです。

また、今回の記事のメインテーマである「倫理」についても社会的な問題となっています。例えば、Amazonでは人事で応募してきた人を採用すべきかしないべきかAIに判定させると、男性と女性で差別が生まれていたことが明らかになりました。

また、記事配信のレコメンドシステムにAIを使うことによって、思想が過激化していく可能性もあります。例えば右翼的な思想を持った人にそのような記事を見せると、当然じっくりと読むので次のレコメンドでも右翼寄りの記事が出てきます。すると、その人は右翼的な思想をさらに強めていき、どんどんレコメンドが右翼寄りの記事に強く最適化されていきます。

社会の中には左翼的な人もいるし、中間の人もいるものですが、レコメンドシステムによって自分の思想に近い記事しか見れないようになり思想が偏っていく可能性があるのです。このように、自分の興味外のことが表示されなくなって偏った情報しか触れなくなることを「フィルターバブル」と言います。

「記事をたくさん読んでもらう」ということが記事配信をしている会社にとってのゴールですが、本当にこのような状態で良いのでしょうか?たしかに広告収入は増えますが、倫理的に考えてどうなのかは疑問が残ります。

どのような道具であっても悪いことや差別につながる使われ方をされる危険性があります。しかし、AIに関しては他の道具よりも危険なのです。なぜかというと、AIの特にディープラーニングによる予測モデルは中身がブラックボックス化しているので、実際に運用してしばらく立たないと、AIが差別的なアウトプットをしていたことに気が付けないのです。

このように、AIを使う上では倫理というものが非常に重要になってきます。「リクナビ」を提供しているリクルートキャリアの「リクナビDMPフォロー」というサービスも、使用許可を得ていない情報を使っていたという法律面はもちろんですが、特に倫理面で炎上してサービスの廃止につながりました。

AIを使って離職を防止するという使い方はNGかOKか

AIと倫理の問題については様々なものがありますが、特に離職の防止というテーマについて書こうと思った理由は、まさに離職を防止するためにデータを利用してなにか出来ないかというプロジェクトに参加しているからです。AIでメンタル起因の離職を予測するツール自体は、日立などさまざまな企業が開発しています。

仕組みとしては簡単で、社員の属性情報(年齢・性別・部署など)や行動ログ(勤怠履歴、業務量、評価)をもとにして、メンタルがやられて退職しそうな人を予測するというものです。正直、然るべきデータがあれば駆け出しの僕でもなんとか作れそうな気がします。

しかし、一番むずかしいのは「どこまでデータを取得するべきか」「予測結果からどのようなアクションを起こすか」というところなんです。これについて個別に考えていきたいと思います。

どこまでデータを取得するべきか

自分の個人情報を見られて喜ぶ人はいませんよね。一部の変態くらいなものです。例えば、年齢とか性別とか趣味嗜好とか未婚か既婚か、といった情報を利用されるのは気持ちがいいものではありません。また、仕事用のメールアドレスといっても、メールの送受信や仕事のスケジュールなどを利用されるというのも抵抗感があります。

どこまでを良しとするとのかは、個人によって差があるので正直難しい問題です。ぼくは、残業時間などの勤怠状況やスケジュールの埋まり具合くらいなら別に使ってもいいけれど、メールの中身やスケジュールの中身は見てほしくない派です。

もちろんやましいことがあるわけでないのですが、自分が送ったメールなどが分析されて上司や管理職の人に見られるというのは非常に窮屈な思いがするのです。

予測結果からどのようなアクションを起こすか

これも非常に難しい問題です。例えば、離職予測が出たからといって、上司から近況などを聞かれたらどう思うでしょうか?そんなの知らねーよ、と思いますよね。当然、離職予測は絶対に当たるものでもないし、そもそも辞めるんじゃないかと勝手に心配されても従業員は困ります。

機械学習で離職の兆候を観測されること自体が、どこか窮屈で嫌なものだと感じてしまいます。また、そういった兆候を隠すために、意図的にメールの中身を変化させるといった従業員も出てきそうです。そのような気を使わなければいけない職場では、とてもイキイキと働くことは出来ません。

NGか、OKか、という答えは出ない

この記事のタイトルは「AIで離職を予測するのは倫理的にNGかOKか」ですが、そもそも倫理的なものにNGかOKかはありません。それこそ法律とは違って倫理というのは相対的なものですから、答えを出すのではなく妥協点を関わる人を巻き込みながら探していくのが重要です。二項対立に落ちてはいけないのです。

例えば、データをどの範囲で取得して、どのような使い方をするのかをしっかりと説明した上で同意を得るのであれば良いのかもしれません。または、個人に対して離職の予測を行うのではなく、離職者が出そうなチームを予測するという仕様に変更することもありかもしれません。

個人に対して予測を行うのは非常に窮屈になりますが、「このプロジェクトチームは残業が平均して高く、疲れている可能性があります」というアラートレベルであれば心理的な抵抗感は薄まるような気がします。

とにかく、AIで人の心理を予測するというのは失礼にもなりうるし、人を束縛して苦しみを与えるものにもなりかねます。本当は仕事が大好きでつい働きすぎてしまうという状態なのに、勝手に離職を心配されて上司に呼び出されるというのは、それこそ離職につながってしまいます。

「AIをどう使えば関係者全員が幸せになれるのか」というのは、常に持っておくべき支店だと思うのです。

AIは性悪説を前提にして導入したほうが良いのかも

AIは便利な道具である一方、悪用すると強烈な武器にもなります。例えばある人の言動や行動を分析して、どのように交渉すればその人が折れるかを予測させることで、会社に人をしばりつけるという使いかたも出来てしまうでしょう。

あるいは、気に入らない人に対して、どのような言動・行動をすれば会社を辞めるかをサジェストしてくれるツールも作ろうと思えば作れるでしょう。

ここから言えることとしては、組織でAIを運用する場合は性悪説に基づいた設計をすべきではないか、ということです。もし、離職防止ツールの目的が

  • 社員のイレギュラーな動きをキャッチして、困っていることがあったらすぐに助けられるようにする

というものであれば、おおよそ問題はないのですが、

  • 離職しそうな従業員がやめないように、会社に縛り付ける方法をAIに提案してもらう

という使い方になると、もはや管理化されたディストピアの世界になってしまいます。組織というのは人が入れ替わっていくものですから、どのような人が管理職になってもディストピアにならないための工夫は必要なのかな、と思います。

従業員の「管理」を強める仕組みはやめたほうがいい

マネージャーとは「管理する人」という意味ですが、従業員をコントロールするという発想は従業員を苦しめます。これは持論ですが、マネージャーの役割とは、従業員が働きやすいように仕事を振ったり、相談に乗るというサポート面が最も重要であると考えます。

会社は軍隊組織をもとに作られているので、たしかにトップダウンで動く面もありますが、これからの時代は従業員のエンゲージメントが高い企業しか生き残っていけません。そして従業員のエンゲージメントを高めるには、自主性や希望を尊重するということが大切なのです。

それにも関わらず、従業員の状態をデータで「監視」している状態になっていまえば、従業員は非常に窮屈で苦しい思いをすることになります。

そのため、なるべく情報は双方向に共有できる仕組みにしたほうが良いのです。上司から部下の情報は見れるのに、部下から上司の情報が見えないという一方通行の関係は、従業員の自主性や創造性を殺すことにつながりかねません。

また、部下は上司に仕事について報告する義務はありますが、その逆はありません。上司から部下に仕事の進捗をすべて話す義務はないのです。しかも、権力も持っているので上司は情報隠蔽などが容易にできます。つまり、上の人間の権力を強めてしまうと、既得権益や情報隠蔽などが発生しやすくなります。

AI導入によるメリット・デメリットを説明して納得してもらえるか

結局、AI導入で大切なことはこれに尽きるのだと思います。情報共有が足りておらずに信頼関係が崩れて退職するというのはよくある話です。偉い人だけでAI導入をすすめるのではなく、現場の意見を聞いて納得してもらいながらすすめるということが重要なのです。

そして、AIを開発する側の人間は(僕を含めて)、自分が作るAIツールの仕様が、どのような影響をもたらすのか、どのような使われ方が想定されるのかといったことを、しっかりと考えなければいけません。なぜならば、依頼をしてくる人が全員いい人だとは限らないからです。

もし、自分が作ったAIが悪用されて傷つく人が出てきてしまうのならば、それは自分の責任でもあります。少なくとも、AIとは大きな影響力を持つものですから、エンジニアであっても倫理観に照らし合わせるとともに、深い想像力を用いてさまざまな状況を想定することが大事ではないでしょうか。