機械学習・AI

AIと倫理~管理職が行うべきこと~

世界有数のグローバル企業であるGartnerに25年間勤め、
エグゼクティブバイスプレジデント(リサ―チ&アドバイザリー部門責任者)としての経歴ももつグローバルITリーダーPeter Sondaergaard(現2021.AI取締役会長)。
彼の記事の翻訳シリーズ第2弾です。

元記事:AI Ethics – An Executive Responsibility

信用できるAIとAI倫理の表明

PoCの拡大

ここ2年間で、多くの経営者にとって、人工知能(AI)が意識の対象として重要な位置を占めるようになったことに疑いの余地はない。 CEOをはじめとした経営層による、PoCの実施に対する支援も増加している。 先進的な企業にとって、これらのプラットフォームは拡大しており、一時的なものではない、ビジネス上重要な実証実験となっている。

倫理ガイドライン策定の遅れ

しかし、AI分野において目に見える、かつ認知されるような功績をあげることを急ぐあまり、経営者は「信頼できるAI」、そしてAIに対する倫理的な立場を、会社として確立する必要性を無視している。 加えて、AIの信ぴょう性、倫理的立場を明らかにすることだけが経営者の責任ではない。

ガイドラインの公開

顧客、従業員、サプライヤー、そして投資家といった重要なステークホルダーに向けて、AIにまつわるガイドラインを公開する責任がある。 さらに言えば、AIや機械学習が組織に、そして社会にどのような影響を及ぼすか、という点について、真剣に説明することも求められる。

AIガイドラインの必要性

専任担当の必要性

上に述べた行動は組織にとって重要である。 AIや機械学習をとりまく環境は、様々な組織内で急速に大きくなっているからだ。 したがって専任の管理職を置き、一連の活用原則(ガイドライン)を慎重に設計していかなければならない。

リスクの原因

そうでない限り、バイアスや有害性、透明性の欠如などは、組織にとって重大なビジネス上のリスクに変化する。 CEOは組織のためにAI倫理、信ぴょう性のガイドライン作成を後押しする必要があるのだ。

リーディングカンパニーの動向

GoogleやMicrosoftのような巨大IT企業は既に公的立場を明示している。
AIを起点にビジネスを創造しており、同時にAIビジネス成功のカギを握る彼らにとって、明らかに重要だからである。 AIを自社の製品に利用している、またAIや機械学習を用いたソフトウェアを利用しているあらゆる組織は、彼らのような手本に倣うべきだ。

参照(英文)
Our Principles -Google AI
AI Principles & Approach from Microsoft

IT外の業界

一方、銀行や製薬会社、公的機関などのIT関連以外の業界では、AIにまつわる立場を公表している組織は多くない。 もちろん内部的に立場を取り決めたり、CIOやCDO(Chef Digital Officer)間での話し合いを設けたりしている企業もある。 しかしそれを公的に明らかにしている組織はほとんどない。

ソフトウェアやデータが組織の在り方を決定づけるようになっている中で、AIや機械学習における公的な立場の検討は、組織にとって最重要課題である。

Ethics Guidelines for Trustworthy AI

欧州委員会によるガイドライン

先日、欧州委員会( the European Commission )は、CEO、そして行政機関のリーダーにとってインスピレーションのヒントになる提案 『Ethics Guidelines for Trustworthy AI(AIの信ぴょう性に対する倫理ガイドライン)』 の草稿を発表した。

主要10(7)要素

これは政策や規定として設計されたものではなく、企業や政府機関が取り入れる、もしくはインスピレーションを得るための動的な文書として作成された。 文書は信頼できるAIの10の要素を挙げている。

  • 人間の監督
  • 信頼できる安全性
  • プライバシーとデータ保護
  • 透明性
  • 多様性、非差別、公平性
  • 社会、環境の幸福
  • 説明責任

※元記事の発表当時、ガイドラインの草稿には10個の要素が挙げられていたが、2019年4月に発表された正式版では7個の要素に集約された。そのため、本稿においては現在のガイドラインに倣い、7個の要素を記載する

概説

全ての要素があらゆる組織に当てはまるわけではないものの、これらの要素は議論のスタート地点として優れている。 10個それぞれの要素について、企業が各々の立場を自身で選択することができるものとして、その具体的内容を文書は概説している。 さらに、AIの基本的な権利、目的、そして価値の提案を通じ、AIの倫理的な意義について、一通りの原則も同時に述べている。

まとめ

経営者にとって、組織の中で議論を行うために必要な要素は欧州委員会の文書の中にすべて揃っている。 経営者はすぐにでもAIにまつわる議論を開始するべきだ。
議論の結果を公式文書とし、その組織のステークホルダー全員が、組織の立場を認識することを担保する必要もある。

AIに対する公的で、明示的かつ倫理的な立場は、企業責任の「ものさし」となることからも、作成を義務付けられるべきである。

翻訳者あとがき

本稿はAI倫理ガイドラインの必要性を得るための入り口として書かれている。 本文中で挙げられた企業はもちろん、日本国内においても既に複数の企業が倫理ガイドラインを公式に発表している。また、今回例示されたガイドラインは欧州委員会によるものであったが、歴史的経緯などが影響し、AI先進国内でも地域により様々なAIガバナンスが検討されている。

AIという文脈において、日本の遅れはしばしば取りざたされるところではある。一方、既存の概念、考え方を集約し、より洗練された倫理ガイドラインを検討する好機ととらえるのもいいかもしれない。組織の大小に関わらず、改めて「人工知能」というものを吟味することは、安心で信頼できるAIを、世界に提案する礎となるかもしれない。

関連記事Related Posts