Attuned

View Original

これからのAI技術は人間性に根ざしたものでなければならない

50年以上にわたる内発的動機付けの研究に基づき、学術的・臨床的な専門家チームによって特定された「11のモチベーター」を中心に構築されたAttunedプラットフォームの基礎は心理学です。しかしそれと同じくらい重要なのが人工知能(AI)です。AIは、複雑なアルゴリズムと高度な統計モデルを用いて、回答データを実用的な洞察に変えることができます。

ほとんどの技術革新がそうであるように、AIは私たちの生活や仕事のやり方を改善するために使われることもあれば、悪質な目的のために使われることもあります。したがって、AI技術とその利用方法が倫理的に優れたものであることを保証するためのチェック・アンド・バランスが必要となります。このような意味で、EUがAIに関する史上初の規制法的枠組みの構築を提案したこと(英語)は、歓迎すべきニュースです。

人間には、潜在的な問題を明らかにしてそれらを効率的かつ効果的に解決する能力があります。私たちAttunedは、AIを良い方向に導くために、そういった能力を高めるためにAIを使用すべきだと考えています。私たちがAttunedを設立したのは、人間同士の理解を深めるためでした。だからこそ、新しいAI技術は人間性に根ざしたものでなければならないと考えるのです。

良いAIには良いEIが必要な理由

では、どうすればAIに人間らしさを吹き込むことができるのでしょうか。そのためには、機械が単に知能を身につけるのではなく、EQ(感情知能指数、Emotional Intelligence)を持っているかどうかを確認することから始めます。AIの発展を支えるEQを確保するためには、技術がまだ比較的初期の段階にある今、AIをどのように使うべきか(使うべきではないか)という倫理的な議論をすることが不可欠です。さらに重要なことは、AI企業があまりにも大きく強力になりすぎてコントロールできなくなる前に、AI企業をコントロールすることです。


AIの最も厄介な要素のひとつは、人工的な意思決定がどのように機能するのかがよくわからないことです。ブラックボックスなのです。AIはデータを学習させて作りますが、結果が出ても、なぜそのような結果になったのかがわからないのです。論理を問うことも、思考を探ることもできず、ただ結果が出るだけです。


(しかしLIMEのように、AIのディシジョンツリーを理解するための技術が登場してきており、その過程で意思決定に対して信頼関係を築くことができるかもしれません。願わくば、このような技術や信頼醸成措置が、AI規制に関する議論やその結果としての決定に含まれることを期待します。)

データのバイアスと多様性の吹き込み

AIの意思決定が不透明であることを考えると、AIをどのように訓練するかがより重要になり、データの質が重要になります。

そのために重要なのが、多様なデータを準備することです。AIが人間の意思決定の再現や人間の識別に関わる場合や、AIの意思決定が私たちの生活に直接影響する場合には、AIが適切に訓練されているかどうかを確認しなければなりません。そのためには、身体的特徴や文化的行動、信念体系や思考プロセスなど、人間の全領域を網羅する多様なデータセットを使用する必要があります。もし機械学習に多様性が考慮されていなければ、私たちが作るAIは、現在の社会に存在する偏見を強化し、もっと悪い場合には増幅してしまうことになります。

このようなAIがもつバイアスの問題は現実に起こっており、抜本的に対処する必要があります。AIの用途は日々増え続けており、一見良さそうな用途であっても現実に悪影響をもたらす可能性のあるバイアスが入っている可能性が指数関数的に増加しています。そしてこのままAIを支える企業が大きくなり、適切な予防策を講じないまま利用が習慣化されると、現在のバイアスをさらに固めてしてしまう危険性があります。

規制とイノベーションのバランス

AIを取り巻く問題に対処し、その開発を規制するために政府が最適な立場にあることは理にかなっています。そのためには、考え抜かれたルールを作る一方で、イノベーションや新しい企業が成長して競争力を高めることを制限するような強引な規制を避けるバランスが必要です。もちろん政府による規制は、AI研究者がデータの品質に対する責任を負うという選択肢よりもはるかに優れています。善い研究者であっても、偏ったシステムを作ってしまう可能性はあるからです。

また、AI研究者の人口動態によるさらなる複雑さもあります。WIRED誌が2018年に行った調査(英語)では、AI研究者のうち女性はわずか12%であり、女性に関するデータ、あるいは女性の視点がAIのトレーニングに十分に反映されないことがわかりました。マイノリティも同様です。つまりAIを作る人たちは、私たちの社会を十分に反映していないため、自分たちとは異なる視点でAIを訓練する能力を十分に持っていないのです。この問題に社会レベルで取り組まなければ、そして代理として政府レベルでも取り組まなければ、Amazonが今では廃盤にしたAI採用ツール(英語)や、米国の裁判所で行われた再犯率を予測する欠陥のある試み(英語)など、AIによる差別の問題に対処し続けることになるでしょう。

AIがより複雑になり、私たちの生活のインフラに浸透していくにつれ、たとえそれが過失によるものであっても、差別がより悪質になり、その有害な影響がより微妙になる可能性が高いという現実的なリスクがあります。

政府の関与や潜在的な規制に対する一般的な反対意見は、イノベーションや競争を阻害するため、コストがかかりすぎるというものです。その結果、新しい企業や新しいサービスが生まれにくくなり、大手企業や資金力のある企業だけが規制を回避することができ、事実上、異なる形の同質性が制度化されることになります。このようなことにならないためにも、社会レベルでのAIの発展にどのようにアプローチするかという議論は、すべての主要なステークホルダーの意見を取り入れながら、早期にオープンに開始することが重要です。

AIの未来を形作る

現在、世界的にはEUがこの議論をリードしているかもしれませんが、他の国々、特に米国と中国は、戦略的な地政学的目的のためにAIの世界的リーダーになろうとしていることは間違いありません。アメリカ国内では、さまざまなアプローチが考えられます。例えば、規制ではなく、連邦通信委員会(FCC)が広告の真実性を要求するかもしれません。あなたのAIが採用に偏りがないと言うなら、それを証明する責任はあなたにあります。

最終的には、AIは何十億人もの人々の生活をより良いものに変える可能性を秘めています。しかし、それを偏りなく公平に行えるようにするためには、開発のフレームワークに最初から組み込んでおく必要があります。簡単なことではありませんが、それは可能です。以下の言葉は苦労してそれらのことを学んだ人の言葉です。

私は先日、Cheddar NewsとBloomberg Radioに招かれ、AI規制の話題について語りました。以下のリンクをクリックすると、それぞれのインタビューが再生されます。

Cheddar News (April 26, 2021)

Bloomberg Radio (May 5, 2021)


Casey Wahl
CEO and Founder