May 1, 2020

デジタルヒューマンがどのように教皇のより強固なAI倫理への計画に組み込まれるのか

2020年、教皇はAIへの倫理的アプローチを呼びかけました。そして、私たちはそれ以上に同意することはできません。

デジタルヒューマンがどのように教皇のより強固なAI倫理への計画に組み込まれるのか

- この記事は、digitalhumans.comから機械翻訳し、修正したものです

ローマの呼びかけ。これはダン・ブラウンが次の小説のアイデアに詰まった時に思いつきそうな名前だと思われるかもしれません。しかし、いいえ、ローマの呼びかけはダ・ヴィンチ・コードの手抜きした続編ではありません。まず始めに、これはノンフィクションです。

2月、教皇フランシスはバチカンが人工知能(AI)倫理フレームワークを支持することを発表しました。‘ローマのAI倫理に対する呼びかけ’は、AIの適切な利用を促進するための6つの主要な原則への誓約です。そして、すでにIBMやMicrosoftといったテクノロジー業界の大手がこれに賛同しています。

AI倫理について語る教皇

もしAIの最先端を押さえている人物を一人挙げよと言われたら、教皇が最初に思い浮かぶ人物ではないかもしれません。 しかし、最高教皇と彼の指導下にある各研究団体は、AI、ロボティクスなどの新興技術が信仰や人間性などの問題に与える影響を一定期間調査してきました。

頂点として、バチカンはAI倫理の6つの重要な原則を定義しました:

  1. 透明性
  2. 包括性
  3. 責任性
  4. 公平性
  5. 信頼性
  6. 安全性とプライバシー

これらは、私たちUneeQが非常に重視する基本原則です。とりわけ、これらは私たちの「Ethical Digital Human Designの五原則」:誠実さと透明性、AIの善用、プライバシー、尊重、共同設計(偏見を避け、多様性を促進するため)と非常に近いからです。

AIは倫理的ですか?

AIの倫理的な影響は、常に議論の的となってきました。しかし、ディープフェイク技術の急速な進歩、フェイクニュースを配信するボットの増加、その他の悪意あるAI使用事例は、これらの問題を最近より明瞭にしました。

どんなツールでも、会話AI(そしてAI全般)は、その作成者と適用者の倫理観次第です。そして、どんなに意図が高尚でも、すべての創作者は個人的な偏見や判断の誤りに陥る可能性があります。 アルゴリズムは学習するように設計されていますが、不適切なデータや不完全なデータから学習すると、間違ったことを学ぶ可能性があります。

包括的で原則に基づいたフレームワークを設計することで、AIの最善の未来を確保することができます。

パートナーや第三者がどのようにこのテーマ性に位置づけているかを理解することで、自分の価値観と一致する人物と仕事をしやすくなります。

そこで私たちは昨年、「倫理的なディジタルヒューマンデザインの五法則」を立ち上げました。また、他の組織もEU、IEEE、Googleを含む倫理的なAIのガイドラインを開発するために尽力しています。

これらはすべて異なるフレームワークですが、倫理的なAIを提供する方法について共通のビジョンと同様の視点を大方示しています。最低限、これらのフレームワークは対話を開くためのもので、すべての人が参加することが重要です。

AIの倫理とデジタルヒューマン:その利点

ローマ教皇庁のビジョンである「ローマコール」は、倫理的なAIについて明確に述べています:

「AIシステムは、人間と彼らが生活する環境を奉仕し、保護するために構想、設計、実装されなければならない」

さらに「AIベースの技術は、特に最も脆弱な人々を決して利用してはならず、代わりに人々が彼らの能力を開発するのを助けるために使用しなければならない(エンパワーメント/エンエイブルメント)」

奉仕、保護、エンパワーメント、エンエイブルメント。これらは立派な目標ですが、実践的にはどういう意味を持つのでしょうか? 嬉しいことに、AIがデジタルヒューマンの形でどのようにこれらの利点を提供できるか、多数の例があります。

提供:デジタルヒューマンは年中無休、24時間体制で利用でき、無限にスケーラビリティがあります。これは、消費者が必要なときにいつでもデジタルヒューマンと関わる可能性が実質的に無限であることを意味します。例として、UBSという企業を挙げてみましょう。同社は、自社のチーフエコノミスト、ダニエル・カルトをデジタル化しました。本物のダニエルには1日にできる時間が限られていますが、彼のデジタルダブルは常に利用可能で、UBSのクライアントに重要な洞察を提供し、質問に回答し、アドバイスを提供します。笑顔と声、そして素晴らしいIQでの対応、まさに本物のダニエルのように。

保護:精神的、物理的健康を守るだけが、デジタルヒューマンが提供できる保護の一つです。デジタルヒューマンはコスト効果が高く、判断しないし、ユーザーと強力な感情的なつながりを形成できます。このため、デジタルヒューマンは患者が医療専門家と議論するのが些細だったり恥ずかしいと感じるかもしれない質問の優れた初回コンタクトとなります。私たちが保健セクターで推進しているデジタルヒューマンの多くの最終目標は、健康問題から回復する患者が、食事、薬、リハビリなどについてデジタルヒューマンと自然な会話を持つことを可能にすることです。

強化:研究によると、人々は能動的な学習を通じて、受動的な学習よりも速く発展します。言い換えると、参加とエンゲージメントは、教科書と講義を凌ぐことが多いのです。 デジタルヒューマンは、声、口調、テキスト、身体言語を通じてコミュニケーションを行い、ユーザーが体験できる世界を広げ、より自立させることができます。VARKの学習方法論によれば、学習スタイルは4種類存在し、私たちは誇りに思っています。デジタルヒューマンは、これら4つすべての方法で人々と関わることができます。そのため、大多数の人々にとって有益なツールとなるでしょう。

ENABLE:我々が議論してきたデジタルヒューマンの多くの特徴は、特に弱い立場の消費者にとって非常に有益です。例えば、身体障害を持つ人々は、実際の店舗を利用し、買い物をする際に多くの課題に直面します。Eコマースはこれらの障壁を一部解消することができますが、顔を合わせるコミュニケーションがなくなるという大きなコストが発生します。All is for Allはこれらの問題解消を目指す企業であり、デジタルヒューマンはその解決策の一部です。彼らはオンラインで消費者と会話し、衣服の選択に関するアドバイスや、車椅子利用者のようなユーザーに対するフィット感の説明をすることができます。これはまだ始まりに過ぎず、小売業をより親近感のあるものにし、アクセスしやすくする可能性は無限大です。

AI倫理の未来

これらはすべて、デジタルヒューマンが基本原則に基づくAI倫理の枠組み、フランシスコ教皇のローマのコールにどのようにフィットするかの一部分に過ぎません。

デジタルヒューマンは、人間とマシンの相互作用をより良いものに変える可能性を秘めています。しかし、AIが損害を与えたり、感情的な問題を引き起こしたりしないよう、常に警戒心を持つ必要があります。

AI倫理とは終着駅のない旅であり、社会の道徳、基準、価値観は常に進化し続けています。 私たちはコミュニティが集まり、彼らの考えやアイデアを共有することを推奨しています - 是非ともデジタルヒューマンデザインについて特化した専用のLinkedIn Groupで自由に行ってください。そして、あなたのストーリーを共有してください。

成功したAIの革新は常に優れた「なぜ」に支えられています。強固な、原則に基づいた倫理的な基盤が必要です。以下から私たちのガイドラインを読むことができます。これは「倫理的なデジタルヒューマンデザインの5つの法則」をダウンロードすることで可能です。