Pages

Tuesday, October 24, 2023

企業が「責任あるAI」を実践するための13の原則 倫理的リスクを ... - DIAMOND ハーバード・ビジネス・レビュー

企業が「責任あるAI」を実践するための13の原則

Boris SV/Getty Images

サマリー:AI(人工知能)の開発競争が加速する中、企業はその開発ペースを落とすことができない。だが、それでは倫理指針の策定やバイアスの検出など、企業が責任を持つべき重要な対策を怠り、大きな損害を被る可能性がある。... もっと見るこうしたAIの倫理的リスクを回避するために、筆者らは「責任あるAI」を実践するための13原則を提案する。 閉じる

AI開発のジレンマ

 好むと好まざるとにかかわらず、急拡大するAI(人工知能)の勢いはしばらく衰えそうにない。しかし、その活用の仕方を間違えると、企業の評判はたちまち損なわれてしまう。そのことは、(かつて炎上した)マイクロソフト初のチャットボット、テイ(Tay)に尋ねてみればわかる。

 技術競争が加速する中、どの企業も、開発ペースを落としたら自社だけが取り残されてしまうのではないかと恐れている。他社と協調するにはリスクが高く、他社を出し抜くほうが好都合だという、ゲーム理論で「囚人のジレンマ」と呼ばれる状況にある。企業にとっては大勝負の局面でもあるため、AI開発に倫理性や公平性などを保つ「責任あるAI」を実践するのにはリスクが伴う。

 いまの「AI軍拡競争」を駆り立てているのは、市場投入のスピードを優先する企業である。大手各社が製品化を急ぐあまり、倫理指針の策定やバイアスの検出、安全対策といった重要な配慮を怠っているおそれがある。たとえば、大手テクノロジー企業は、責任ある行動が最も必要とされる時に、AI倫理チームをレイオフした。

 AI軍拡競争の参加者は、オープンAI、グーグル、メタ・プラットフォームズのような大規模言語モデル(LLM)の開発者だけでない。自社のカスタムアプリケーションにLLMを活用している企業が多数あることから、大手以外にも広がっていることを認識すべきである。たとえば、プロフェッショナルサービスの世界では、大手経営コンサルティング企業のPwCが、100カ国に分散する弁護士4000人のためにAIチャットボットを導入すると発表した。

 このAIアシスタントは「契約分析、法令遵守業務、デューディリジェンス、その他の法律顧問およびコンサルティングサービスを担う弁護士を支援する」という。PwCの経営陣は、このAIチャットボットを税務に拡大することも検討している。同社は合計で10億ドルを生成AIに投入し、革新的なパフォーマンス向上を実現できる、強力な新ツールをつくる計画だ。

 同様の流れで、KPMGはカイムチャット(KymChat)と名付けた独自のAIアシスタントを導入した。このAIは、全社から社内の専門家を迅速に見つけ出し、プロジェクト要件と空いているスタッフとの組み合わせをもとにして、自動的に提案書を生成する。「チーム横断的なコラボレーションを可能にし、入社間もない社員でも円滑かつ効率的に組織内の人々にアクセスできる」ものだという。

 スラックも生成AIを取り入れ、従業員がハードにではなく、スマートに働くためのAIアシスタント「スラックGPT」を開発した。このプラットフォームには、会話の要約や文章作成支援など、利用者の生産性を高めるためのさまざまなAI機能が組み込まれている。

 こうした例は全体のごく一部にすぎない。まもなく何億人ものマイクロソフト365ユーザーが、マイクロソフト365のデータの解読を助けてくれるエージェント、ビジネスチャットにアクセスできるようになる。今後、議事録やメールのやり取りに基づく進捗報告の概要作成から、戦略の欠陥の洗い出しや解決策の考案まで、あらゆることを指示できるようになるのだ。

 AIエージェントのこの急速な展開を受けて、IBMのCEO、アービンド・クリシュナはこのように記している。「信頼できるA.I.と共に働くことは、我々の経済と社会に大きな変革をもたらすでしょう。(中略)会社としてそのパートナーシップを受け入れ、A.I.が起こす変化に対応できるよう、社員の態勢を整える時が来ているのです」。簡単に言えば、AIツールを導入した企業には飛躍的な成長が見られ、適応しない企業は取り残される危険性があるということだ。

職場におけるAIリスク

 残念ながら、競争に参加し続けるにしても、企業と社員の両方にそれなりのリスクがある。たとえば、2022年にユネスコが発表した「女性の労働生活におけるAIの影響」に関する報告書によると、採用プロセスにおいて、女性はAIによってキャリアアップの機会から排除されている。この報告書でも引用された、6万件以上のターゲット型求人広告を用いて21の実験を実施したある研究によれば、「性別欄で『女性』を選択した場合、『男性』を選択した場合よりも、表示される高収入の求人件数が少なかった」のだ。

 このような求人募集や採用におけるAIのバイアスはよく知られているが、すぐになくなることはないだろう。ユネスコの報告書に記されているように、「2021年のある研究では、広告主が男女のバランスの取れたオーディエンスを求めた場合でも、フェイスブックの求人広告では男女に偏りが見られた」。その原因は主にデータの偏りにあり、AIツールがそれに「感染」し続け、多様性、公平性、包摂性といった重要な従業員指標を脅かし続けるのである。

 雇用における差別は、生成型AIが企業にもたらすさまざまな法的リスクの一つにすぎない。たとえばオープンAIは、チャットGPTが有害な誤情報を作成したとして、初めて名誉毀損で訴えられた。具体的には、チャットGPTが実際の裁判事件の概要を作成したが、そこにジョージア州のラジオ番組司会者に対する横領嫌疑という虚偽の訴訟情報が含まれていた。これは、AIが生成した情報を共有することで、企業自身が被るマイナス影響を浮き彫りにしている。LLMが虚偽の中傷的なコンテンツを捏造し、風評被害、信用失墜、顧客の信頼低下、深刻な法的影響につながるという懸念を示す事例である。

 名誉毀損に関する懸念に加え、著作権や知的財産権の侵害に関するリスクもある。ライセンス供与されたコンテンツを不適切に使用した疑いで、生成AIツールの開発者が訴えられた、いくつかのケースが注目を集めている。著作権や知的財産権の侵害が起きることは、その法的な影響も相まって、生成AI製品を利用する企業に対して重大なリスクをもたらす。

 企業は、ライセンス供与されたコンテンツを不適切に使用してしまい、潜在的な法的影響にさらされる可能性がある。なぜなら、生成AIを通じてつくるコンテンツには、盗用、無許可の翻案、ライセンスなしの商業利用、クリエイティブコモンズやオープンソースのコンテンツの不正利用などが含まれており、企業は無意識のうちにこれに関与してしまうからだ。

 また、従業員が誤ってサードパーティーのAI開発会社に機密データを提供してしまうおそれもある。サムスンの従業員がLLMを使ってソースコードをレビューしている最中に、意図せずチャットGPTを通じて企業秘密を漏らしてしまったという深刻事例もある。データ共有状態を解除しなかったために、機密情報が誤ってオープンAIに提供されてしまったのだ。サムスンなどが会社所有のデバイスでサードパーティ製AIツールの使用を制限する措置を講じたとはいえ、従業員が個人所有のデバイスで同様のシステムを使用できれば、情報漏えいの懸念は残ったままだ。

 こうしたリスクに加え、企業はまもなく、ばらばらでやや不透明な新しい規制に対応しなければならなくなる。たとえば、ニューヨーク市で採用活動を行う企業は、求人募集や採用に用いるAI技術が同市の「自動雇用決定ツール」法に違反しないように注意しなければならない。企業は、この新法を遵守するために、第三者に採用ツールのバイアス監査を依頼して監査結果を公表するなど、さまざまな措置を講じる必要がある。AI規制は、企業に対する法規制の新時代を告げるバイデン=ハリス政権の「AI権利章典のための青写真」によって全国的に、そしてEUのAI法によって国際的に拡大しつつある。

 新しい法規制や落とし穴が漠然と増えていることを受けて、ガートナーのようなオピニオンリーダーは、企業に対して「対応はしても振り回されないこと」と強く提案した。さらに、「CIOとCEOに報告するタスクフォースを設置」し、さまざまな法的リスク、評判リスク、従業員リスクを軽減する安全なAI変革のロードマップを計画することを推奨している。

 このようなAIのジレンマに対して、企業は重要な決断を迫られている。一方では、AIを全面的に取り入れるべきだという強い競争圧力が働いている。しかし他方では、無責任にAIを導入すれば、厳しい罰則、企業の評判への大きなダメージ、業務上の大幅な後退を招きかねないという懸念が高まっている。

 リーダーが他社を出し抜こうとするあまり、知らずしらずのうちに社内に時限爆弾を持ち込んでしまうおそれがある。AIソリューションが導入され、規制が施行されれば、それが大きな問題を引き起こしかねない。たとえば、全米摂食障害協会(NEDA)は最近、電話相談サービスのスタッフを解雇し、新しいチャットボット、テッサ(Tessa)に切り替えると発表した。しかし、移行する数日前に、同社は、ボットが摂食障害の人々にカロリー制限や週に1~2ポンド(約0.5~1キロ)の減量を勧めるなど、有害なアドバイスをしていたことに気づいた。

 また、世界銀行は10億ドルを投じて、タカフル(Takaful)と呼ばれる金融支援をするためのアルゴリズムシステムを開発・導入したが、人権NGOヒューマン・ライツ・ウォッチから、それが皮肉にも不公平を生み出していると指摘を受けた。ほかにも、ニューヨークの2人の弁護士が、チャットGPTを使用して裁判書類を作成したところ、存在しない過去の事例をいくつも参照していたことが発覚した。彼らは今後、懲戒処分を受ける可能性がある。

 これらの事例は、十分な訓練とサポートを受けた従業員がこの変革の中心になる必要性を示している。AIは、貴重なアシスタントとしての役割を果たすことはできるが、主導的な立場に就く存在ではない。

Adblock test (Why?)


からの記事と詳細 ( 企業が「責任あるAI」を実践するための13の原則 倫理的リスクを ... - DIAMOND ハーバード・ビジネス・レビュー )
https://ift.tt/nLGuK10

No comments:

Post a Comment