banner

ブログ

Aug 05, 2023

ビジネスが直面する機械学習の 6 つの課題

ゲッティイメージズ/iStockphoto

機械学習は、企業が顧客サポートを強化し、不正行為と闘い、製品やサービスの需要を予測するのに役立つ洞察を約束します。

しかし、テクノロジーを導入し、期待されるメリットを実現することは、控えめに言っても難しいことが判明する可能性があります。 新しいツールの導入には厄介な問題が発生します。投資の不足とユーザーの受け入れの欠如が障害の 1 つです。 しかし、機械学習 (ML) を導入する組織は、倫理から認識論的な不確実性まで、さらに広範な一連の懸念に対処する必要があります。

企業が考慮すべき ML の 6 つの課題は次のとおりです。

新しいテクノロジーを追求する場合、組織はある程度のリスクを負います。 ML の場合、潜在的な危険は大きく迫り、多次元になる傾向があります。

「私たちが目の当たりにし、すべての組織が取り組んでいる最大の課題は、実際には倫理的懸念、安全保障上の懸念、経済的懸念、法的考慮に関連している」とコンサルティング会社EYの南北アメリカデータリーダー、ザキール・フセイン氏は述べた。 「これら 4 つは通常、多くのクライアントが常に問い合わせているものです。」

ML モデルのバイアスは、倫理的問題の上位にランクされます。 たとえば、そのようなモデルをトレーニングするために使用されるデータには、特定の母集団内のすべての人々のグループを表すデータが含まれていない可能性があります。 結果として得られるモデルは、体系的に偏見のある結果を生成します。

セキュリティに関しては、ML の導入者はいくつかの問題に対処する必要があります。 SlalomのマネージングディレクターでフィラデルフィアのAI/MLプラクティスのリーダーであるDavid Frigeri氏によると、それらには、カスタマイズを計画しているオープンソースモデルとともにマルウェアをダウンロードする可能性のあるデータサイエンティストや、即時エンジニアリング攻撃が含まれるという。 Slalom は、戦略とテクノロジーに重点を置いたコンサルティング会社です。

同氏はまた、データポイズニングにも言及した。これは、脅威アクターが企業のトレーニングデータに侵入して、分析結果やモデルの出力に影響を与える攻撃である。

セキュリティの問題は、特に生成 AI のコンテンツ作成の側面において、より広範な信頼に関する懸念と密接に関係しています。 「場合によっては、[AI] が作成したコンテンツを常に信頼できるとは限りません」とフリゲリ氏は言う。 「何が信頼でき、何が信頼できないかを判断するには、いくつかの抑制と均衡が必要です。」

一方、経済的な懸念は職場の問題と、AIが影響を及ぼすと予想される推定3億人の雇用を中心に展開しているとフセイン氏は述べた。 同氏は、一部の企業はAIが仕事をできると信じているポジションへの人材採用をすでに中止していると指摘した。

そして法律分野では、フセイン氏は、ChatGPTを利用して準備書面を作成したニューヨーク市の弁護士の事例を挙げた。 この AI ツールは法的な引用をでっち上げており、この技術がどのように幻覚を引き起こし、エラーを引き起こす可能性があるかを浮き彫りにしています。

ML を導入している組織は、このような問題に正面から取り組む必要があるとフセイン氏は言います。 リスク軽減に役立つ対策には、明確な倫理ガイドラインとガバナンスの確立、データ品質の優先順位付け、モデル開発の公平性の強調、モデルの説明可能性の確保などが含まれると同氏は付け加えた。

モデルの構築を急ぐあまり、組織は ML で対処できる問題を組み立てるという難しいタスクを回避してしまう可能性があります。

「私たちは、問題を愛するというシンプルな考えからクライアントとの会話を始めます」とフリゲリ氏は語った。 「多くの場合、人々は問題が何であるかを定性的および定量的に完全に理解する前に、解決策に夢中になってしまいます。」

組織が ML の強力な問題候補を選択できなかった場合、プロジェクトは消滅します。 選択した問題がことわざの針を動かさない場合、概念実証にはリソースが不足し、「学習や実用化」を実現できなくなるとフリゲリ氏は指摘する。

問題を解決するのに苦労している組織は、適切な使用例を考え出すことも難しくなり、導入が妨げられることになります。 Gartner がインタビューした企業ストラテジスト 200 人のうち半数以上が、新興テクノロジーを導入する際の最大の障害として「明確なユースケースの確立」を挙げています。 市場調査会社の2023年7月のレポートによると、MLなどのAI関連ツールを使用しているストラテジストはわずか20%だった。

共有