ChatGPT時代における偏見を取り除くための説明可能なAIの重要性
人工知能の誕生以来、このテクノロジーは断続的な興奮や不安、そしてもちろん業界全体の進歩の源となってきました。
スカイネットから医療における革新的な診断機能に至るまで、AI には想像力を掻き立て、イノベーションを推進する力があります。
一般の人々にとって、AI に関する議論は通常、突飛な終末シナリオ、ロボットが私たちの仕事を奪うことへの懸念、あるいは自動化によってよりバランスの取れたワークライフ パラダイムがどのように促進されるかについての興奮が中心です。 ほとんどの人にとって、AI の実際の応用と理解はそのほとんどが視界から隠されており、そのことが空白を埋める誤解につながっています。
AI の最も魅力的なユースケースは長い間、企業、政府、テクノロジー大手の領域でしたが、OpenAI の ChatGPT の登場ですべてが変わりました。 これは、大規模な言語モデルとその生成機能が大量消費に広く利用できるようになった最初の例です。
これは、さまざまな状況ですぐに、そしてさまざまな程度に役立つ AI プレイグラウンドを作成しました。
しかし、最も顕著な問題は、AI の黎明期から存在するものであり、偏見です。
最近、データサイエンティストは、モデルの結果が顧客やエンドユーザーに悪影響を与える可能性がある業界で特にプレッシャーを感じながら、モデルからバイアスを取り除く方法を模索することに全力を尽くしています。
たとえば、金融サービスに関しては、意思決定を迅速化し、サービスを向上させるために、意思決定アルゴリズムが長年使用されてきました。 しかし、融資の文脈では、偏ったモデルの産物である「悪い」または「間違った」決定は、個人に悲惨な結果をもたらす可能性があります。
バイアスを排除するには、データ サイエンスと機械学習のチームがソリューションを構築しているコミュニティの代表者であることの確認、または少なくともモデルに公平性を組み込む原則を理解していることの確認から、モデルが説明可能であることの確認まで、多角的な戦略が必要です。
ベスト プラクティスとしての説明可能な AI の背後にある主な動機は、「ブラック ボックス」の機械学習モデルを排除することです。 ブラック ボックスは多くの場合、高性能ですが、その結果が理解できない場合、不正確さまたは差別の告発に対して具体的な防御策はほとんどありません。
意思決定モデルが重大な結果をもたらす可能性がある業界では、消費者と規制当局の両方から説明責任の強化を求める圧力が高まっています。そのため、企業は時代の先を行く努力をする必要があると私の考えではあります。
バイアスを考慮する際に説明が必要なモデルの主要なコンポーネントは無視されることがよくあります。 データ サイエンティストと機械学習エンジニアは、モデルを構築するときに使用する標準パイプラインを持っています。 もちろん、データはすべての中心であるため、データセットを調査し、それらの間の関係を特定することから始めます。
次に、データを使用可能な形式に変換できる探索的データ分析を実行します。 次に、フィーチャ生成を開始する前に、データのラングリング、クリーンアップ、および前処理を行って、目前の問題を解決するためのより有用なデータの記述を作成します。
次に、さまざまなモデルを試し、パラメーターとハイパーパラメーターを調整し、モデルを検証し、パフォーマンスの高いソリューションが得られるまでこのサイクルを繰り返します。 ここでの問題は、各段階で公平性を確保するための熱心な努力がなければ、結果として偏った結果が得られる可能性があることです。
もちろん、バイアスを完全に除去することを保証することはできませんが、モデル開発の各段階が公平性を優先する方法論に確実に準拠するように努力することはできます。
これを実現するための私の推奨事項は、まずモデルをトレーニングするための多様なデータセット、つまり最も代表的なデータセットを選択することです。また、モデルとモデルが方法論にどのように適合するかを説明する標準化されたプロセスとドキュメントを開発して、パフォーマンスと意思決定を確実に行うことです。理解した。