アメリカのラスベガスで2025年3月18日(火)〜20日(水)の3日間にわたり開催された「AdobeSummit 2025」。本連載では、現地に参加したUWメンバーが得た最新情報や今後のマーケティングトレンドなどについてをお届けします。
第3回となる今回は、Adobe Summit 2025で一つのテーマとして取り上げられた「責任あるAI(Responsible AI)」とは何かを解説した後、それを支えるAdobe社によって作られたフレームワークを紹介します。
どんどん進化するAI活用
Adobe Summitで次々と披露されたAIを用いた新機能や仕組みから、デジタルマーケティングの現場ではAIの活用が急速に進化していることが強く感じられました。広告配信の最適化からパーソナライズされたコンテンツの生成、顧客行動の予測、チャットボットによるカスタマーサポートまで、AIの適用範囲は年々広がっています。特に生成AIの登場により、従来は時間と手間がかかっていたクリエイティブ業務やコピーライティングの自動化が進んでいる事例も紹介されました。AIの導入は単なる業務効率化にとどまらず、顧客との接点をより精緻に設計し、エンゲージメントを高めるための武器として注目されています。
マッキンゼー社が実施したグローバル調査によると、ITだけでなく、全ての業界においてAI活用(生成AI及びAI分析を含め)が益々加速しているそうです。回答者の4分の3以上が、自社では少なくとも1つの業務機能でAIを活用していると回答しています。特に、生成AIの活用が急速に拡大しています。回答者の約8割が「少なくとも1つの業務機能でAIを利用している」と回答しており、昨年の5割から着実に増加していることが示されています。
AI活用の加速に伴い、企業は益々とAIによる実際のビジネス成果を生み出すための取り組みを始めていることが調査結果の中でも見受けられます。例えば、生成AIを導入すると同時に企業は業務プロセスを再構築したり、AIガバナンスの監督などの重要な役割に経営層の責任者を配置したりしています。加えて、プライバシー、信頼性、セキュリティ問題など生成AI活用に関連する様々なリスクに対応しようとしている企業も増えています。本記事では、AI活用においてどのようなリスクがあるか、そしてそれらのリスクにどう対応すべきかを解説し、Adobe Summit 2025で取り上げられた「責任あるAI」の事例についてもご紹介したいと思います。
AI導入によって生まれるリスク
企業はAIを活用していく中で、風評被害、著者権侵害、差別、プライバシー問題などの深刻なリスクに晒される可能性があります。実際には、2024年には、エア・カナダの生成AIチャットボットが、忌引き割引について問い合わせた乗客に対して誤ったポリシーを案内してしまった件が話題になりました。また、2023年には、オンライン教育サービスを提供するiTutor Groupが、AIを活用した採用プロセスにおいて、年齢のみを理由に応募者を不採用とした問題も報じられました。これらの事例については、ご存じの方も多いのではないでしょうか。
両方のケースでは訴訟に発展し、最終的に損害賠償金の支払いに至りましたが、企業にとってより深刻だったのは、金銭的な損失よりも、ユーザーからの信頼を失ったことだったかもしれません。

透明性と公平性に欠けるフレームワークでAIを利用すると、短期的な効果は出ても、中長期的にはブランドリスクや信頼損失につながるケースが多いです。AIツールの可能性を最大限に活かすとともにそのようなリスクを最小限に抑えるためには、どうすればいいのでしょうか。顧客や関係者がAIを安心して使用できるようにするためにどのような取り組みが重要になってくるか、Adobe Summitで紹介された先進企業の事例を通して「Responsible AI(責任あるAI)」について解説します。
Responsible AI (責任あるAI)とは何か
まず、「Responsible AI(責任あるAI)」とは何か。責任あるAIとは、AIの設計から運用に至るまでの各段階において、透明性と公平性を確保するための原則やガイドラインのことです。この考え方は、組織がAIを導入または活用する際に、関係者や社会全体からの信頼を得るための土台となります。
責任あるAIは、AIが及ぼす社会的影響を意識し、利害関係者の価値観や法的規範、倫理基準と一致するようにAIを調整・運用するための具体的な対応策の検討が必要です。AIシステムを訓練するのは誰か、そのトレーニングでどのようなデータが使用されたかなどを説明できなければなりません。こうした倫理的な視点をAIシステムや業務フローに組み込むことで、リスクや悪影響を最小限に抑えながら、AI活用によるポジティブな成果を最大化することを目的としています。
それらを実現するためにも、今回のイベントで紹介された、Adobe社が作った責任あるAI活用フレームワークが参考となります。AIに対する信頼の構築を重要視したPrudential社の事例を通してAdobe社のフレームワークについて詳しく見ていきましょう。
Prudential社の責任あるAI事例紹介
Adobe社が開発したフレームワークでは、自社に適したAI方針を築くために、①組織診断、②パイロット実施、③展開、④モニタリングの4つのフェーズがあります。

① 組織診断(Assess)
AI導入を検討している企業が最初の段階ですべきことが2つあります。1つ目は、組織としてAI活用への準備ができているかを確認することです。2つ目は、倫理的に作られている、かつビジネスの目的に合ったAIソリューションを選定することです。
Prudential社は、コーポレートブランディング、クリエイティブ、マーケティングと法務部門のメンバーを集め、生成AI活用に向けて自社ブランドのガイドラインを改めて策定しました。生命保険会社としてどのようなブランディングを強化していきたいかを考えた結果、生成AIを積極的に活用していくものの、人の顔などは生成AIで一から作り出すことをしないと決めました。その決断の上でAI活用への取り組みを始めました。
② パイロット実施(Pilot)
次のフェーズでは、あらかじめ決められたビジネスゴールと組織のAI活用ガイドラインに応じた、優先すべきユースケースを特定し、パイロットを実施します。
Prudential社は、ブランディングがまだ定まっていないクリエイティブビジネスユニットであればリスクが低いと判断し、クリエイティブ部門で生成AIのパイロットプロジェクトを行うことにしました。そのパイロットプロジェクトの成果は2024年のAspen Ideas FestivalでPrudential社が出展したブースの「Flash Forward」というアクティビティとして発表されました。アクティビティの参加者は未来についていくつかの質問に回答し、顔写真を撮ります。そして、Prudential社が開発した生成AIシステムを利用して、参加者の定年退職後の様子をシミュレーションするというものです。
③ 展開(Adopt)
フェーズ3においては、成功させたパイロットをより展開していくために、全従業員にAI活用のトレーニングを提供することが非常に重要だと、Adobe社のグローバルAI戦略部の部門長が述べています。特に、トレーニングは全員に同じものをやらせるのではなく、それぞれのユーザーが使用しているツールに合わせてトレーニング内容をカスタマイズすることが推奨されました。
④ モニタリング(Monitor)
最後のフェーズでは、AIシステムが常に組織の目標・ガイドラインと整合している状態を維持するために、システムをリアルタイムで監視し、パフォーマンスを評価しながら、リスクを検知して先回り対応ができる管理体制を保つことが重要となります。
Prudential社の場合、パイロットアクティビティへのフィードバックの中で、生成された顔写真が「自分らしくない」という声があり、AIモデルのトレーニングにおいて改善の余地があるということに気づけたと言います。さらに、AIシステムに人間の監視を統合することによって、生成AIに創られる画像の質とともに顧客満足度も上げることができました。
AIベンダー選定において絶対に聞くべき5つの質問
ここまで、責任あるAIの社内フレームワークとその具体的な実践事例についてご紹介しました。しかし、AIソリューションの導入を検討している場合、社内だけではなく、AIツールのベンダーなど社外の方と関わることも考えられます。
最後に、Adobe社から紹介のあった、AIソリューションを提供するベンダーの選定において聞いておくべき質問を5つ取り上げたいと思います。

2.著作権、知的財産権、またはライセンスに制限がある可能性のあるデータセットは使用されていないか?
3.トレーニングデータと、AIシステムを開発する際に適用されたロジックについて、詳しく説明してもらえないか?
4.AIシステムに対してバイアスが存在しているかどうかを把握するためにチェックは行われたか?
5.有害な出力の可能性に関するチェックは行われたか?それらのリスクを軽減するために、どのような対策を講じているか?
AIツールを提供しているベンダーが増えている中で、自社のレピュテーションとブランドへのリスクを最小限に抑えるために、ベンダー選定は慎重に行わなければなりません。選定を行う場合、上記の質問を是非参考にしてみてはいかがでしょうか。
まとめ
Adobe Summit 2025では責任あるAIに関するセッションは決して多くありませんでしたが、深く取り上げられていたことから、今後ますます重要視されるトピックになると言えるでしょう。AIが色々な形でどんどんと利用されていく今の時代、AIガバナンスに関する議論が不可欠だと考えます。常に変化し続けるデジタル環境において、私たちマーケターがAIガバナンスや責任あるAIに注目すべき理由は明確です。AIの活用が進む中で、パーソナライズされた体験の提供や業務の効率化といった恩恵が得られる一方で、不適切なデータの使用や偏った出力、プライバシー侵害など、ブランド価値や顧客信頼を損なうリスクも同時に高まっています。
マーケターにとってブランドの信用は最も重要な資産のひとつです。AIの出力したものによって誤解を生んだり、特定の属性を不当に扱った場合、その影響はSNSや口コミを通じて瞬時に拡散され、大きな損失につながる恐れがあります。そのためにも、AIの活用に際しては「正確性」「透明性」「公平性」「説明責任」といった原則を踏まえたガバナンスが不可欠です。
責任あるAIを意識することで、単にリスクを回避するだけでなく、顧客との信頼関係を構築でき、長期的なブランドロイヤルティの向上にもつながります。急速に進化するAI技術においてこそ、マーケターはテクノロジーの倫理的な側面にも目を向け、持続可能で信頼されるマーケティングを実現していく必要があるのです。
次回は、Adobe社及びパートナー会社の開発中ツールの具体的なトレンドについてご紹介する予定です。Marketoをはじめ、AEM、Gradialなどのツールの新機能の説明だけでなく、AEMで活用する上での生成AIのセキュリティ面の戦略についても解説していきますので、ぜひご覧ください。