2023年にLLMが爆発的に普及して以来、競争力強化のためにAIの積極的な導入をする企業は増えています。しかし、世の中には依然としてAIの成果物を過小評価したり、AIに対して恐怖心を抱いたりする風潮が残っているのも事実です。技術の進化を人間が受け入れることも大切ですが、AIによる効率化ばかりに目を向けるあまり、人間の感情への配慮をなおざりにしがちです。人間とAIが心地よく協働できるようにするにはどうすればよいでしょうか。Hakuhodo DY ONEのAI戦略開発室室長の山口俊亮に聞きました。
AIへの期待と不信
ー 2023年以降、AIと人間をめぐる環境は大きく変わりました。
山口:
2023年に広く普及したLLMは、人の思考の意味解釈を徹底的に学習した、推論能力の高い生成AIです。意味解釈に近い行動がおこなえるという点で、これまでのDeep Learning系のAIから破壊的なステップアップを遂げたといえるでしょう。
LLMの登場で「これからの人間社会にはAIが不可欠だ」という認識が醸成されました。その一方で、やはり内心ではAIを信用しきれないという声も上がっています。JIPDECとITRの調査によれば※1、企業による生成AIの導入は今後拡大が見込まれる一方、機密情報の漏洩とハルシネーションが大きな懸念点となっているといいます。またJIPDECによる消費者意識調査※2でも、生成AIを知っているが利用したことがないという生活者の中には、「なんとなく怖い」と感じている人が一定数存在するという報告がなされています。
こうした心理的な抵抗があるとするならば、経営層が一方的に生成AIの導入・利活用を推進しようとしても、従業員は生成AIを受け入れたがらないでしょう。なぜなら生成AIの一方的な推進は、人間がこれまで自らの役割や存在価値を見出してきた職務を無理に代替してしまう可能性があるからです。こうした一方的な代替は、従業員に「自分が働く価値や意味」を見失わせることにつながりかねません。
また、AIの成果物を受け取る生活者もまたAIを信頼しきれていない状況です。例えば生成AIを用いて制作した広告クリエイティブが炎上したケースがあります。炎上した背景には、メッセージや意図が明確ではなかったことが挙げられます。以前からそのような意図の分かりにくいクリエイティブが存在していたのも事実ですが、不信感を持たれているAIが広告クリエイティブの表現に関わることで、これまで以上に生活者の感情は敏感になります。それにより広告がより気持ち悪いものとして捉えられてしまうのです。
※1 出典:JIPDECとITRが『企業IT利活用動向調査2024』の結果を発表|ITRプレスリリース(2024年3月15日)|ITR
※2 出典:「デジタル社会における消費者意識調査2024」公開|JIPDECプレスリリース(2024年4月18日)|JIPDEC
ー 人間がAIを信頼しきれない要因はどこにあるのでしょうか。
山口:
この問題の根本にあるのは人間の感情です。人間が「自分が働く価値や意味」の喪失に危機感を覚えるのならば、人間がAIを受け入れたがらないのは当たり前です。生活者が「生成AIが作ったクリエイティブはどこか気持ち悪い」と感じるのならば、生成AIの成果物を受け入れないのは当然でしょう。
With AI時代のいま、私たちが考えなければならないのは人間の感情です。AIを使いながらも、納得感や面白さ、承認欲求といった人間が得たい感情を壊すことなく、むしろその感情をどうやったら引き出してあげられるかを考えることが重要なのです。
AIをチームの一員として捉える
ー AIと共存しつつ、人間が得たい感情を引き出すには、どうすればよいのでしょうか。
山口:
人間とAIそれぞれの立ち位置を再定義しなければいけません。
「AIを信頼できない」「AIだけで完結したら面白くない」と、AIを正当に評価できない背景には、チーム内での適切なAIの立ち位置を見つけられていないことが挙げられます。人間の仕事をAIが奪うという言説は直接的には正しいといえますが、大きな目線で捉えると、AIと人間がチームを組んで仕事をしているだけです。AIを一人の人間と同じくチームの一員として捉えて仕事をしていく必要があるのです。
生成AI活用が上手な人とそうでない人を見比べて思うことのひとつは、そもそも他人に仕事を任せることが苦手な人は、生成AIに仕事を振り分けることも苦手だということです。人に仕事を任せるのと同様、AIが得意なことは何なのかを理解し、どうしたらチームとしてのパフォーマンスを最大化できるのかを考えることが重要です。
いま、多くの企業がAI活用を推進していますが、簡単な仕事だけをAIに任せるケースが目立ちます。もちろん人間が面倒に感じる些末な仕事をAIに任せて効率化を図ることも大切ですが、それだけでは人間の仕事の代替にとどまり、チーム全体のパフォーマンスを大きくすることができません。AIが得意な分野は簡単な仕事だけではありません。AIにこそ大きな仕事を任せるべきです。
ー AIのなかでも、特に近年活用が進められているLLMが得意な分野は何なのでしょうか。
山口:
LLMの強みは推論能力です。例えばHakuhodo DY ONEではマーケティングのペルソナ作成のためにLLMを活用しています。マーケティング戦略はマーケターの腕の見せ所であるため、マーケターの中にはマーケティング戦略をAIに任せるのは難しいと考えている方もいるかもしれません。しかし、AIはチームの一員としてマーケターのディスカッション相手になってくれる存在です。人間が思いつきそうで言語化できないことを先回りして答えてくれたり、自分の意見を補強してくれたりします。むしろマーケティングにおいて必要な、世の中の常識や普遍的な出来事から推論する力は、LLMの得意分野だと考えています。
これまで人間はそれぞれの得意分野に応じて仕事を分担し、チームで協力してきました。今後もチームメンバーの一人としてAIが参加するだけで、働き方自体は大きく変わらないはずです。チームメンバーとなったAIにもそれに適した大きな仕事を任せられるようになれば、チームの全体パフォーマンスは人間だけで構成されるチームを超えることになるでしょう。逆にいえば、AIを活用するためにはチームが目指す仕事をこれまで以上に大きくする必要があるのです。
ー AIをチームの一員として捉えるという人間側のマインド調整が大切になってきますね。
山口:
そうはいっても人間のマインドを変えるまでには時間がかかります。そのため当社では、開発するAIプロダクトのUIやUXを配慮することで、AIへの信頼を高められるようにしています。
アウトプットの出来だけを追求するのであれば、スマートに回答するAIを用意すればこと足ります。しかし、それではAIが回答を出すまでの思考プロセスが分からず、人間はAIの回答を信頼しにくくなります。皆さんの中でも活発なディスカッションがクリエイティブな発想を生んだ経験をしたことのある人は多いのではないでしょうか。それはAIにおいても同じことがいえます。ただ回答を返すAIではなく、思考プロセスも含めて人間に示し、人間がAIとディスカッションしている感覚を生み出せるプロダクト開発に励んでいます。
また、AIプロダクトごとに任せられる領域や得意分野をはっきりさせることも重要です。社員全員が人に仕事を任せることに慣れているわけではありません。どのAIに何を任せればよいのかを明示することで、仕事を任せる経験の浅い社員にもAIを活用してもらいやすくしています。
人間の感情を揺さぶる力
ー AIの立ち位置についてのお話をしていただきましたが、人間の立ち位置はどのように再定義すればよいでしょうか。
山口:
AIに対する人間の立ち位置を考えるうえで重要なのは、AIがいかなる成果物を作ったとしても、最終的に評価するのは人間だということです。この最終評価には人間の感情も含まれます。たとえAIの成果物が客観的に優れていたとしても、「人間が作った」ということに安心感を持たれるのであれば、人間の作った成果物の方がより評価が高いということになります。
人間の評価が正当でないと、AIは社会に入り込むことができません。例えば、当社では施策検証の評価生成をAIに任せようとしています。当社で評価生成をAIに任せられるのは、優秀な運用コンサルタントが大勢在籍しているためです。しかし、人間が検証の評価の何が妥当かをあらかじめ知らないと、AIの成果物を評価できません。人間が成果物を正当に評価できないとき、人は感情で信頼すべきものを決めてしまうため、AIよりも人間の手による仕事の方を評価する傾向にあります。
AIとともに働いていくには、評価者の感情も考慮に入れたうえで、成果物を正しく評価できるプロセスを構築することが重要だといえるでしょう。
ー 人間の感情に配慮できるのは人間だけかもしれません。
山口:
おっしゃるとおりです。With AI時代にあって人間の感情が評価に含まれてくるとき、人間により一層求められるのは、いかに人間の感情を揺さぶることができるかということです。AIは人間の視点に立って人間を喜ばせることは苦手です。もちろん、学習によって「人間が喜びそうなもの」はAIも出せますが、人間や社会、時代の根源的なありようを深く解釈し、人の感情と共鳴する形でその解釈を表現するのは人間にしかできないのです。
人間は答えだけを渡されても、なかなかそこに面白さを見出しにくい生き物です。「面白い、意外だ、納得だ」という感情を生むには論理が必要である一方、論理だけを組み立てていても、そういった感情を生み出せないこともあります。論理を立てる前に重要なのが、相手が何を求めていて、どういったところに面白味や意外性を感じてくれるかを読み取ること。そのうえで、引き出したい感情に立脚して論理を立てていかなければならなりません。
AIが渡してくれるのは、回答とそれを導いた論理までです。重要なのは、相手の期待や関心を理解し、期待や関心にピンポイントで寄り添って、それに応じた論理を展開することであり、それができるのは人間だけなのです。
ー 生成AIによるクリエイティブが炎上した例も、人間の感情に寄り添えなかった点が一番の問題だったのかもしれません。
山口:
AIや広告はそもそも生活者にとって嫌な感情を引き起こしやすいものです。そのうえ広告メッセージの意図が不明瞭であると、生活者の嫌悪感はさらに掻き立てられます。炎上したクリエイティブはAIを使用したこと自体が悪かったわけではありません。広告の目的や背景が明確に伝わらないクリエイティブは、AIの生成物が生み出しやすい違和感を増幅させます。そのことが生活者の反感につながったのでしょう。
お客様への提案でも同様のことがいえます。単に回答と論理を提供するだけではお客様の共感を得ることはできません。お客様の期待と関心に寄り添いつつ論理を展開しなければ、人の感情は動かしにくい。論理はAIとともに構築できますが、感情を揺さぶるためには、相手の感情を深く理解できる人間の力が必要です。
ー 人間の感情への配慮は、新しいものを創造するときにこそ重要な要素のように思えます。
山口:
新しい視点や感性を提案する際には、「これこそが格好良い」、「納得できる」、「新鮮だ」などの共感を生み出すことが不可欠です。このような新しい見方や感性は、既存の論理の枠を超えてはじめて生まれるものです。そのため「何が格好良いのか」といった価値判断には、一定の飛躍や独自の視点が必要とされます。
AIは多様なアイデアを提案し、それを支える論理や根拠を提示することはできます。しかし、「何が格好良いのか」を最終的に判断できるのは、人間の感情に深く寄り添い、世界のありようを洞察できるセンスを持った人間だけでしょう。
AI時代にカギとなるのは、人間が人間の感情を揺さぶる力なのです。
<プロフィール>
山口 俊亮 AI戦略開発室室長
2016年にデータコンサルタントとしてキャリアをスタートし、分析基盤の構築やレポート支援を担当。その後、大型クライアントのデジタルマーケティング戦略設計を手掛け、2017年にはCM×デジタルの横断計測技術を提案し、社内での業績を評価される。2019年から2022年には商業施設向けのマーケティングDX支援をおこない、データ基盤構築や販促施策を推進。2023年からは「IREP LLMs PLAYGROUND」のプロジェクトリーダーとして、大規模言語モデルを活用したマーケティングプラットフォームを開発。2024年度からは「パフォーマンスAI戦略室」と「AI戦略開発室」の室長として、広告領域でのAI活用の推進を担当している。
この記事の著者
DIGIFUL編集部
「DIGIFUL(デジフル)」は、株式会社Hakuhodo DY ONEが運営する「デジタル時代におけるマーケティング」をテーマにした、企業で活躍するマーケティング担当者のためのメディアです。
当社がこれまでに得たデータや経験から、具体的事例・将来展望・業界の最新注目ニュースなどについて情報を発信しています。ニュースやコラムだけでなく、日常業務や将来のマーケティング施策を考えるときに役立つダウンロード資料や、動画で学べるウェビナーコンテンツも随時追加していきます。
デジタルマーケティングの最新情報や知見を得るための信頼できる情報源の1つとしてお役立てください。
「DIGIFUL(デジフル)」は、株式会社Hakuhodo ...