- Google、「Google Workspace」における生成 AI 時代のユーザーデータ保護ポリシーを発表
- これまで通りユーザーデータ保護を大前提で生成 AI 時代だからといって基本的にユーザーデータを二次利用することはなし
- 単にプライバシー保護の重要性を再確認することが目的の発表
Google は 2023 年 8 月 11 日(金)、グループウェア「Google Workspace」における生成 AI 時代のユーザーデータ保護ポリシーを発表しました。
とはいえ生成 AI 時代に入ったからといって、「Google Workspace」におけるユーザーデータ保護ポリシーが変更されることはありません。今回の Google による発表は、単にプライバシー保護の重要性を再確認することが目的の発表です。
昨今、非営利団体 OpenAI が公開した AI チャットボット「ChatGPT」を皮切りに生成 AI 時代が到来し、Google も生成 AI チャットボット「Bard」や生成 AI 活用の開発支援ツール「Duet AI」などを始めとした生成 AI 活用サービスを随時リリースしています。
生成 AI 最大の特徴は、収集されるデータを元に進化する点です。そのためユーザーによるサービス利用が必要不可欠となるのですが、Google ではあくまでもユーザーデータ保護ごを大前提とし、基本的にはその二次利用は行わない模様。ただし、匿名性を維持した上で、スパム保護 / スペル チェック / オートコンプリートなどの機能にデータが応用されることはあります。
言葉の言い回しや意味の時代に応じた変化など、要はスラング的な部分で匿名のユーザーデータが応用される可能性があるということ。もちろんそういった取るに足らないユーザーデータであっても、Google はデータの選択と制御をユーザー自身が行うことができる機能を提供し、あくまでもユーザーが自身のユーザーデータに対するイニシアチブを握れる状態が維持されます。
そしてこれらは、Google の一般サービスであろうがグループウェア「Google Workspace」であろうが関係なく、Google のポリシーの元で行われるというわけです。
Source:Google