いいえ、Google BardはGmailデータでトレーニングされていません

いいえ、Google BardはGmailデータでトレーニングされていません

ウェズリー・ヒリアードのプロフィール写真ウェズリー・ヒリアード

· 1分で読めます

バードは間違いを犯す可能性のある生成AIツールです

Google の大規模言語モデルツール「Bard」は Gmail でトレーニングされたとされているが、Google はそれを否定している。

Bardは生成AI、つまり大規模言語モデル(LLM)であり、大規模なデータセットに基づいて情報を提供します。ChatGPTや類似のツールと同様に、Bardは実際には知性を持っておらず、しばしば誤った判断を下します。これは「幻覚」と呼ばれます。

マイクロソフトリサーチの主任研究員であり、作家でもあるケイト・クロフォード氏のツイートには、バード大学の回答がGmailをデータセットに含めていたことを示唆している様子が示されています。もしこれが事実であれば、ユーザーのプライバシーを明らかに侵害することになります。

えーと、Bard がトレーニング データセットに Gmail が含まれていると言っていることに、少し心配している人はいませんか?

それは完全に間違っていると思います。そうでなければ、Google は重大な法的境界線を越えていることになります。pic.twitter.com/0muhrFeZEA

— ケイト・クロフォード(@katecrawford)2023年3月21日

しかし、Google WorkspaceのTwitterアカウントは、Bardはまだ初期段階の実験段階であり、間違いを犯す可能性があると反論し、Gmailから収集した情報でモデルを学習させていないことを確認しました。Bardのウェブサイト上のポップアップでは、Bardが常にクエリを正しく処理するとは限らないことをユーザーに警告しています。

これらの生成AIツールは完璧とは程遠く、アクセス権を持つユーザーは、本来であれば隠されているはずの情報を引き出そうとすることがよくあります。クロフォード氏のようなクエリは、時には有用な情報を提供することもありますが、今回のケースではバード氏は誤った判断を下しました。

生成AIと法学修士課程(LLM)は、テクノロジーコミュニティで人気の話題となっています。これらのシステムは素晴らしいものですが、初期段階では多くの問題を抱えています。

バードのような法学修士が回答を提供する場合、Google自身も含め、ユーザーはウェブ検索を利用するよう促されています。どのような回答が返ってくるかは興味深いですが、正確であるとは限りません。