10月12日、ブルームバーグは昨夜、グーグルとDiscordが共同で自社のAIチャットボット「Bard」の忠実なユーザーを招待し、チャットルームを開設したと報じた。その中で、バード社の製品マネージャーやデザイナー、エンジニアらがチャットルームでAIの有効性や実用性について議論していたが、疑問を投げかける人も現れ始めた。 Discord上のBardコミュニティの参加者2人が、7月から10月までのチャットルームでの議論の詳細をブルームバーグと共有した。バード社のシニアプロダクトマネージャーであるドミニク・ラビエジ氏は議論の中で、大規模な言語モデルによって生成された応答を「信頼していない」と述べ、バードは「創造性」と「ブレインストーミング」にのみ使用すべきだと提案した。ラビエジ氏はまた、プログラミングにBardを使うことも「良い選択」だと述べた。なぜなら、人々は必然的にコードが機能するかどうかを検証したいと思うからだ。 さらに、ラビエジ氏は今月バードに追加された新しい「返信を再確認する」ボタンの重要性を強調した。この機能は、「不正確である可能性のある」コンテンツをオレンジ色で強調表示すると伝えられている。また、バード氏は受け取ったテキストを実際に理解したわけではなく、ユーザーの指示に基づいてテキストを追加して応答しているだけだと繰り返した。 「 Bard は、他の大規模モデルと同様に生成的であることを覚えておいてください。情報を検索したり要約したりするのではなく、テキストを生成します。 」 プロダクトマネージャーは7月のチャットで、(ユーザー自身が)独立して検証できない限り、大規模言語モデルの出力を信頼しないよう率直に述べました。 「皆さんの期待に応えたいと思っていますが、まだそこまでには至っていません。」 もう一人のプロダクトマネージャーであるウォーケンティン氏も、この議論の中で次のように書いています。「バードがすべての人に適した製品になるためには、人間味のある改良が不可欠です。そうしないと、ユーザーは製品の機能を判断できず、それは大きな間違いになると思います。」 「象牙の塔の中にある製品ではなく、誰もが使用できる製品が必要なのです!」 IT Homeは以前、Googleが今年7月にBard AIツールの展開を拡大した際に、「会話リンクの共有」機能を追加したと報じていた。ユーザーは、Bard との会話を Web リンクとしてエクスポートし、他のユーザーと共有して、Bard との会話を継続することができます。 この脆弱性を発見したのは、X Platformの分析コンサルタントであるガガン・ゴトラ氏だ。Googleは一部のユーザーが共有したリンクを誤って検索結果のインデックスとして追加し、関連する機密情報が漏洩した。 ガガン・ゴトラ氏は、バード氏と話す際にはいかなる「プライベートな内容」も共有しないようユーザーに警告した。さもないと、関連情報が漏洩する可能性がある。 |
<<: データセキュリティリスクのため、米国宇宙軍はChatGPTなどの人工知能ツールの使用を一時停止
>>: 座標系の変換を本当に理解していますか?自動運転にはマルチセンサーが不可欠
デジタルトランスフォーメーションは10年以上にわたってビジネス変革の中核を担ってきましたが、AIの台...
[[348166]]導入2020年は世界にとって激動の年です。経済状況は流行病の影響を受けており、不...
人工知能と新型コロナウイルスには共通点がないように思えますが、本質的には同じものです。 [[4391...
現在、人工知能(AI)と機械学習は私たちの日常生活に入り込み、徐々に私たちの生活を変えつつあります。...
[[313570]] 1. ブロックチェーンブロックチェーンは、間違いなく IT 業界で最も議論さ...
制作:51CTO テクノロジースタック(WeChat ID:blog)深夜、OpenAI の最大のラ...
フォーチュン 500 にランクされる世界的なテクノロジー サービス企業 DXC Technology...
ヒューマノイドロボットの類似性は人間の好感度に比例するわけではありません。 1970年に日本のロボッ...
ビデオの需要と視覚データの理解のための AI の使用が増加するにつれて、カメラの数と生成されるデータ...
今日のアプリケーション開発分野では、OpenAI API などの生成 AI 技術の活発な開発により、...
大規模モデルの背後にある科学をより深く理解し、その安全性を確保するためには、解釈可能性がますます重要...
GPT や LLaMA などの大規模な言語モデルを使用する場合、入力プロンプトに文字数制限があるこ...