10月12日、ブルームバーグは昨夜、グーグルとDiscordが共同で自社のAIチャットボット「Bard」の忠実なユーザーを招待し、チャットルームを開設したと報じた。その中で、バード社の製品マネージャーやデザイナー、エンジニアらがチャットルームでAIの有効性や実用性について議論していたが、疑問を投げかける人も現れ始めた。 Discord上のBardコミュニティの参加者2人が、7月から10月までのチャットルームでの議論の詳細をブルームバーグと共有した。バード社のシニアプロダクトマネージャーであるドミニク・ラビエジ氏は議論の中で、大規模な言語モデルによって生成された応答を「信頼していない」と述べ、バードは「創造性」と「ブレインストーミング」にのみ使用すべきだと提案した。ラビエジ氏はまた、プログラミングにBardを使うことも「良い選択」だと述べた。なぜなら、人々は必然的にコードが機能するかどうかを検証したいと思うからだ。 さらに、ラビエジ氏は今月バードに追加された新しい「返信を再確認する」ボタンの重要性を強調した。この機能は、「不正確である可能性のある」コンテンツをオレンジ色で強調表示すると伝えられている。また、バード氏は受け取ったテキストを実際に理解したわけではなく、ユーザーの指示に基づいてテキストを追加して応答しているだけだと繰り返した。 「 Bard は、他の大規模モデルと同様に生成的であることを覚えておいてください。情報を検索したり要約したりするのではなく、テキストを生成します。 」 プロダクトマネージャーは7月のチャットで、(ユーザー自身が)独立して検証できない限り、大規模言語モデルの出力を信頼しないよう率直に述べました。 「皆さんの期待に応えたいと思っていますが、まだそこまでには至っていません。」 もう一人のプロダクトマネージャーであるウォーケンティン氏も、この議論の中で次のように書いています。「バードがすべての人に適した製品になるためには、人間味のある改良が不可欠です。そうしないと、ユーザーは製品の機能を判断できず、それは大きな間違いになると思います。」 「象牙の塔の中にある製品ではなく、誰もが使用できる製品が必要なのです!」 IT Homeは以前、Googleが今年7月にBard AIツールの展開を拡大した際に、「会話リンクの共有」機能を追加したと報じていた。ユーザーは、Bard との会話を Web リンクとしてエクスポートし、他のユーザーと共有して、Bard との会話を継続することができます。 この脆弱性を発見したのは、X Platformの分析コンサルタントであるガガン・ゴトラ氏だ。Googleは一部のユーザーが共有したリンクを誤って検索結果のインデックスとして追加し、関連する機密情報が漏洩した。 ガガン・ゴトラ氏は、バード氏と話す際にはいかなる「プライベートな内容」も共有しないようユーザーに警告した。さもないと、関連情報が漏洩する可能性がある。 |
<<: データセキュリティリスクのため、米国宇宙軍はChatGPTなどの人工知能ツールの使用を一時停止
>>: 座標系の変換を本当に理解していますか?自動運転にはマルチセンサーが不可欠
本論文では、確率と統計に基づく類似度測定法であるブラウン距離共分散をディープラーニングに初めて導入し...
誰もが独自の大規模モデルをアップグレードして反復し続けるにつれて、コンテキスト ウィンドウを処理する...
ChatGPTが主導する大規模言語モデルの時代において、避けては通れないトピックが「人間のフィードバ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
現在、ますます多くのスタートアップ企業と大手半導体企業が新しい AI チップの発売を競っています。 ...
11月15日、OpenAIは突然、ChatGPT Plusの新規ユーザー登録を停止すると発表しました...
ニューヨーク・タイムズによるOpenAIとマイクロソフトに対する訴訟は、AI技術の発展に影響を及ぼす...
Star NLP 社からの速報: 6 か月間の業務および生産停止。最近配布されたスクリーンショット...
ダブルイレブンの割引を計算するために、昨年どれだけの髪の毛が抜けたか覚えていますか?昨年、天猫は総取...
自動運転車は、人工知能技術の最もエキサイティングで影響力のある応用例の 1 つです。米国だけでも、毎...