ChatGPT は私たちが知る限り最新の音声アシスタントです。 SiriやAlexaなどの企業は長年、スマートホーム分野での優位性を収益化するために苦戦してきたが、Alexaは2022年に100億ドルの損失を出し、1万人の従業員を解雇した。 現在、生成 AI がこの分野を席巻しています。この技術は自然言語を理解し、大量のデータから学習し、人間のような応答を生成することができるため、音声アシスタントやモノのインターネット (IoT) のデバイスはより効率的で使いやすくなります。 マイクロソフトのCEOは最近、現在の音声アシスタントを「まったく愚か」と評した。今後の反復では決してこのようなことは起こりません。高度な AI 音声アシスタントが登場する前に、なぜそれらが安全でなければならないのかを検討してみましょう。 音声アシスタントの簡単な歴史2010 年代に音声アシスタントがスマートホームを支配したことは否定できません。実際、米国の世帯の約20%がAmazonのAlexaを導入している。さらに、14万点の製品がAlexaと互換性があり、そのオペレーティングシステムは電球やカメラなど3億台以上のスマートデバイスを制御します。 しかし、この10年の初めは業界にとって移行期となりました。まず、メーカーは損失を出しています。音声コマンドを収益化しても、単純に利益は出ません。 Alexa は Amazon にとって最大の敗者であり、この問題は業界全体に波及している。その結果、企業はそれぞれの部門にわたってリソースを削減しています。 もう一つの課題は、音声アシスタントの機能が限られていることです。タイマーの設定や音楽の再生といった単純な作業は得意ですが、より複雑な作業には苦労することが多いです。さらに、これらのデバイスはユーザーの習慣を読み取って自律的に決定を下すことができないため、予測的というより受動的なエクスペリエンスになります。その結果、音声アシスタントは単なる高級な時計ラジオに過ぎないと考える人もいます。 現在の音声アシスタントは消費者の期待に応えていません。しかし、生成 AI の出現により、この状況は変化するかもしれません。 人工知能の到来生成 AI は、これらのデバイスに前例のない幅広さ、柔軟性、洗練性をもたらします。さらに、投資とイノベーションの拡大により、より高度なインテリジェント機能が期待されます。専門家は音声アシスタントの復活を予測している。 たとえば、自然言語処理 (NLP) により、これらのアシスタントは言語を理解して解釈できるようになり、照明の点灯やリマインダーの設定など、さまざまなタスクベースの要求を実行できるようになります。しかしもちろん、ユーザーは音声アシスタントがより深いレベルでコミュニケーションし、問題を解決できることを期待しています。ここで、GPT スタイルのテクニックが役立ちます。高度な機械学習アルゴリズムを組み込んでおり、自由形式の質問やリクエストに対して人間のような応答を生成します。 NLP と GPT スタイルの応答を組み合わせることで、音声アシスタントはより包括的でパーソナライズされたユーザー エクスペリエンスを提供できます。 さらに、AI アシスタントは収集したデータをより有効に活用するようになります。時間が経つにつれて、自動的にコーヒーポットを点火したり、芝生に水をやったりするなど、日々の習慣を学習してそれに応じて動作できるようになります。これは音声コマンドなしでも機能することに注意してください。代わりに、デバイスは、人が言う前にニーズを理解する自律型アシスタントになります。これは、音声アシスタントが当初目指していた SF の夢です。 しかし、問題があります。これにより、よりパーソナライズされた直感的なインタラクションが可能になり、これらのデバイスは人間をより意識するようになります。したがって、データのセキュリティとプライバシーの保護は極めて重要です。 スマートホームの未来: 音声アシスタントが安全でなければならない理由ユーザーと企業は、よりスマートな音声アシスタントがもたらす危険性を無視することはできません。攻撃を受けた場合、機械学習と人工知能を搭載したこれらのデバイスはデジタルウィンドウを開くことができます。 歴史は、音声アシスタントが間違いを犯す可能性があることを示しています。昨年、学術研究者らは、ハッカーがAmazon Echoスマートスピーカーを制御し、ドアのロック解除、通話、スマート家電の制御などの不正な操作を実行できるセキュリティ上の脆弱性を発見した。この脆弱性は、デバイスの音声を悪用して、デバイス自身に音声コマンドを発行します。音声コマンドがウェイクワード(通常は「Alexa」または「Echo」)で始まり、その後に有効な指示が続く場合、Echo デバイスはそのコマンドを実行します。この脆弱性は後に修正されたが、ハッカーが抜け穴を見つけることができることも証明された。 音声アシスタントやスマートホームが真にスマートになるためには、特に大量のデータにアクセスできるようになる前に、セキュリティを確保する必要があります。 幸いなことに、消費者は自分で問題を解決することができます。まず、ホームネットワークを暗号化します。良い解決策は、ピアツーピア通信プラットフォームを統合して、コマンドがクライアントとデバイスの間でのみ送信されるようにすることです。同様に、ホームネットワークをクラウドではなくエッジに保存します。これにより、データが第三者ではなくあなた自身によって保持されることが保証されます。最後に、音声アシスタントのデータとセキュリティの権限を確認します。ネットワーク全体ではなく一部へのアクセスを許可することで、潜在的なハッカー攻撃を隔離できます。 消費者は、デバイスが自分の情報をデータブローカーや悪意のある人物に販売しないということを信頼できる必要があります。そうして初めて、音声アシスタントの復活は真に繁栄することができるのです。 |
<<: Hudiに基づくByteDanceの機械学習アプリケーションシナリオ
最新のニュースとしては、GitHubのCEOであるThomas Domke氏がメディアとのインタビュ...
7月9日、2020年世界人工知能会議クラウドサミットが正式に開幕しました。 AI という SF 用語...
ニューラル ネットワークに基づくプロジェクトにおけるボトルネックは通常、ネットワークの実装ではありま...
偽の肖像ビデオ生成技術は、政治宣伝、有名人のなりすまし、証拠の捏造、その他のアイデンティティ関連の操...
7月26日のニュースによると、将来、人工知能はマイクロソフトやアルファベットなどのテクノロジー大手に...
人工知能は、将来の発展にとって大きな破壊的技術の 1 つであるとよく考えられています。これにより、多...
2つの生体認証技術は顔認証と指紋認証です。実験では、両方ともモバイルデバイスを通じて実装され、2つ...
スマート医療産業の急速な発展は、多くの患者に恩恵をもたらしています。伝統的な医療業界をアップグレード...
ヘルスケア業界の成長は驚異的ですが、欠点がないわけではありません。医師や研究者は、一般的な病気や珍し...
農業用ロボットは、一般的に、農産物を操作対象とし、ある程度の人間の知覚と行動能力を持ち、さまざまな高...
グラフ ニューラル ネットワーク (GNN) は、機械学習でグラフ構造データを活用するための強力なツ...
[[420376]] AI 技術を採用することで、包括的なセキュリティの基盤としてシステムにインテ...