人工知能 | オペラブラウザが主要なAIモデルをローカルダウンロードとオフライン使用のために統合

robot
概要作成中

大手ブラウザ企業のOperaは、約50のモデルファミリーからの150のローカルLLM (Large Language Model)のバリアントへの実験的サポートをOpera Oneブラウザの開発者ストリームに追加することを発表しました。

LLMは、OpenAIによって開発されたGPT (Generative Pre-trained Transformer)モデルなどのもので、膨大なテキストデータを用いて訓練された高度な人工知能システムです。これらはテキスト生成、翻訳、要約など、さまざまな自然言語処理タスクに使用されます。

オペラによると、これは主要なブラウザから組み込み機能を通じてローカルLLMに簡単にアクセスし、管理できる初めての機会です。ローカルAIモデルは、オペラのオンラインAria AIサービスへの補完的な追加です。サポートされているローカルLLMには次のものがあります:

* メタのラマ

  • ビクーニャ *ジェンマGoogleから
  • Mistral AIのMixtral

「このようにローカルLLMを導入することで、オペラは急速に進化するローカルAI分野での体験やノウハウを構築する方法を探り始めることができます。」 とオペラのブラウザおよびゲーム担当EVP、クリスティアン・コロンドラは述べました。

ローカル大規模言語モデルを使用することは、ユーザーのデータがデバイス上にローカルに保持され、情報をサーバーに送信する必要なく生成AIを使用できることを意味するとオペラは述べた。

人工知能の議論で浮上している問題の中には、データプライバシーに関するものがあり、Fetch.ai、SingularityNET (SNET)、Ocean Protocolという3つの主要な分散型AIプロジェクトが、分散型AIエコシステムを構築するために統合することを決定しました。

「本日現在、Opera One Developerのユーザーは、入力を処理するために使用したいモデルを選択する機会を得ています。モデルをテストするためには、最新のOpera Developerにアップグレードし、新機能をアクティブにするためにいくつかの手順を踏む必要があります」とOperaは述べました。

「ローカルLLMを選択すると、それが彼らのマシンにダウンロードされます。ローカルLLMは通常、バリアントごとに2〜10GBのローカルストレージスペースを必要とし、ユーザーがAIとの新しいチャットを開始するか、Ariaを再度オンにするまで、OperaのネイティブブラウザAIであるAriaの代わりに使用されます。」

最新の投稿と更新についてはTwitterでフォローしてください

MAJOR-0.53%
STREAM-0.31%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン