AIへの組み込みアクセスを提供し、人工知能(AI)分野において大きな前進を遂げました。この先駆的な取り組みにより、ユーザーはMistral AIのMixtral、MetaのLlama、GoogleのGemma、Vicunaなど、約50のファミリーを網羅する150種類のローカル大規模言語モデル(LLM)にアクセスできるようになります。
ローカルAIモデルの利点
Operaのバイスdent あるJan Standal氏は、ブラウザにローカルLLMを直接組み込むことの利点を強調しました。これらのモデルにより、ユーザーは外部サーバーにデータを送信することなく、自分のマシン上でプロンプトを処理できるため、完全なプライバシーが確保され、オフラインでも機能する点を強調しました。さらに、外部サーバーとの通信遅延がないため、応答時間が大幅に短縮され、シームレスなブラウジング体験が実現します。
この新機能は現在、Opera Oneの開発者向けストリームで利用可能で、同社のAI Feature Dropsプログラムの一環として、アーリーアダプター向けに導入されています。これは、OperaのネイティブAIサービスであるAriaを補完する機能として機能します。これらの組み込みローカルLLMが主要ブラウザに移行するかどうかは、アーリーアダプターコミュニティからのフィードバックとAI技術の今後の進歩次第です。
利用可能なLLMを利用するには、Opera Developerの最新バージョンにアップグレードし、機能を有効化する必要があります。希望するモデルのバリアントがダウンロードされると、ユーザーが再度有効化するかAIとの新しいチャットを開始するまで、Ariaが置き換えられます。
意味と展望
ヤン・スタンダル氏は、ウェブブラウジング体験の向上におけるAIの変革的可能性を強調しました。Operaは、ローカルLLMとの連携により、その限界をさらに押し広げ、ブラウジング体験を再defiする新たな道を模索しています。競争が激化するAI市場において、この動きは特に注目に値します。Operaは革新的な機能を提供することで、他社との差別化を目指しています。
cashといった組み込み機能で高い評価を得ていますLLM(へのアクセスが加わることで、市場における地位がさらに強固になり、競争優位性を高める可能性が高まります。
OperaによるローカルAIモデルの組み込みは、ウェブブラウザの進化における重要なマイルストーンです。ユーザーのプライバシーを最優先し、応答時間を向上させ、AI技術の新たな可能性を探求することで、Operaはユーザーのブラウジング体験を再defi態勢を整えています。同社はアーリーアダプターからのフィードバックを継続的に収集し、進化するAI環境に対応していく中で、この革新的な機能がウェブブラウジングの未来をどのように形作っていくのか、今から楽しみです。

