ШТУЧНИЙ ІНТЕЛЕКТ | Браузер Opera інтегрує основні моделі ШІ для локального завантаження та офлайн-використання

robot
Генерація анотацій у процесі

Ведуча компанія браузерів, Opera, заявила, що додає експериментальну підтримку 150 локальних LLM (Великих мовних моделей) з приблизно 50 сімей моделей до свого браузера Opera One в розробницькому потоці.

LLMs, такі як GPT (Generative Pre-trained Transformer) моделі, розроблені OpenAI, є просунутими системами штучного інтелекту, навченими на великих обсягах текстових даних для розуміння та генерації тексту, схожого на людський. Вони використовуються для різних завдань обробки природної мови, включаючи генерацію тексту, переклад та узагальнення.

Згідно з Opera, це вперше локальні LLM можуть бути легко доступні та керовані з основного браузера через вбудовану функцію. Локальні AI моделі є безкоштовним доповненням до онлайн-сервісу Aria AI від Opera. Серед підтримуваних локальних LLM є:

! * Лама з Meta

  • Вікуна
  • Джемма від Google
  • Mixtral від Mistral AI

*«Впровадження локальних LLM у такий спосіб дозволяє Opera почати досліджувати способи створення досвіду та зрозуміти, як це зробити, у місцевому просторі штучного інтелекту, що швидко розвивається», — сказав Крістіан Колондра, виконавчий віце-президент з браузерів та ігор в Opera.

Використання локальних великих мовних моделей означає, що дані користувачів зберігаються локально на їхньому пристрої, що дозволяє їм використовувати генеративний ШІ без необхідності надсилати інформацію на сервер, заявила компанія Opera.

Серед питань, що виникають у дискурсі штучного інтелекту, є питання конфіденційності даних, через що три провідних децентралізованих проекти ШІ; Fetch.ai, SingularityNET (SNET) та Ocean Protocol вирішили об’єднатися, щоб створити децентралізовану екосистему ШІ.

“Станом на сьогодні, користувачі Opera One Developer отримують можливість вибрати модель, з якою вони хочуть обробити свої вхідні дані. Щоб протестувати моделі, їм потрібно оновити до нової версії Opera Developer та виконати кілька кроків для активації нової функції,” – йдеться в повідомленні Opera.

“Вибір локального LLM завантажить його на їхній комп’ютер. Локальний LLM, який зазвичай потребує 2-10 ГБ локального місця для зберігання на варіант, буде використовуватися замість Aria, рідного браузерного ШІ Opera, поки користувач не почне новий чат з ШІ або не переключить Aria назад.”

Слідкуйте за нами в Twitter для останніх публікацій та оновлень

MAJOR-0,69%
STREAM-0,31%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити