Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ | Браузер Opera интегрирует основные модели ИИ для локальной загрузки и оффлайн-использования
Ведущая компания в области браузеров, Opera, заявила, что добавляет экспериментальную поддержку 150 локальных LLM (Large Language Model) вариантов из примерно 50 семейств моделей в свой браузер Opera One в канале разработчиков.
LLM, такие как GPT (Generative Pre-trained Transformer) модели, разработанные OpenAI, являются продвинутыми системами искусственного интеллекта, обученными на больших объемах текстовых данных для понимания и генерации текста, похожего на человеческий. Они используются для различных задач обработки естественного языка, включая генерацию текста, перевод и суммирование.
Согласно Opera, это первый раз, когда локальные LLM можно легко получить доступ и управлять ими через основной браузер с помощью встроенной функции. Локальные модели ИИ являются дополнительным бесплатным дополнением к онлайн-сервису Aria AI от Opera. Среди поддерживаемых локальных LLM находятся:
! * Лама из Меты
“Введение локальных LLM таким образом позволяет Opera начать исследовать способы создания опыта и знаний в быстро развивающемся локальном AI пространстве,” сказал Кристян Колондра, EVP Браузеры и Игры в Opera.
Использование Локальных Больших Языковых Моделей означает, что данные пользователей хранятся локально на их устройстве, что позволяет им использовать генеративный ИИ без необходимости отправлять информацию на сервер, заявила Opera.
Среди вопросов, возникающих в дискурсе об искусственном интеллекте, concern data privacy, что привело к тому, что три ведущих децентрализованных AI проекта; Fetch.ai, SingularityNET (SNET) и Ocean Protocol решили объединиться для создания децентрализованной AI экосистемы.
“На сегодняшний день пользователи Opera One Developer получают возможность выбрать модель, с которой они хотят обрабатывать свои входные данные. Чтобы протестировать модели, им необходимо обновиться до новейшей версии Opera Developer и выполнить несколько шагов для активации новой функции,” — сказала Opera.
“Выбор локальной LLM затем загрузит ее на их машину. Локальная LLM, которая обычно требует 2-10 ГБ локального пространства для хранения на каждую вариацию, будет использоваться вместо Aria, встроенного ИИ браузера Opera, пока пользователь не начнет новый чат с ИИ или не включит Aria снова.”
Подписывайтесь на нас в Twitter для последних публикаций и обновлений