Gemini API представляет новую модель встраивания текста: увеличение производительности, поддержка ввода 8K

Новости ИИОпубликовано 5 месяцев назад Круг обмена ИИ
8K 00
Gemini API 推出全新文本嵌入模型:性能飙升,支持 8K 输入

Изображение от Google Близнецы Генерация флэш-памяти 2.0

В последнее время компания Google Gemini API Новая экспериментальная модель встраивания текста была представлена в gemini-embedding-exp-03-07[1]Модель обучается на основе модели Gemini. Модель обучается на основе модели Gemini, наследуя глубокое понимание языка и тонких контекстов Gemini, и применима к широкому спектру сценариев. Стоит отметить, что эта новая модель превосходит ранее выпущенную Google text-embedding-004 Модель заняла первое место в рейтинге Multilingual Text Embedding Benchmark (MTEB), а также обеспечила более длительный ввод данных. жетон Новые функции, такие как длина.

комментарии

Учитывая, что на рынке уже существуют некоторые модели встраивания с открытым исходным кодом, такие как multilingual-e5-large-instruct, хотя они могут немного уступать новой модели Gemini по производительности, модель с открытым исходным кодом все же может быть конкурентоспособной в определенных сценариях, таких как обработка небольших текстовых блоков и чувствительные к стоимости приложения. Таким образом, будущее признание новой модели Gemini на рынке будет зависеть от того, насколько ее ценовая стратегия и ограничения по использованию удовлетворят потребности разработчиков, а также от ее превосходной производительности.

 

Комплексная ведущая модель встраивания текста

Google утверждает, что новая модель была специально обучена для обеспечения исключительной универсальности, демонстрируя отличные результаты в области финансов, науки, права, поиска и многих других областях, и может использоваться напрямую без длительной тонкой настройки для решения конкретных задач.

В рейтинге многоязычных МТЭБ.gemini-embedding-exp-03-07 Средняя оценка задачи достигла 68,32 балла, что на 5,81 балла выше, чем у модели, занявшей второе место. Рейтинг MTEB является важным эталоном для сравнения моделей, так как он обеспечивает всестороннюю оценку производительности моделей встраивания текста на различных задачах, таких как поиск и классификация.

Gemini API 推出全新文本嵌入模型:性能飙升,支持 8K 输入

 

Почему стоит выбрать вставку текста?

Усиленная генерация от создания интеллектуального поиска (RAG) и рекомендательных систем, а также классификации текстов, способность крупномасштабных языковых моделей (LLM) понимать смысл, скрывающийся за текстом, имеет решающее значение. Методы встраивания часто позволяют создавать более эффективные системы, снижая стоимость и время ожидания и обеспечивая лучшие результаты по сравнению с системами подбора ключевых слов.

Методы встраивания передают семантику и контекст через числовое представление данных. Данные с похожей семантикой имеют более близкие векторы встраивания. Методы встраивания поддерживают различные приложения, включая:

  • Эффективный поиск: Поиск релевантных документов в больших базах данных, таких как поиск юридических документов или поиск по предприятию, путем сравнения запроса с векторами вложения документов.
  • Дополненная генерация поиска (RAG): Повышение качества и релевантности генерируемого текста путем поиска и интеграции релевантной информации в контекст модели.
  • Кластеризация и классификация: Группируйте похожие тексты, чтобы выявить тенденции и темы в данных.
  • Классификация: Автоматическая классификация на основе содержания текста, например, анализ настроения или обнаружение спама.
  • Сходство текстов: Выявление дублированного контента и решение таких задач, как дедупликация веб-страниц или обнаружение плагиата.

Чтобы узнать больше о встраивании и распространенных случаях использования ИИ, вы можете обратиться к Документация по API Gemini.

 

Испытайте Gemini Text Embedding прямо сейчас

Разработчики теперь могут использовать эту новую экспериментальную модель встраивания текста через Gemini API. Она аналогична существующей embed_content Совместимость интерфейсов.

from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
result = client.models.embed_content(
model="gemini-embedding-exp-03-07",
contents="阿尔法折叠是如何工作的?",
)
print(result.embeddings)

Помимо повышения качества во всех аспектахgemini-embedding-exp-03-07 Он также обладает следующими характеристиками:

  • Ограничение на ввод 8K токенов: По сравнению с предыдущими моделями, Google увеличил длину контекста, что позволяет встраивать большие фрагменты текста, кода или других данных.
  • 3072 размерный выход: высокоразмерные векторы встраивания, содержащие почти в 4 раза больше лексем, чем предыдущая модель встраивания.
  • Обучение представлению "Матрешка" (MRL): MRL позволяет разработчикам усекать исходный 3072-мерный вектор, чтобы сократить расходы на хранение данных. Проще говоря, технология MRL позволяет пользователям пожертвовать частью точности в обмен на экономию места для хранения данных.
  • Расширенная языковая поддержка: Количество поддерживаемых языков удвоилось и теперь составляет более 100.
  • Унифицированная модель: Эта модель превосходит по качеству ранее выпущенные Google модели, ориентированные на конкретные задачи, многоязычные модели, модели на простом английском языке и модели, ориентированные на конкретный код.

Несмотря на то, что в настоящее время эта версия находится на экспериментальной стадии и имеет ограниченные возможности, она предоставляет разработчикам возможность изучить ранние gemini-embedding-exp-03-07 Возможности. Как и все экспериментальные модели, она может быть изменена. Google говорит, что работает над созданием стабильной и общедоступной версии в ближайшие месяцы.

Google призывает разработчиков сделать свои продукты и услуги более доступными с помощью Встроенная форма обратной связи Обеспечьте обратную связь.

Некоторые пользователи отметили, что модель была бесплатной в период предварительного просмотра, но при этом существовали строгиеограничение скорости-5 запросов в минуту, 100 запросов в день. Разработчики могут легко задействовать эти лимиты при тестировании моделей. Некоторые пользователи выразили надежду, что Google скоро повысит эти лимиты.

В обсуждении на Reddit многие пользователи выразили восторг по поводу выхода новой модели, назвав ее "более значительным событием, чем люди думают". Один из пользователей заметил: "3k векторов встраивания fp32 - это очень много. Готов поспорить, что на таком количестве данных можно построить вполне разумный декодер ....... Если бы эта модель была дешевой, я бы, наверное, использовал ее чаще, чем полноценную крупномасштабную языковую модель. Обычно извлечение семантических признаков - это то, что вам действительно нужно".

Другой пользователь отметил, что у этой модели "не так много конкурентов" в многоязычной области, добавив, что она, вероятно, лучше всего подходит для больших блоков текста из-за ограничения скорости и размерности встраивания.

[1]: в Vertex AI одна и та же модель проходит через text-embedding-large-exp-03-07 предоставляется интерфейс. К моменту официального релиза именование будет согласовано.

© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...