Aprendizagem pessoal com IA
e orientação prática
讯飞绘镜

Vision Parse: conversão inteligente de documentos PDF para o formato Markdown usando modelos de linguagem visual

Introdução geral

O Vision Parse é uma ferramenta revolucionária de processamento de documentos que combina de forma inteligente a tecnologia de modelagem de linguagem visual (Vision Language Models) de última geração para converter de forma inteligente documentos PDF em conteúdo de alta qualidade no formato Markdown. A ferramenta é compatível com vários dos principais modelos de linguagem visual, incluindo OpenAI, LLama e Google Gemini, etc., e pode extrair com precisão o texto e as tabelas do documento, além de manter a estrutura hierárquica do documento original, o estilo e o recuo. O Vision Parse não só é compatível com o processamento de PDFs de várias páginas, como também oferece opções de implantação de modelos locais, para que os usuários possam estar ao mesmo tempo e garantir a segurança do documento. processamento off-line. Seu design simples de API permite que os desenvolvedores realizem tarefas complexas de conversão de documentos com apenas algumas linhas de código, aumentando consideravelmente a eficiência e a precisão do processamento de documentos.


 

Lista de funções

  • Extração inteligente de conteúdo: use modelos avançados de linguagem visual para reconhecer e extrair com precisão o conteúdo de textos e tabelas
  • Integridade de formatação: mantém a formatação completa da estrutura hierárquica, do estilo e do recuo do documento
  • Suporte a vários modelos: compatível com OpenAI, LLama, Gemini e outros provedores de modelos de linguagem visual
  • Processamento de PDF com várias páginas: o suporte a documentos PDF com várias páginas será convertido em imagens codificadas em base64 para processamento
  • Implementação de modelo local: a Ollama suporta a implementação de modelo local para segurança de documentos e uso off-line.
  • Configuração personalizada: suporta parâmetros personalizados de processamento de PDF, como DPI, espaço de cores, etc.
  • API flexível: fornece uma interface de API Python simples e intuitiva

 

Usando a Ajuda

1. preparação para a instalação

Requisitos básicos:

  • Python 3.9 ou superior
  • Para usar o modelo local, você precisa instalar o Ollama.
  • A chave de API apropriada é necessária para usar o OpenAI ou o Google Gemini

Etapas de instalação:

  1. Use o pip para instalar o pacote básico:
pip install vision-parse
  1. Instale dependências adicionais conforme necessário:
  • Suporte à OpenAI:pip install 'vision-parse[openai]'
  • Suporte a Gêmeos:pip install 'vision-parse[gemini]'

2. uso básico

Código de amostra:

from vision_parse import VisionParser
# 初始化解析器
parser = VisionParser(
model_name="llama3.2-vision:11b",  # 使用本地模型
temperature=0.4,
top_p=0.3,
extraction_complexity=False  # 设置为True获取更详细的提取结果
)
# 转换PDF文件
pdf_path = "your_document.pdf"
markdown_pages = parser.convert_pdf(pdf_path)
# 处理转换结果
for i, page_content in enumerate(markdown_pages):
print(f"\n--- 第 {i+1} 页 ---\n{page_content}")

3. configuração avançada

Configuração da página do PDF:

from vision_parse import VisionParser, PDFPageConfig
# 配置PDF处理设置
page_config = PDFPageConfig(
dpi=400,
color_space="RGB",
include_annotations=True,
preserve_transparency=False
)
# 使用自定义配置初始化解析器
parser = VisionParser(
model_name="llama3.2-vision:11b",
temperature=0.7,
top_p=0.4,
page_config=page_config
)

4. modelos de suporte

O Vision Parse oferece suporte a uma ampla variedade de modelos de linguagem visual convencionais:

  • Modelos OpenAI: gpt-4o, gpt-4o-mini
  • Modelos do Google Gemini: gemini-1.5-flash, gemini-2.0-flash-exp, gemini-1.5-pro
  • Meta Llama e Llava (por meio de Ollama): llava:13b, llava:34b, llama3.2-vision:11b, llama3.2-vision:70b

5. técnicas de uso

  • Escolha do modelo certo: escolha um modelo local ou um serviço baseado em nuvem de acordo com suas necessidades
  • Ajuste de parâmetros: a criatividade e a precisão da saída são ajustadas pelos parâmetros temperatura e top_p.
  • Complexidade da extração: para documentos complexos, é recomendável definir extraction_complexity=True
  • Implementação local: a documentação sensível sugere o uso do Ollama para a implementação do modelo local
  • Configuração de PDF: de acordo com as características do documento para ajustar o DPI, o espaço de cores e outros parâmetros
Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Vision Parse: conversão inteligente de documentos PDF para o formato Markdown usando modelos de linguagem visual
pt_BRPortuguês do Brasil