Aprendizagem pessoal com IA
e orientação prática
Espelho de desenho CyberKnife
Total de 27 artigos

Tags: implementação local ferramentas de modelo grande de código aberto

Aana SDK:简易部署多模态AI模型的开源工具-首席AI分享圈

Aana SDK: uma ferramenta de código aberto para facilitar a implantação de modelos de IA multimodais

Introdução geral O Aana SDK é uma estrutura de código aberto desenvolvida pela Mobius Labs, cujo nome vem da palavra malaiala ആന (elefante). Ele ajuda os desenvolvedores a implantar e gerenciar rapidamente modelos de IA multimodais, oferecendo suporte ao processamento de texto, imagens, áudio e vídeo e outros dados.

BrowserAI:利用WebGPU在浏览器本地运行AI模型-首席AI分享圈

BrowserAI: Executando modelos de IA localmente no navegador com WebGPUs

Introdução geral O BrowserAI é uma ferramenta de código aberto que permite aos usuários executar modelos de IA nativos diretamente no navegador. Ela foi desenvolvida pela equipe Cloud-Code-AI e é compatível com modelos de linguagem como Llama, DeepSeek e Kokoro. Os usuários não precisam de um servidor ou de uma configuração complexa para...

LitServe:快速部署企业级通用AI模型推理服务-首席AI分享圈

LitServe: implantação rápida de serviços de inferência de modelos de IA de uso geral de nível empresarial

Introdução abrangente O LitServe é um mecanismo de serviço de modelo de IA de código aberto da Lightning AI, desenvolvido com base na FastAPI, com foco na implantação rápida de serviços de inferência para modelos de IA de uso geral. Ele oferece suporte a um amplo campo de modelos clássicos de aprendizado de máquina, desde modelos de linguagem ampla (LLMs), modelos visuais, modelos de áudio, até...

Nexa:本地运行的小型多模态AI解决方案-首席AI分享圈

Nexa: uma pequena solução de IA multimodal que é executada localmente

Introdução abrangente A Nexa AI é uma plataforma focada em soluções multimodais de IA executadas localmente. Ela oferece uma ampla variedade de modelos de IA, incluindo processamento de linguagem natural (NLP), visão computacional, reconhecimento e geração de fala (ASR e TTS), que podem ser executados localmente em dispositivos sem depender da nuvem...

vLLM:高效内存利用的LLM推理和服务引擎-首席AI分享圈

vLLM: um mecanismo de serviço e inferência LLM para utilização eficiente da memória

Introdução abrangente O vLLM é um mecanismo de serviço e raciocínio de alto rendimento e eficiente em termos de memória, projetado para Modelagem de Linguagem Grande (LLM). Originalmente desenvolvido pelo Sky Computing Lab da Universidade da Califórnia em Berkeley, tornou-se um projeto comunitário conduzido pelo setor acadêmico e pelo setor.

Llama 3.2 Reasoning WebGPU: executando o Llama-3.2 em um navegador

Introdução geral Transformers.js é uma biblioteca JavaScript fornecida pela Hugging Face, projetada para executar modelos de aprendizado de máquina de última geração diretamente no navegador, sem suporte de servidor. A biblioteca é comparável à biblioteca de transformadores da Hugging Face para Python e oferece suporte a uma variedade de modelos...

Harbor:一键部署本地LLM开发环境,轻松管理和运行AI服务的容器化工具集-首席AI分享圈

Harbor: um conjunto de ferramentas em contêineres para implantar ambientes locais de desenvolvimento do LLM com um clique e gerenciar e executar facilmente os serviços de IA

Introdução abrangente O Harbor é um conjunto revolucionário de ferramentas LLM em contêineres, focado na simplificação da implantação e do gerenciamento de ambientes locais de desenvolvimento de IA. Ele permite que os desenvolvedores iniciem e gerenciem todos os serviços de IA, incluindo back-ends de LLM, interfaces de API, interfaces de front-end etc., com um único clique por meio de uma interface de linha de comando (CLI) limpa e um aplicativo complementar...

Xinference:轻松实现分布式AI模型部署和服务-首席AI分享圈

Xinference: implantação e veiculação fáceis de modelos de IA distribuídos

Introdução abrangente O Xorbits Inference (Xinference, para abreviar) é uma biblioteca avançada e versátil voltada para a implantação distribuída e o fornecimento de modelos de linguagem, modelos de reconhecimento de fala e modelos multimodais. Com o Xorbits Inference, os usuários podem facilmente implantar e fornecer seus próprios modelos ou modelos prévios incorporados...

AI Dev Gallery:Windows本地AI模型开发工具集,端侧模型集成到Windows应用-首席AI分享圈

Galeria de desenvolvimento de IA: Conjunto de ferramentas de desenvolvimento de modelos de IA nativos do Windows, integração de modelos do lado final em aplicativos do Windows

Introdução abrangente O AI Dev Gallery é um aplicativo de ferramentas de desenvolvimento de IA da Microsoft (atualmente em visualização pública) projetado para desenvolvedores do Windows. Ele fornece uma plataforma abrangente para ajudar os desenvolvedores a integrar facilmente os recursos de IA em seus aplicativos Windows. O recurso mais notável da ferramenta...

LightLLM:高效的轻量级大语言模型推理和服务框架-首席AI分享圈

LightLLM: uma estrutura leve e eficiente para raciocinar e atender a grandes modelos de linguagem

Introdução abrangente O LightLLM é uma estrutura de serviço e inferência de Modelo de Linguagem Grande (LLM) baseada em Python, conhecida por seu design leve, facilidade de extensão e desempenho eficiente. A estrutura aproveita uma variedade de implementações de código aberto bem conhecidas, incluindo FasterTransformer, TGI, vLLM e FlashAttention ...

Transformers.js: quase 700 macromodelos de IA em execução na Web local

Introdução geral Transformers.js é uma biblioteca JavaScript desenvolvida pela Hugging Face para permitir que os usuários executem modelos de aprendizado de máquina de última geração diretamente no navegador sem suporte de servidor. A biblioteca é funcionalmente equivalente à biblioteca de transformadores da Hugging Face para Python...

GLM Edge:智谱发布适用于手机、车机和PC平台的端侧大语言模型和多模态理解模型-首席AI分享圈

GLM Edge: a Smart Spectrum lança modelos de linguagem de ponta e modelos de compreensão multimodal para plataformas móveis, automotivas e de PC

Introdução abrangente O GLM-Edge é uma série de modelos de linguagem ampla e modelos de compreensão multimodal projetados para dispositivos finais da Universidade de Tsinghua (Smart Spectrum Light Language). Esses modelos incluem o GLM-Edge-1.5B-Chat, o GLM-Edge-4B-Chat, o GLM-Edge-V-2B e o GLM-Edge-V-5B, que são adequados para telefones celulares,...

EXO:利用闲置家用设备运行分布式AI集群,支持多种推理引擎和自动设备发现。-首席AI分享圈

EXO: execução de clusters de IA distribuídos usando dispositivos domésticos ociosos, com suporte a vários mecanismos de inferência e descoberta automatizada de dispositivos.

Introdução geral O Exo é um projeto de código aberto que tem como objetivo executar seu próprio cluster de IA usando dispositivos cotidianos (por exemplo, iPhone, iPad, Android, Mac, Linux etc.). Por meio do particionamento dinâmico de modelos e da descoberta automatizada de dispositivos, o Exo é capaz de unificar vários dispositivos em uma única GPU avançada, com suporte a vários modelos, como LLaMA, Mis...

LocalAI:开源的本地AI部署方案,支持多种模型架构,WebUI统一管理模型和API-首席AI分享圈

LocalAI: soluções de implementação de IA local de código aberto, suporte para várias arquiteturas de modelo, gerenciamento unificado de modelos e APIs na WebUI

Introdução geral O LocalAI é uma alternativa de IA local de código aberto projetada para fornecer interfaces de API compatíveis com o OpenAI, Claude e outros. Ele suporta a execução em hardware de nível de consumidor, não requer uma GPU e é capaz de executar uma ampla variedade de tarefas, como texto, áudio, vídeo, geração de imagens e clonagem de fala.

llamafile:使用单个文件分发和运行 LLMs,简化LLM部署,跨平台支持LLMs-首席AI分享圈

llamafile: distribuir e executar LLMs usando um único arquivo, simplificar a implementação de LLMs, suporte multiplataforma para LLMs

Introdução geral O llamafile é uma ferramenta do projeto Mozilla Builders criada para simplificar a implantação e a operação do Large Language Model (LLM). Ao combinar o llama.cpp com a Cosmopolitan Libc, o llamafile reduz o complexo processo de implantação do LLM a um único arquivo executável,...

Petals:分布式共享GPU运行和微调大语言模型,像BitTorrent网络一样共享GPU资源-首席AI分享圈

Petals: execução distribuída de GPU compartilhada e ajuste fino de grandes modelos de linguagem, compartilhando recursos de GPU como uma rede BitTorrent

Introdução geral O Petals é um projeto de código aberto desenvolvido pelo BigScience Workshop para executar modelos de linguagem grandes (LLMs) por meio de uma abordagem de computação distribuída. Os usuários podem executar e ajustar os LLMs em casa usando GPUs de nível de consumidor ou o Google Colab, como Llama 3.1, Mixtral, F...

Mecanismo Aphrodite: um mecanismo de inferência LLM eficiente que oferece suporte a vários formatos de quantificação e inferência distribuída.

Introdução abrangente O Aphrodite Engine é o mecanismo de back-end oficial do PygmalionAI, projetado para fornecer um ponto de extremidade de inferência para sites do PygmalionAI e para dar suporte à rápida implementação de modelos compatíveis com o Hugging Face. O mecanismo aproveita a tecnologia Paged Attention do vLLM para gerenciamento eficiente de K/V e processamento contínuo de lotes,...

llama.cpp:高效推理工具,支持多种硬件,轻松实现LLM推理-首席AI分享圈

llama.cpp: ferramenta de inferência eficiente, compatível com vários hardwares, fácil de implementar a inferência LLM

Introdução geral llama.cpp é uma biblioteca implementada em C/C++ puro, projetada para simplificar o processo de inferência de modelos de linguagem grande (LLMs). Ela é compatível com uma ampla gama de plataformas de hardware, incluindo Apple Silicon, GPUs NVIDIA e GPUs AMD, e oferece várias opções de quantização para melhorar a velocidade de inferência e reduzir o uso de memória. O projeto ...

Hyperspace(aiOS):分布式AI算力共享网络,aiOS生成式浏览器,深度知识智能体-首席AI分享圈

Hyperspace (aiOS): rede de compartilhamento de aritmética de IA distribuída, navegador generativo do aiOS, inteligências de conhecimento profundo

Introdução geral O Hyperspace é um navegador generativo inovador (aiOS), baseado na maior rede de IA ponto a ponto do mundo, projetado para oferecer aos usuários ferramentas poderosas para pesquisa e análise profundas. Ao integrar uma ampla variedade de modelos de IA e fontes de dados, o Hyperspace permite que os usuários gerem rapidamente redes de informações, utilizando fontes de alta qualidade...

pt_BRPortuguês do Brasil