Aprendizagem pessoal com IA
e orientação prática
Espelho de desenho CyberKnife
Total de 25 artigos

Tags: implementação local ferramentas de modelo grande de código aberto

LitServe: implantação rápida de serviços de raciocínio de modelo geral de IA de nível empresarial - Círculo de compartilhamento de IA principal

LitServe: implantação rápida de serviços de inferência de modelos de IA de uso geral de nível empresarial

Introdução abrangente O LitServe é um mecanismo de serviço de modelo de IA de código aberto da Lightning AI, desenvolvido com base na FastAPI, com foco na implantação rápida de serviços de inferência para modelos de IA de uso geral. Ele oferece suporte a um amplo campo de modelos clássicos de aprendizado de máquina, desde modelos de linguagem ampla (LLMs), modelos visuais, modelos de áudio, até...

Nexa: uma pequena solução de IA multimodal que é executada localmente - Chief AI Sharing Circle

Nexa: uma pequena solução de IA multimodal que é executada localmente

Introdução abrangente A Nexa AI é uma plataforma focada em soluções multimodais de IA executadas localmente. Ela oferece uma ampla variedade de modelos de IA, incluindo processamento de linguagem natural (NLP), visão computacional, reconhecimento e geração de fala (ASR e TTS), que podem ser executados localmente em dispositivos sem depender da nuvem...

vLLM: um mecanismo de serviço e inferência LLM para utilização eficiente da memória - Chief AI Sharing Circle

vLLM: um mecanismo de serviço e inferência LLM para utilização eficiente da memória

Introdução abrangente O vLLM é um mecanismo de serviço e raciocínio de alto rendimento e eficiente em termos de memória, projetado para Modelagem de Linguagem Grande (LLM). Originalmente desenvolvido pelo Sky Computing Lab da Universidade da Califórnia em Berkeley, tornou-se um projeto comunitário conduzido pelo setor acadêmico e pelo setor.

Llama 3.2 Reasoning WebGPU: executando o Llama-3.2 em um navegador

Introdução geral Transformers.js é uma biblioteca JavaScript fornecida pela Hugging Face, projetada para executar modelos de aprendizado de máquina de última geração diretamente no navegador, sem suporte de servidor. A biblioteca é comparável à biblioteca de transformadores da Hugging Face para Python e oferece suporte a uma variedade de modelos...

Harbor: um conjunto de ferramentas em contêineres para implantar ambientes de desenvolvimento LLM locais e gerenciar e executar facilmente serviços de IA com um clique - Chief AI Sharing Circle

Harbor: um conjunto de ferramentas em contêineres para implantar ambientes locais de desenvolvimento do LLM com um clique e gerenciar e executar facilmente os serviços de IA

Introdução abrangente O Harbor é um conjunto revolucionário de ferramentas LLM em contêineres, focado na simplificação da implantação e do gerenciamento de ambientes locais de desenvolvimento de IA. Ele permite que os desenvolvedores iniciem e gerenciem todos os serviços de IA, incluindo back-ends de LLM, interfaces de API, interfaces de front-end etc., com um único clique por meio de uma interface de linha de comando (CLI) limpa e um aplicativo complementar...

Xinference: implantação e serviço fáceis de modelos de IA distribuídos - Círculo de compartilhamento de IA principal

Xinference: implantação e veiculação fáceis de modelos de IA distribuídos

Introdução abrangente O Xorbits Inference (Xinference, para abreviar) é uma biblioteca avançada e versátil voltada para a implantação distribuída e o fornecimento de modelos de linguagem, modelos de reconhecimento de fala e modelos multimodais. Com o Xorbits Inference, os usuários podem facilmente implantar e fornecer seus próprios modelos ou modelos prévios incorporados...

Galeria de desenvolvimento de IA: Conjunto de ferramentas de desenvolvimento de modelo de IA nativo do Windows, integração de modelo do lado final em aplicativos do Windows - Chief AI Sharing Circle

Galeria de desenvolvimento de IA: Conjunto de ferramentas de desenvolvimento de modelos de IA nativos do Windows, integração de modelos do lado final em aplicativos do Windows

Introdução abrangente O AI Dev Gallery é um aplicativo de ferramentas de desenvolvimento de IA da Microsoft (atualmente em visualização pública) projetado para desenvolvedores do Windows. Ele fornece uma plataforma abrangente para ajudar os desenvolvedores a integrar facilmente os recursos de IA em seus aplicativos Windows. O recurso mais notável da ferramenta...

LightLLM: uma estrutura leve e eficiente para raciocinar e atender a grandes modelos de linguagem - Chief AI Sharing Circle

LightLLM: uma estrutura leve e eficiente para raciocinar e atender a grandes modelos de linguagem

Introdução abrangente O LightLLM é uma estrutura de serviço e inferência de Modelo de Linguagem Grande (LLM) baseada em Python, conhecida por seu design leve, facilidade de extensão e desempenho eficiente. A estrutura aproveita uma variedade de implementações de código aberto bem conhecidas, incluindo FasterTransformer, TGI, vLLM e FlashAttention ...

Transformers.js: quase 700 macromodelos de IA em execução na Web local

Introdução geral Transformers.js é uma biblioteca JavaScript desenvolvida pela Hugging Face para permitir que os usuários executem modelos de aprendizado de máquina de última geração diretamente no navegador sem suporte de servidor. A biblioteca é funcionalmente equivalente à biblioteca de transformadores da Hugging Face para Python...

GLM Edge: a Smart Spectrum lança modelos de linguagem de ponta e modelos de compreensão multimodal para plataformas móveis, de veículos e de PCs - Chief AI Sharing Circle

GLM Edge: a Smart Spectrum lança modelos de linguagem de ponta e modelos de compreensão multimodal para plataformas móveis, automotivas e de PC

Introdução abrangente O GLM-Edge é uma série de modelos de linguagem ampla e modelos de compreensão multimodal projetados para dispositivos finais da Universidade de Tsinghua (Smart Spectrum Light Language). Esses modelos incluem o GLM-Edge-1.5B-Chat, o GLM-Edge-4B-Chat, o GLM-Edge-V-2B e o GLM-Edge-V-5B, que são adequados para telefones celulares,...

EXO: execução de clusters de IA distribuídos usando dispositivos domésticos ociosos com suporte para vários mecanismos de inferência e descoberta automatizada de dispositivos. -Círculo de compartilhamento de IA principal

EXO: execução de clusters de IA distribuídos usando dispositivos domésticos ociosos, com suporte a vários mecanismos de inferência e descoberta automatizada de dispositivos.

Introdução geral O Exo é um projeto de código aberto que tem como objetivo executar seu próprio cluster de IA usando dispositivos cotidianos (por exemplo, iPhone, iPad, Android, Mac, Linux etc.). Por meio do particionamento dinâmico de modelos e da descoberta automatizada de dispositivos, o Exo é capaz de unificar vários dispositivos em uma única GPU avançada, com suporte a vários modelos, como LLaMA, Mis...

LocalAI: solução de implementação de IA local de código aberto, suporte para várias arquiteturas de modelo, gerenciamento unificado de modelos e APIs na WebUI - Chief AI Sharing Circle

LocalAI: soluções de implementação de IA local de código aberto, suporte para várias arquiteturas de modelo, gerenciamento unificado de modelos e APIs na WebUI

Introdução geral O LocalAI é uma alternativa de IA local de código aberto projetada para fornecer interfaces de API compatíveis com o OpenAI, Claude e outros. Ele suporta a execução em hardware de nível de consumidor, não requer uma GPU e é capaz de executar uma ampla variedade de tarefas, como texto, áudio, vídeo, geração de imagens e clonagem de fala.

llamafile: distribuir e executar LLMs usando um único arquivo, simplificar a implantação de LLMs, suporte multiplataforma para LLMs-Chief AI Sharing Circle

llamafile: distribuir e executar LLMs usando um único arquivo, simplificar a implementação de LLMs, suporte multiplataforma para LLMs

Introdução geral O llamafile é uma ferramenta do projeto Mozilla Builders criada para simplificar a implantação e a operação do Large Language Model (LLM). Ao combinar o llama.cpp com a Cosmopolitan Libc, o llamafile reduz o complexo processo de implantação do LLM a um único arquivo executável,...

Petals: execução de GPU compartilhada distribuída e ajuste fino de grandes modelos de linguagem, compartilhando recursos de GPU como uma rede BitTorrent - Chief AI Sharing Circle

Petals: execução distribuída de GPU compartilhada e ajuste fino de grandes modelos de linguagem, compartilhando recursos de GPU como uma rede BitTorrent

Introdução geral O Petals é um projeto de código aberto desenvolvido pelo BigScience Workshop para executar modelos de linguagem grandes (LLMs) por meio de uma abordagem de computação distribuída. Os usuários podem executar e ajustar os LLMs em casa usando GPUs de nível de consumidor ou o Google Colab, como Llama 3.1, Mixtral, F...

Mecanismo Aphrodite: um mecanismo de inferência LLM eficiente que oferece suporte a vários formatos de quantificação e inferência distribuída.

Introdução abrangente O Aphrodite Engine é o mecanismo de back-end oficial do PygmalionAI, projetado para fornecer um ponto de extremidade de inferência para sites do PygmalionAI e para dar suporte à rápida implementação de modelos compatíveis com o Hugging Face. O mecanismo aproveita a tecnologia Paged Attention do vLLM para gerenciamento eficiente de K/V e processamento contínuo de lotes,...

llama.cpp: ferramenta de inferência eficiente, compatível com vários hardwares, fácil de implementar inferência LLM - Chief AI Sharing Circle

llama.cpp: ferramenta de inferência eficiente, compatível com vários hardwares, fácil de implementar a inferência LLM

Introdução geral llama.cpp é uma biblioteca implementada em C/C++ puro, projetada para simplificar o processo de inferência de modelos de linguagem grande (LLMs). Ela é compatível com uma ampla gama de plataformas de hardware, incluindo Apple Silicon, GPUs NVIDIA e GPUs AMD, e oferece várias opções de quantização para melhorar a velocidade de inferência e reduzir o uso de memória. O projeto ...

Hyperspace (aiOS): rede de compartilhamento de aritmética de IA distribuída, navegador generativo aiOS, inteligências de conhecimento profundo - Chief AI Sharing Circle

Hyperspace (aiOS): rede de compartilhamento de aritmética de IA distribuída, navegador generativo do aiOS, inteligências de conhecimento profundo

Introdução geral O Hyperspace é um navegador generativo inovador (aiOS), baseado na maior rede de IA ponto a ponto do mundo, projetado para oferecer aos usuários ferramentas poderosas para pesquisa e análise profundas. Ao integrar uma ampla variedade de modelos de IA e fontes de dados, o Hyperspace permite que os usuários gerem rapidamente redes de informações, utilizando fontes de alta qualidade...

LiteLLM: SDK Python para chamada unificada de várias APIs de Big Model, ferramenta de gerenciamento e chamada de LLM multiplataforma - Chief AI Sharing Circle

LiteLLM: SDK Python para chamada unificada de várias APIs de Big Model, ferramenta de gerenciamento e chamada de LLM multiplataforma

  Introdução geral O LiteLLM é um SDK Python e um servidor proxy desenvolvido pela BerriAI para simplificar e unificar a invocação e o gerenciamento de várias APIs de modelo de linguagem grande (LLM). Ele é compatível com mais de 100 APIs de modelos grandes, incluindo OpenAI, HuggingFace, Azure etc., unificadas em um sistema operacional...

RWKV Runner: ferramenta de gerenciamento de RWKV de modelo de linguagem em grande escala de código aberto - Chief AI Sharing Circle

RWKV Runner: ferramenta de gerenciamento do modelo de linguagem em larga escala de código aberto RWKV

Introdução geral O RWKV-Runner é uma ferramenta de gerenciamento e lançamento projetada especificamente para modelos RWKV, com o objetivo de fornecer uma ferramenta de gerenciamento e lançamento de RWKV fácil de usar. É totalmente automatizada e compacta, com apenas 8 MB de tamanho, e oferece uma interface compatível com a API OpenAI. Desenvolvido pelo membro da comunidade de código aberto do RWKV j...

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil