O que você terá ao final

Ao final deste guia, você terá um assistente de IA privado que:

  • Funciona 100% na sua máquina Windows — nenhuma conexão com a internet necessária após a configuração
  • Pode ler e responder perguntas sobre seus PDFs, documentos Word e planilhas
  • Parece uma interface de chat normal no seu navegador
  • Não custa nada para executar após a configuração única

Requisitos mínimos

Você não precisa de um computador poderoso para Q&A básico de documentos. Verifique o seguinte:

  • Windows 10 ou Windows 11 (ambos funcionam)
  • 16 GB RAM — abra o Gerenciador de Tarefas, clique na aba Desempenho e veja Memória. Se você tiver menos de 16 GB, a configuração ainda funcionará, mas será mais lenta.
  • 30 GB de espaço em disco livre — verifique no Explorador de Arquivos em Este PC
  • Conexão com a internet para configuração — você baixará software e um modelo de IA. Depois disso, tudo funciona offline.

É isso. Nenhum cartão gráfico especial necessário.

As duas ferramentas que você instalará

AnythingLLM é sua aplicação principal. Oferece uma interface de chat limpa e familiar — similar ao ChatGPT — mas tudo funciona privadamente na sua máquina. Ele lida com uploads de documentos, organiza seus arquivos em espaços de trabalho e permite que sua equipe faça perguntas em centenas de documentos.

Ollama funciona silenciosamente em segundo plano. Pense nele como o motor que alimenta a IA. AnythingLLM o usa para fazer o pensamento real — você não interagirá com ele diretamente após a configuração.

Passo 1 — Instale Ollama

  1. Vá para ollama.com e clique em Download para Windows.
  2. Execute o instalador (OllamaSetup.exe). Clique através dos prompts — nenhuma configuração personalizada necessária.
  3. Uma vez instalado, Ollama funciona silenciosamente na sua bandeja do sistema (canto inferior direito da sua barra de tarefas). Você não verá uma janela abrir.

Verifique se funcionou: Abra seu navegador e vá para http://localhost:11434. Você deve ver o texto Ollama is running. Se você vir isso, está tudo bem.

Passo 2 — Baixe um modelo de IA

Ollama precisa de um modelo de IA para funcionar. Para trabalho com documentos confidenciais em um PC de negócios padrão, Mistral 7B é o melhor equilíbrio de qualidade e velocidade.

  1. Clique no menu Iniciar e procure por Prompt de Comando. Abra-o.
  2. Digite o seguinte e pressione Enter:
    ollama pull mistral
  3. Aguarde o download ser concluído — são aproximadamente 4 GB, então isso pode levar alguns minutos em uma conexão padrão.
  4. Uma vez concluído, digite exit e feche o Prompt de Comando. Você não precisará dele novamente.
Opção mais leve: Se seu PC tiver menos de 16 GB de RAM, use ollama pull phi4-mini em vez disso — é menor e mais rápido em hardware modesto, com uma profundidade de raciocínio ligeiramente menor.

Passo 3 — Instale AnythingLLM

  1. Vá para anythingllm.com e clique em Download — Desktop App.
  2. Execute o instalador e siga os prompts.
  3. Abra AnythingLLM do seu menu Iniciar ou desktop.

Na primeira inicialização, um assistente de configuração o guia através da configuração. Aqui está o que escolher:

  • Provedor LLM: Selecione Ollama
  • URL Base Ollama: Deixe como http://localhost:11434 (isto já está preenchido)
  • Modelo: Selecione mistral (ou qualquer modelo que você tenha baixado no Passo 2)
  • Modelo de Incorporação: Selecione qualquer opção que diga "local" — isto manipula a indexação de documentos e também funciona na sua máquina

Clique através do resto do assistente usando os padrões.

Passo 4 — Envie seus documentos

AnythingLLM organiza documentos em Espaços de Trabalho — pense neles como salas separadas, uma por projeto ou cliente.

  1. Clique em Novo Espaço de Trabalho e nomeie-o (por exemplo, "Contratos de Cliente 2026" ou "Relatórios Financeiros").
  2. Clique no ícone Upload dentro do espaço de trabalho.
  3. Arraste e solte seus arquivos — PDFs, documentos Word (.docx), planilhas (.xlsx) ou arquivos de texto simples todos funcionam.
  4. AnythingLLM processa cada arquivo e constrói um índice privado. Isso acontece localmente; nada deixa sua máquina.

Você pode criar quantos espaços de trabalho precisar e alternar entre eles a qualquer hora.

Passo 5 — Comece a fazer perguntas

Clique em qualquer espaço de trabalho e use a caixa de chat. Tente perguntas como:

  • "Quais são os termos de pagamento nos contratos enviados?"
  • "Resuma os riscos principais do relatório financeiro Q3."
  • "Quais documentos mencionam a data de vencimento do NDA?"
  • "Liste cada item de ação da ata da reunião enviada."

A IA responderá com base apenas nos documentos daquele espaço de trabalho. Ela não adivinará ou puxará da internet — tudo é baseado em seus arquivos reais.

O que esta configuração não pode fazer

Este guia o leva a um assistente de documentos privado funcionando rapidamente. Existem coisas que ele não aborda:

  • Executar um modelo mais poderoso que requer um cartão gráfico (GPU)
  • Conectar AnythingLLM a suas ferramentas de negócios existentes via API
  • Configurar fluxos de trabalho automatizados (por exemplo, resumir automaticamente novos contratos)
  • Implantação de servidor multiusuário para toda uma equipe

Se suas necessidades crescerem além de Q&A de documentos para um único usuário ou pequena equipe, veja o guia complementar: Implantação LocalAI Avançada no Windows para Equipes Empresariais — que aborda aceleração GPU, integração de API e fluxos de trabalho de agentes autônomos.

Mantendo seus dados privados

Antes de começar a enviar documentos sensíveis, verifique se sua configuração está totalmente offline:

  • ☐ Ollama está em execução — verifique se http://localhost:11434 mostra "Ollama is running"
  • ☐ AnythingLLM está definido para usar Ollama, não nenhum provedor em nuvem
  • ☐ Seu Windows Firewall está ativo (Configurações → Segurança do Windows → Firewall)
  • ☐ Você não inseriu nenhuma chave de API para OpenAI, Anthropic ou serviços similares nas configurações do AnythingLLM

Com estes confirmados, seus documentos nunca deixam sua máquina. Não há sincronização em nuvem, nenhuma telemetria no conteúdo do documento e nenhuma chamada de inferência externa.

Problemas comuns e correções

AnythingLLM diz que não pode se conectar ao Ollama

Verifique se Ollama está em execução na sua bandeja do sistema. Se não estiver lá, relance-o do menu Iniciar. Então vá para AnythingLLM Configurações → LLM e clique em Testar Conexão.

A IA é muito lenta em responder

Isto é normal em PCs com menos de 16 GB de RAM ou sem cartão gráfico. Tente alternar para um modelo mais leve: abra o Prompt de Comando, execute ollama pull phi4-mini, depois atualize o modelo em AnythingLLM Configurações → LLM.

Enviei um documento, mas a IA não parece saber sobre isso

Verifique se você enviou o arquivo dentro do espaço de trabalho correto — a IA vê apenas documentos em seu próprio espaço de trabalho. Também verifique se o arquivo terminou de processar (você verá uma marca de seleção verde no painel de uploads).

O modelo dá respostas vagas ou incorretas

Reformule a pergunta para ser mais específica e referencie o documento por nome se possível (por exemplo, "No contrato Acme, qual é a cláusula de rescisão?"). Modelos maiores manipulam melhor perguntas ambíguas — considere atualizar para Mistral 7B se estiver no Phi-4 Mini mais leve.