Chat Ollama (client)
By Uriel
🗑️ Limpar Chat
⚙️ Configurações
Ollama configurado - Pronto para usar!
Pronto para conversar e analisar arquivos!
Anexar
Enviar
×
Configurações
Endereço do Servidor Ollama
URL da API Ollama:
Seleção de Modelo
Selecione o modelo e ajuste o tamanho do contexto apropriadamente:
Carregando modelos...
Tamanho do Contexto (num_ctx)
Tamanho máximo do prompt de entrada em tokens: (~4 bytes/token)
Padrão do Modelo
2K tokens
4K tokens
8K tokens
16K tokens
32K tokens
64K tokens
128K tokens
Comprimento Máximo da Resposta (num_predict)
Número máximo de tokens na resposta:
Padrão do Modelo
128 tokens
256 tokens
512 tokens
1024 tokens
2048 tokens
4096 tokens
8192 tokens
16384 tokens
32768 tokens
Prompt do Sistema (system)
Instruções iniciais para o modelo:
Usar Padrão do Modelo
Memória de Contexto
Presets de Geração
Preset "Conversação"
Preset "Programação"
Preset "Criativo"
Preset "Padrão do Modelo"
Ver Último Envio
ℹ️ Informações do Modelo Selecionado
×
Anexar Arquivos
Clique para adicionar arquivos ou arraste aqui
Limpar Arquivos Anexados
×
Detalhes do Modelo
×
Último JSON Enviado à API Ollama