# Windows (escolha uma opção)
winget install Ollama.Ollama
# OU baixe em: https://ollama.ai/download
# Execute o script de setup (RECOMENDADO)
.\setup-ollama.bat
# OU manualmente:
ollama pull llama3.2:3b
.\run.bat
Pronto! O AI Assistant será carregado automaticamente se o Ollama estiver disponível. ✅
ollama pull llama3.2:3b # ~2GB - Balanceado (PADRÃO)
ollama pull phi3:mini # ~2.3GB - Mais rápido
ollama pull llama3:8b # ~4.7GB - Melhor qualidade
ollama pull mistral:7b # ~4GB - Bom para português
ollama pull codellama:7b # Para análise de código
ollama pull llama3-uncensored # Sem filtros de conteúdo
// Criar assistente
var config = AIConfig.LoadFromEnvironment();
using var ollama = new OllamaService(config);
var assistant = new IfcAIAssistant(ollama);
// Fazer perguntas
var help = await assistant.AskAsync("Como usar o modo VR?");
// Analisar elementos
var properties = new Dictionary<string, string>
{
["Type"] = "IfcWall",
["Height"] = "3.0m"
};
var analysis = await assistant.AnalyzeElementAsync("Wall", properties);
// Obter sugestões
var suggestions = await assistant.GetSuggestionsAsync("Modelo grande carregado");
.env# Ollama Configuration
OLLAMA_BASE_URL=http://localhost:11434
OLLAMA_MODEL=llama3.2:3b
# Outras APIs (opcional)
OPENAI_API_KEY=sua_chave_aqui
DEEPSEEK_API_KEY=sua_chave_aqui
Edite o .env:
OLLAMA_MODEL=phi3:mini # Ou qualquer modelo instalado
var config = new AIConfig
{
MaxTokens = 1024, // Reduzir para respostas mais curtas
Temperature = 0.5f // 0.0-1.0 (menor = mais conservador)
};
# Verificar se Ollama está rodando
curl http://localhost:11434/api/tags
# Se não estiver, iniciar:
ollama serve
# Listar modelos instalados
ollama list
# Baixar modelo padrão
ollama pull llama3.2:3b
phi3:mini (2.3GB)MaxTokens para 512 ou menosMaxTokens| Modelo | Tamanho | RAM | Velocidade | Qualidade |
|---|---|---|---|---|
| llama3.2:3b | 2GB | 8GB | ⚡⚡⚡⚡⚡ | ⭐⭐⭐⭐ |
| phi3:mini | 2.3GB | 8GB | ⚡⚡⚡⚡⚡ | ⭐⭐⭐ |
| llama3:8b | 4.7GB | 16GB | ⚡⚡⚡⚡ | ⭐⭐⭐⭐⭐ |
| mistral:7b | 4GB | 16GB | ⚡⚡⚡⚡ | ⭐⭐⭐⭐⭐ |
.env no .gitignore (API keys seguras)Ver: docs/OLLAMA_SETUP.md
Feito com ❤️ pela Avila Development