.env - Configuração de ambiente com todas as API keysAI/AIConfig.cs - Configuração do AI AssistantAI/OllamaService.cs - Cliente Ollama completo com streamingAI/IfcAIAssistant.cs - Assistente especializado em IFC/BIMExamples/AIExamples.cs - 6 exemplos práticos de usosetup-ollama.bat - Script automático de instalaçãotest-ai.bat - Script de teste da integraçãoAI_README.md - Guia rápido de usodocs/OLLAMA_SETUP.md - Documentação completaVizzio.csproj - Adicionado DotNetEnv para carregar .envProgram.cs - Inicialização automática do AI AssistantREADME.md - Documentação atualizada com seção AI# Windows
winget install Ollama.Ollama
# Ou baixe em: https://ollama.ai/download
# Execute o script (faz tudo automaticamente)
.\setup-ollama.bat
O script vai:
# Testar se está tudo funcionando
.\test-ai.bat
# Rodar a aplicação
.\run.bat
O AI Assistant será carregado automaticamente! 🎉
var assistant = new IfcAIAssistant(ollama);
var resposta = await assistant.AskAsync("Como usar o modo VR?");
var properties = new Dictionary<string, string>
{
["Type"] = "IfcWall",
["Height"] = "3.0m"
};
var analise = await assistant.AnalyzeElementAsync("Wall", properties);
var sugestoes = await assistant.GetSuggestionsAsync("Modelo grande carregado");
// Retorna: ["Use filtros de camada", "Ajuste a velocidade da câmera", ...]
var ajuda = await assistant.GetFeatureHelpAsync("VR Mode");
await foreach (var chunk in ollama.GenerateStreamAsync("Explique BIM"))
{
Console.Write(chunk); // Aparece palavra por palavra
}
var modelos = await ollama.GetAvailableModelsAsync();
// Retorna: ["llama3.2:3b", "phi3:mini", ...]
ollama pull llama3.2:3b # ~2GB - Balanceado ⭐
ollama pull phi3:mini # ~2.3GB - Mais rápido
ollama pull llama3:8b # ~4.7GB - Melhor qualidade
ollama pull mistral:7b # ~4GB - Ótimo para português
ollama pull codellama:7b # Para análise de código
ollama pull llama3-uncensored # Sem filtros
Quando você roda .\run.bat, o VIZZIO:
.env automaticamente.env no .gitignore` - API keys protegidas# No Program.cs, adicione:
await Vizzio.Examples.AIExamples.RunAllExamplesAsync();
// Ver arquivo Examples/AIExamples.cs para 6 exemplos completos:
- BasicChatExampleAsync()
- ElementAnalysisExampleAsync()
- StreamingExampleAsync()
- ContextualSuggestionsExampleAsync()
- FeatureHelpExampleAsync()
- ListAvailableModelsExampleAsync()
# Verificar
curl http://localhost:11434/api/tags
# Reiniciar
ollama serve
ollama list # Ver instalados
ollama pull llama3.2:3b # Baixar modelo
phi3:mini (2.3GB)MaxTokens no .envMaxTokens.\setup-ollama.bat.\test-ai.bat para verificar.\run.bat e usar o VIZZIO com IA! 🎉llama3.2:3b é o melhor custo-benefíciomistral:7b tem melhor suporte a PT-BR.env.envAgora o VIZZIO tem um assistente AI completo que:
Pronto para usar! 🚀
Qualquer dúvida, veja:
Made with ❤️ by Avila Development