Skip to content

OmniLlama é minha tentativa de criar uma maneira eficiente, local de trabalhar com cadeias de raciocínio com modelos relativamente pequenos.

Notifications You must be signed in to change notification settings

ulisses177/miniOmniLlama

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

5 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

miniOmniLlama: Assistente AI com Cadeia de Raciocínio Aprimorada

Thumbnail do miniOmniLlama

O miniOmniLlama é um projeto que implementa um assistente de IA avançado, utilizando cadeias de raciocínio sofisticadas para melhorar a precisão e a profundidade das respostas. O sistema emprega uma abordagem única de prompting iterativo para gerar uma sequência lógica de passos antes de fornecer uma resposta final.

Características Principais

  • Interface gráfica interativa usando Gradio
  • Geração de cadeias de raciocínio usando modelos de linguagem avançados
  • Armazenamento e recuperação de cadeias de raciocínio aprovadas
  • Visualização dos passos de raciocínio e da resposta final em formato Markdown
  • Processo iterativo de refinamento da cadeia de pensamento

Como Funciona o Aperfeiçoamento da Cadeia de Pensamento

O miniOmniLlama utiliza um processo sofisticado para gerar e refinar cadeias de raciocínio:

  1. Inicialização: O sistema começa gerando uma cadeia de raciocínio inicial com base na pergunta e em cadeias aprovadas anteriormente.

  2. Avaliação de Relevância: As cadeias aprovadas são avaliadas quanto à sua relevância para a pergunta atual, garantindo que apenas informações pertinentes sejam consideradas.

  3. Processo Iterativo: O sistema então entra em um loop de refinamento:

    • Avalia se é necessário um próximo passo ou se já temos uma resposta final.
    • Se um próximo passo for necessário, ele é selecionado de uma lista predefinida de passos lógicos.
    • O passo selecionado é executado, gerando uma análise detalhada.
    • Este processo se repete até que uma resposta final seja alcançada ou um número máximo de iterações seja atingido.
  4. Síntese da Resposta: Após completar as iterações, o sistema sintetiza uma resposta final com base em todos os passos de raciocínio gerados.

  5. Aprovação e Armazenamento: O usuário tem a opção de aprovar a cadeia de raciocínio gerada, que é então armazenada para uso futuro, melhorando continuamente o desempenho do sistema.

Requisitos

  • Python 3.8+
  • Dependências listadas em requirements.txt
  • Ollama instalado no sistema
  • Modelo llama3.2 disponível no Ollama

Instalação

  1. Clone este repositório:

    git clone https://github.com/seu-usuario/miniOmniLlama.git
    cd miniOmniLlama
    
  2. Crie um ambiente virtual (opcional, mas recomendado):

    python -m venv venv
    source venv/bin/activate  # No Windows use `venv\Scripts\activate`
    
  3. Instale as dependências:

    pip install -r requirements.txt
    
  4. Instale o Ollama seguindo as instruções em https://ollama.ai/

  5. Baixe e execute o modelo llama3.2 no Ollama:

    ollama run llama3.2
    

Uso

  1. Certifique-se de que o modelo llama3.2 está rodando no Ollama:

    ollama run llama3.2
    
  2. Execute o script principal:

    python interface.py
    
  3. Abra o navegador e acesse o endereço local fornecido (geralmente http://127.0.0.1:7860).

  4. Digite uma pergunta na caixa de texto e clique em "Enviar".

  5. Observe os passos de raciocínio gerados e a resposta final.

  6. Se desejar, aprove a cadeia de raciocínio para uso futuro clicando em "Aprovar cadeia de raciocínio".

Estrutura do Projeto

  • interface.py: Contém a interface gráfica do usuário usando Gradio.
  • core.py: Implementa a lógica principal do assistente de IA, incluindo o processo de refinamento da cadeia de pensamento.
  • passos_padrao.txt: Lista de passos padrão para o processo de raciocínio.

Contribuindo

Contribuições são bem-vindas! Por favor, sinta-se à vontade para submeter pull requests ou abrir issues para discutir melhorias ou relatar problemas.

Licença

Este projeto está licenciado sob a licença MIT. Veja o arquivo LICENSE para mais detalhes.

About

OmniLlama é minha tentativa de criar uma maneira eficiente, local de trabalhar com cadeias de raciocínio com modelos relativamente pequenos.

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages