Skip to content

Latest commit

 

History

History
98 lines (62 loc) · 5.83 KB

README_ja.md

File metadata and controls

98 lines (62 loc) · 5.83 KB

RAGENT

中文文档 | English | 日本語

おそらく最も軽量なローカル RAG + Agent アプリの一つで、複雑な設定なしに、ワンクリックで Agent の強化を受けた異なるモデルの能力の飛躍的な向上を体験できます。

このプロジェクトが気に入ったら、ぜひ star を付けてください。それは私にとってとても重要です!

image

特徴

チャットとエージェントのインタラクション:

  • 💭 シンプルで使いやすいチャットボックスインターフェース
  • 🌏️ 言語オプション(簡体字中国語、英語)
  • 🔧 複数の(ローカル)モデルソースの推論サポート(Azure OpenAI、Groq、ollama、llamafile)
  • ネイティブのFunction Call(OpenAI、Azure OpenAI、OpenAI Like、Ollama)
  • 🤖 複数のエージェントモードをオンプレミスで提供
  • 🖥️ ダイアログデータのローカルストレージと管理
    • 複数のエクスポート形式(Markdown、HTML)
    • 複数のテーマ(HTML)

知識ベース:

  • ネイティブ実装のリトリーバル強化生成(RAG)、軽量で効率的
  • オプションの埋め込みモデル(Hugging Face/OpenAI)
  • 使いやすい知識ベース管理
  • ハイブリッド検索、再ランキング、および指定ファイルのリトリーバル

このプロジェクトが気に入ったら、スターを付けてください。それが私にとって最大の励みです!

詳細

一般

レコードエクスポート

エクスポートフォーマット、テーマ選択、エクスポート範囲の制御をサポート:

エクスポート設定及びプレビュー

現在サポートしているテーマ:

クラシック Glassmorphism
中文导出原皮 中文导出透明皮

RAG Chat

image モデル設定(サイドバー) 及び 詳細引用の確認: image

RAG の設定:

image

Function Call(ツール呼び出し)

現在はChatでの関数呼び出しがサポートされており、将来的にはAgentChatでも関数呼び出しがサポートされる予定です。

ネイティブ呼び出しで、すべての OpenAI Compatible モデルに有効ですが、モデル自体が Function call をサポートする必要があります。

Function Call は LLM の能力を大幅に強化し、本来は不可能な作業(例:数学計算)を完了できるようにします。以下に例を示します:

Chat_page_tool_call zh_cn

またはウェブページの内容を要約する:

Chat_page_tool_call zh_cn

あなた自身で呼び出したい関数をカスタマイズすることもできます。書き方は toolkits.py の記述規則を参照してください。

クイックスタート

Git

  1. git clone https://github.com/Wannabeasmartguy/RAGENT.gitを使用してコードを取得します。 次に、**コマンドプロンプト(CMD)**で実行環境を開き、pip install -r requirements.txtを使用して実行依存関係をインストールします。

  2. モデル依存関係を設定します:.env_sampleファイルを.envに変更し、以下の内容を記入します:

    • LANGUAGE: English简体中文をサポートし、デフォルトはEnglishです。
    • OPENAI_API_KEY : OpenAIモデルを使用している場合、ここにAPIキーを記入します。
    • AZURE_OAI_KEY : Azure OpenAIモデルを使用している場合、ここにAPIキーを記入します。
    • AZURE_OAI_ENDPOINT : OpenAIモデルを使用している場合、ここにエンドポイントを記入します。
    • API_VERSION: Azure OpenAIモデルを使用している場合、ここにAPIバージョンを記入します。
    • API_TYPE: Azure OpenAIモデルを使用している場合、ここにAPIタイプを記入します。
    • GROQ_API_KEY : Groqをモデルソースとして使用している場合、ここにAPIキーを記入します。
    • COZE_ACCESS_TOKEN: 作成したCoze Botを使用する必要がある場合、ここにアクセストークンを記入します。

Llamafileを使用している場合、Llamafileモデルを起動した後、アプリケーション内でエンドポイントを設定してください。

  1. アプリケーションを起動します:

コマンドラインで:streamlit run RAGENT.py を実行すると起動し、起動完了後ブラウザで自動的にフロントエンドページが開きます。

コントリビュート 使用中に遭遇した問題や新しいアイデアについては、issue や PR の提出を歓迎します!