Web Analytics

proxyless-llm-websearch

⭐ 122 stars French by itshyao

🌐 Langue

🧠 Moteur de recherche Web LLM sans proxy

Un outil de recherche Web LLM multi-moteurs sans proxy, prenant en charge l'analyse du contenu des URL et l'exploration de pages web, combinant LangGraph et LangGraph-MCP pour réaliser une chaîne d'agents modulaires. Conçu pour les scénarios d'appel à des connaissances externes par les grands modèles de langage, il prend en charge l'acquisition et l'analyse de pages web via Playwright + Crawl4AI, la concurrence asynchrone, le découpage du contenu et le filtrage/réorganisation.

🚀 Journal des mises à jour

✨ Aperçu des fonctionnalités

workflow

framework

⚡ Démarrage rapide

Cloner le dépôt

git clone https://github.com/itshyao/proxyless-llm-websearch.git
cd proxyless-llm-websearch

Installation des dépendances

pip install -r requirements.txt
python -m playwright install

Configuration des variables d'environnement

# 百炼llm
OPENAI_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
OPENAI_API_KEY=sk-xxx
MODEL_NAME=qwen-plus-latest

百炼embedding

EMBEDDING_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 EMBEDDING_API_KEY=sk-xxx EMBEDDING_MODEL_NAME=text-embedding-v4

百炼reranker

RERANK_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 RERANK_API_KEY=sk-xxx RERANK_MODEL=gte-rerank-v2

Langgraph-Agent

#### DÉMONSTRATION

python agent/demo.py

#### SERVEUR API

python agent/api_serve.py

import requests

url = "http://localhost:8800/search"

data = { "question": "广州今日天气", "engine": "bing", "split": { "chunk_size": 512, "chunk_overlap": 128 }, "rerank": { "top_k": 5 } }

try: response = requests.post( url, json=data )

if response.status_code == 200: print("✅ 请求成功!") print("响应内容:", response.json()) else: print(f"❌ 请求失败,状态码:{response.status_code}") print("错误信息:", response.text)

except requests.exceptions.RequestException as e: print(f"⚠️ 请求异常:{str(e)}")

#### Gradio

python agent/gradio_demo.py

gradio

gradio

#### docker

docker-compose -f docker-compose-ag.yml up -d --build

Langgrph-MCP

#### Démarrer le service MCP

python mcp/websearch.py

#### DÉMO

python mcp/demo.py

#### SERVEUR API

python mcp/api_serve.py

import requests

url = "http://localhost:8800/search"

data = { "question": "广州今日天气" }

try: response = requests.post( url, json=data )

if response.status_code == 200: print("✅ 请求成功!") print("响应内容:", response.json()) else: print(f"❌ 请求失败,状态码:{response.status_code}") print("错误信息:", response.text)

except requests.exceptions.RequestException as e: print(f"⚠️ 请求异常:{str(e)}")

#### docker

docker-compose -f docker-compose-mcp.yml up -d --build

Module personnalisé

#### Partitionnement personnalisé

from typing import Optional, List

class YourSplitter: def __init__(self, text: str, chunk_size: int = 512, chunk_overlap: int = 128): self.text = text self.chunk_size = chunk_size self.chunk_overlap = chunk_overlap

def split_text(self, text: Optional[str] = None) -> List: # TODO: implement splitting logic return ["your chunk"]

#### Réorganisation personnalisée

from typing import List, Union, Tuple

class YourReranker: async def get_reranked_documents( self, query: Union[str, List[str]], documents: List[str], ) -> Union[ Tuple[List[str]], Tuple[List[int]], ]: return ["your chunk"], ["chunk index"]

🔍 Comparaison avec les tests de recherche en ligne

Nous avons comparé le projet avec certaines API en ligne populaires, en évaluant leurs performances sur des questions complexes.

🔥 Jeu de données

🧑‍🏫 Résultats de la comparaison

| Moteur de recherche/système | ✅ Correct | ❌ Incorrect | ⚠️ Partiellement correct | | -------------------------- | --------- | ----------- | ----------------------- | | Volcano Ark | 5.00% | 72.21% | 22.79% | | Bailian | 9.85% | 62.79% | 27.35% | | Our | 19.85% | 47.94% | 32.06% |

🙏 Remerciements

Certaines fonctionnalités du projet bénéficient du soutien et de l’inspiration des projets open source suivants, que nous remercions tout particulièrement :

--- Tranlated By Open Ai Tx | Last indexed: 2025-09-08 ---