ChinaTravel: Rzeczywisty benchmark dla agentów językowych w planowaniu podróży po Chinach
Oficjalna baza kodu do artykułu "ChinaTravel: Rzeczywisty benchmark dla agentów językowych w planowaniu podróży po Chinach".
🏆 IJCAI 2025 Travel Planning Challenge (TPC@IJCAI)
Z dumą ogłaszamy, że ChinaTravel został wybrany jako oficjalny benchmark dla Travel Planning Challenge (TPC) @ IJCAI 2025!
Oficjalna strona konkursu: https://chinatravel-competition.github.io/IJCAI2025/
Uczestnicy są zaproszeni do tworzenia nowych agentów, którzy sprostają rzeczywistym scenariuszom planowania podróży pod złożonymi ograniczeniami. Ten konkurs zaprezentuje najnowocześniejsze podejścia w badaniach nad agentami językowymi.
📝 ChangeLog
2025.09
- Opublikowano zwycięskie rozwiązanie dla ścieżki DSL w TPC@IJCAI2025. Dziękujemy @evergreenee za ich wkład.
2025.06
- Naprawiono zbieranie błędów w kodzie oceny wiedzy zdroworozsądkowej.
- Naprawiono pipeline czysto-neuro agentów
- Naprawiono ładowanie zbiorów danych z huggingface
- Zaktualizowano obsługę wyjątków w weryfikacji składni
2025.05
- Zaktualizowano logi dla najnowszej wersji.
- Udostępniono kod ewaluacyjny dla TPC.
2025.04
- Dodano lokalny loader danych. Użytkownicy mogą teraz lokalnie ładować własne zapytania. Przy określeniu niestandardowych wartości splits_name (np. "abc") dla "run_exp.py", system automatycznie załaduje odpowiednie pliki z evaluation/default_splits/abc.txt, gdzie plik TXT zawiera nazwy plików docelowych zapytań.
- Szczegółowa klasyfikacja ograniczeń. Zobacz szczegółową dokumentację w Evaluation README
- Wprowadzono bazowy model LLM-modulo
- Wsparcie dla lokalnej inferencji LLM z Qwen3-8B/4B.
🚀 Szybki Start
⚙️ Instalacja
- Utwórz środowisko conda i zainstaluj zależności:
conda create -n chinatravel python=3.9
conda activate chinatravel
pip install -r requirements.txt - Pobierz bazę danych i rozpakuj ją do katalogu "chinatravel/environment/"
- Pobierz otwarte modele LLM (opcjonalnie).
bash download_llm.sh- Pobierz tokenizery.
wget https://cdn.deepseek.com/api-docs/deepseek_v3_tokenizer.zip -P chinatravel/local_llm/
unzip chinatravel/local_llm/deepseek_v3_tokenizer.zip -d chinatravel/local_llm/▶️ Uruchamianie
Obsługujemy deepseek (oficjalne API od deepseek), gpt-4o (chatgpt-4o-latest), glm4-plus oraz lokalne inferencje z Qwen (Qwen3-8B), llama, mistral (Mistral-7B-Instruct-v0.3) itd.
export OPENAI_API_KEY=""python run_exp.py --splits easy --agent LLMNeSy --llm deepseek --oracle_translation
python run_exp.py --splits medium --agent LLMNeSy --llm deepseek --oracle_translation
python run_exp.py --splits human --agent LLMNeSy --llm deepseek --oracle_translation
python run_exp.py --splits human --agent LLMNeSy --llm Qwen3-8B --oracle_translation
python run_exp.py --splits human --agent LLMNeSy --llm deepseek
python run_exp.py --splits human --agent LLMNeSy --llm Qwen3-8B
python run_exp.py --splits human --agent LLM-modulo --llm deepseek --refine_steps 10 --oracle_translation
python run_exp.py --splits human --agent LLM-modulo --llm Qwen3-8B --refine_steps 10 --oracle_translation
Uwaga:
- Flaga
--oracle_translationumożliwia dostęp do oznaczonej prawdziwej wartości, w tym: hard_logic_py: Wykonywalny kod weryfikujący w DSLhard_logic_nl: Odpowiednie opisy ograniczeń- Przykładowa struktura adnotacji:
{
"hard_logic_py": [
"
total_cost=0
for activity in allactivities(plan):
total_cost+=activity_cost(activity)
total_cost += innercity_transport_cost(activity_transports(activity))
result=(total_cost<=1000)
",
"
innercity_transport_set=set()
for activity in allactivities(plan):
if activity_transports(activity)!=[]:
innercity_transport_set.add(innercity_transport_type(activity_transports(activity)))
result=(innercity_transport_set<={'taxi'})
"
],
"hard_logic_nl": ["总预算为1800元", "市内交通选择taxi"],
}
``
- Metoda LLM-modulo wymaga trybu oracle_translation do procesu symbolicznej rafinacji
📊 Ewaluacja
bash
python eval_exp.py --splits human --method LLMNeSy_deepseek_oracletranslation
python eval_exp.py --splits human --method LLMNeSy_deepseek
python eval_exp.py --splits human --method LLM-modulo_deepseek_10steps_oracletranslation
python eval_exp.py --splits human --method LLM-modulo_Qwen3-8B_10steps_oracletranslationbash python eval_tpc.py --splits tpc_phase1 --method YOUR_METHOD_NAMEW TPC@IJCAI2025 kod oceny znajduje się w plikueval_tpc.py. Kod oceny można uruchomić w następujący sposób:
python:chinatravel/agent/your_agent.py from .base import BaseAgentBaseAgent📚 Dokumentacja
🛠️ Zaawansowany Rozwój
1. Opracuj Własny Algorytm Agenta
Aby opracować własny algorytm agenta, należy dziedziczyć klasę
z plikuchinatravel/agent/base.pyi dodać logikę swojego algorytmu do funkcjiinit_agentw plikuchinatravel/agent/load_model.py. Udostępniamy przykładowego pustego agenta o nazwieTPCAgent.BaseAgentKroki:
- Dziedzicz klasę
: Utwórz nowy plik Pythona w kataloguchinatravel/agenti zdefiniuj własną klasę agenta, dziedziczącą poBaseAgent.
class YourAgent(BaseAgent): def __init__(self, kwargs): super().__init__(kwargs) # Initialization logic
def act(self, observation): # Implement the decision - making logic of the agent pass
- Dodaj kod do funkcji init_agent: Otwórz plik chinatravel/agent/load_model.py i dodaj obsługę swojego nowego agenta w funkcji init_agent.
python:
def init_agent(kwargs):
# ... existing code ...
elif kwargs["method"] == "YourMethodName":
agent = YourAgent(
kwargs
)
# ... existing code ...
return agent
2. Opracuj własny lokalny LLM
Aby opracować własny lokalny model językowy (LLM), musisz odziedziczyć klasę AbstractLLM z chinatravel/agent/llms.py i dodać odpowiedni kod wnioskowania lokalnego LLM w pliku llms.py. Udostępniamy pusty przykład LLM o nazwie TPCLLM.
Kroki:
- Odziedzicz klasę AbstractLLM: Zdefiniuj własną klasę LLM w pliku chinatravel/agent/llms.py, dziedzicząc po AbstractLLM.
python
class YourLLM(AbstractLLM):
def __init__(self):
super().__init__()
# Initialization logic
self.name = "YourLLMName"def _get_response(self, messages, one_line, json_mode): # Implement the response logic of the LLM response = "Your LLM response" if json_mode: # Handle JSON mode pass elif one_line: # Handle one - line mode response = response.split("\n")[0] return response
- Dodaj kod do funkcji init_agent: Otwórz plik chinatravel/agent/load_model.py i dodaj obsługę swojego nowego llm w funkcji init_llm.
python:
def init_llm(kwargs):
# ... existing code ...
elif llm_name == "glm4-plus":
llm = YourLLM()
# ... existing code ...
return llm
3. Uruchom swój kod za pomocą skryptów eksperymentalnych
Po ukończeniu powyższego etapu rozwoju możesz użyć skryptów eksperymentalnych do uruchomienia swojego kodu.
Przykład uruchomienia:
bash
python run_tpc.py --splits easy --agent TPCAgent --llm TPCLLM
python run_exp.py --splits easy --agent YourMethodName --llm YourLLMName
@misc{shao2024chinatravelrealworldbenchmarklanguage, title={ChinaTravel: A Real-World Benchmark for Language Agents in Chinese Travel Planning}, author={Jie-Jing Shao and Xiao-Wen Yang and Bo-Wen Zhang and Baizhi Chen and Wen-Da Wei and Guohao Cai and Zhenhua Dong and Lan-Zhe Guo and Yu-feng Li}, year={2024}, eprint={2412.13682}, archivePrefix={arXiv}, primaryClass={cs.AI}, url={https://arxiv.org/abs/2412.13682}, } `` English | 简体中文 | 繁體中文 | 日本語 | 한국어 | हिन्दी | ไทย | Français | Deutsch | Español | Italiano | Русский | Português | Nederlands | Polski | العربية | فارسی | Türkçe | Tiếng Việt | Bahasa Indonesia | অসমীয়াWyniki zostaną zapisane w kataloguresults/YourMethodName_YourLLMName_xxx, np.results/TPCAgent_TPCLLM.✉️ Kontakt
W przypadku jakichkolwiek problemów prosimy o kontakt z Jie-Jing Shao, Bo-Wen Zhang, Xiao-Wen Yang.
📌 Cytowanie
Jeśli nasza praca lub powiązane zasoby okażą się wartościowe dla Twoich badań, prosimy o cytowanie.
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-17 ---