Web Analytics

ChinaTravel

⭐ 0 stars Polish by Adopos

ChinaTravel: Rzeczywisty benchmark dla agentów językowych w planowaniu podróży po Chinach

Oficjalna baza kodu do artykułu "ChinaTravel: Rzeczywisty benchmark dla agentów językowych w planowaniu podróży po Chinach".

Strona internetowa Artykuł Zbiór danych (Huggingface) Konkurs (TPC@IJCAI2025) Konkurs (TPC@AIC2025)

🏆 IJCAI 2025 Travel Planning Challenge (TPC@IJCAI)

Z dumą ogłaszamy, że ChinaTravel został wybrany jako oficjalny benchmark dla Travel Planning Challenge (TPC) @ IJCAI 2025!

Oficjalna strona konkursu: https://chinatravel-competition.github.io/IJCAI2025/

Uczestnicy są zaproszeni do tworzenia nowych agentów, którzy sprostają rzeczywistym scenariuszom planowania podróży pod złożonymi ograniczeniami. Ten konkurs zaprezentuje najnowocześniejsze podejścia w badaniach nad agentami językowymi.

📝 ChangeLog

2025.09

2025.06

2025.05

2025.04

Implementacja pipeline'u LLM-modulo z weryfikatorem symbolicznym ground-truth. Na podstawie metodologii z: Artykuł: Robust Planning with Compound LLM Architectures: An LLM-Modulo Approach Repozytorium: https://github.com/Atharva-Gundawar/LLM-Modulo-prompts

🚀 Szybki Start

⚙️ Instalacja

conda create -n chinatravel python=3.9  
conda activate chinatravel  
pip install -r requirements.txt  

Linki do pobrania: Google Drive, NJU Drive

bash download_llm.sh

wget https://cdn.deepseek.com/api-docs/deepseek_v3_tokenizer.zip -P chinatravel/local_llm/
unzip chinatravel/local_llm/deepseek_v3_tokenizer.zip -d chinatravel/local_llm/

▶️ Uruchamianie

Obsługujemy deepseek (oficjalne API od deepseek), gpt-4o (chatgpt-4o-latest), glm4-plus oraz lokalne inferencje z Qwen (Qwen3-8B), llama, mistral (Mistral-7B-Instruct-v0.3) itd.

export OPENAI_API_KEY=""

python run_exp.py --splits easy --agent LLMNeSy --llm deepseek --oracle_translation python run_exp.py --splits medium --agent LLMNeSy --llm deepseek --oracle_translation python run_exp.py --splits human --agent LLMNeSy --llm deepseek --oracle_translation

python run_exp.py --splits human --agent LLMNeSy --llm Qwen3-8B --oracle_translation

python run_exp.py --splits human --agent LLMNeSy --llm deepseek python run_exp.py --splits human --agent LLMNeSy --llm Qwen3-8B

python run_exp.py --splits human --agent LLM-modulo --llm deepseek --refine_steps 10 --oracle_translation python run_exp.py --splits human --agent LLM-modulo --llm Qwen3-8B --refine_steps 10 --oracle_translation

Uwaga:

  {
    "hard_logic_py": [
      "
      total_cost=0 
      for activity in allactivities(plan):
          total_cost+=activity_cost(activity)
              total_cost += innercity_transport_cost(activity_transports(activity))
      result=(total_cost<=1000)
      ", 
      "
      innercity_transport_set=set()
      for activity in allactivities(plan):
          if activity_transports(activity)!=[]:              
              innercity_transport_set.add(innercity_transport_type(activity_transports(activity)))
      result=(innercity_transport_set<={'taxi'})
      "
    ], 
    "hard_logic_nl": ["总预算为1800元", "市内交通选择taxi"], 
  }
  ``
  • Metoda LLM-modulo wymaga trybu oracle_translation do procesu symbolicznej rafinacji

📊 Ewaluacja

bash python eval_exp.py --splits human --method LLMNeSy_deepseek_oracletranslation python eval_exp.py --splits human --method LLMNeSy_deepseek python eval_exp.py --splits human --method LLM-modulo_deepseek_10steps_oracletranslation python eval_exp.py --splits human --method LLM-modulo_Qwen3-8B_10steps_oracletranslation


W TPC@IJCAI2025 kod oceny znajduje się w pliku eval_tpc.py. Kod oceny można uruchomić w następujący sposób:
bash python eval_tpc.py --splits tpc_phase1 --method YOUR_METHOD_NAME

📚 Dokumentacja

Środowisko Ograniczenia

🛠️ Zaawansowany Rozwój

1. Opracuj Własny Algorytm Agenta

Aby opracować własny algorytm agenta, należy dziedziczyć klasę BaseAgent z pliku chinatravel/agent/base.py i dodać logikę swojego algorytmu do funkcji init_agent w pliku chinatravel/agent/load_model.py. Udostępniamy przykładowego pustego agenta o nazwie TPCAgent.

Kroki:

  • Dziedzicz klasę BaseAgent: Utwórz nowy plik Pythona w katalogu chinatravel/agent i zdefiniuj własną klasę agenta, dziedziczącą po BaseAgent.
python:chinatravel/agent/your_agent.py from .base import BaseAgent

class YourAgent(BaseAgent): def __init__(self, kwargs): super().__init__(kwargs) # Initialization logic

def act(self, observation): # Implement the decision - making logic of the agent pass


  • Dodaj kod do funkcji init_agent: Otwórz plik chinatravel/agent/load_model.py i dodaj obsługę swojego nowego agenta w funkcji init_agent.
python: def init_agent(kwargs): # ... existing code ... elif kwargs["method"] == "YourMethodName": agent = YourAgent( kwargs ) # ... existing code ... return agent

2. Opracuj własny lokalny LLM

Aby opracować własny lokalny model językowy (LLM), musisz odziedziczyć klasę AbstractLLM z chinatravel/agent/llms.py i dodać odpowiedni kod wnioskowania lokalnego LLM w pliku llms.py. Udostępniamy pusty przykład LLM o nazwie TPCLLM. Kroki:

  • Odziedzicz klasę AbstractLLM: Zdefiniuj własną klasę LLM w pliku chinatravel/agent/llms.py, dziedzicząc po AbstractLLM.
python class YourLLM(AbstractLLM): def __init__(self): super().__init__() # Initialization logic self.name = "YourLLMName"

def _get_response(self, messages, one_line, json_mode): # Implement the response logic of the LLM response = "Your LLM response" if json_mode: # Handle JSON mode pass elif one_line: # Handle one - line mode response = response.split("\n")[0] return response


  • Dodaj kod do funkcji init_agent: Otwórz plik chinatravel/agent/load_model.py i dodaj obsługę swojego nowego llm w funkcji init_llm.
python: def init_llm(kwargs): # ... existing code ... elif llm_name == "glm4-plus": llm = YourLLM() # ... existing code ... return llm

3. Uruchom swój kod za pomocą skryptów eksperymentalnych

Po ukończeniu powyższego etapu rozwoju możesz użyć skryptów eksperymentalnych do uruchomienia swojego kodu.

Przykład uruchomienia:

bash python run_tpc.py --splits easy --agent TPCAgent --llm TPCLLM python run_exp.py --splits easy --agent YourMethodName --llm YourLLMName

Wyniki zostaną zapisane w katalogu results/YourMethodName_YourLLMName_xxx, np. results/TPCAgent_TPCLLM.

✉️ Kontakt

W przypadku jakichkolwiek problemów prosimy o kontakt z Jie-Jing Shao, Bo-Wen Zhang, Xiao-Wen Yang.

📌 Cytowanie

Jeśli nasza praca lub powiązane zasoby okażą się wartościowe dla Twoich badań, prosimy o cytowanie.

@misc{shao2024chinatravelrealworldbenchmarklanguage, title={ChinaTravel: A Real-World Benchmark for Language Agents in Chinese Travel Planning}, author={Jie-Jing Shao and Xiao-Wen Yang and Bo-Wen Zhang and Baizhi Chen and Wen-Da Wei and Guohao Cai and Zhenhua Dong and Lan-Zhe Guo and Yu-feng Li}, year={2024}, eprint={2412.13682}, archivePrefix={arXiv}, primaryClass={cs.AI}, url={https://arxiv.org/abs/2412.13682}, }
`` English | 简体中文 | 繁體中文 | 日本語 | 한국어 | हिन्दी | ไทย | Français | Deutsch | Español | Italiano | Русский | Português | Nederlands | Polski | العربية | فارسی | Türkçe | Tiếng Việt | Bahasa Indonesia | অসমীয়া

--- Tranlated By Open Ai Tx | Last indexed: 2025-10-17 ---