ThinkSound
🌐 English | 简体中文 | 繁體中文 | Español | Français | 日本語
Jeśli uważasz, że ten projekt jest przydatny,
gwiazdka ⭐ na GitHubie będzie mile widziana!
ThinkSound to zunifikowany system generowania Any2Audio z dopasowaniem przepływu kierowanym przez rozumowanie Chain-of-Thought (CoT).
Implementacja PyTorch do multimodalnej generacji i edycji dźwięku: generuj lub edytuj dźwięk na podstawie wideo, tekstu i audio, wspierana przez rozumowanie krok po kroku za pomocą Multimodalnych Dużych Modeli Językowych (MLLM).
📰 Aktualności
- 2025.09.19 🎉 ThinkSound został zaakceptowany na główną konferencję NeurIPS 2025!
- 2025.09.01 🔥 Nasz zbiór danych AudioCoT jest już dostępny jako open-source na Hugging Face!
- 2025.07.17 🧠 Włączone dostrajanie: kod treningowy i do dostrajania jest teraz publicznie dostępny wraz z jasną instrukcją użycia, pozwalającą na personalizację i rozszerzanie ThinkSound własnymi danymi.
- 2025.07.15 📦 Uproszczona instalacja i obsługa: zależności dostępne na PyPI dla łatwej konfiguracji na różnych platformach; skrypty Windows
.batautomatyzują tworzenie środowiska i uruchamianie skryptów. - 2025.07.08 🔧 Duża aktualizacja: model odchudzony, zoptymalizowane wykorzystanie pamięci i GPU, teraz obsługuje masową generację dźwięku!
- 2025.07.01 🔥Demo online na Hugging Face Spaces oraz ModelScope — interaktywne doświadczenie!
- 2025.07.01 🔥Wydane skrypty inferencyjne i interfejs webowy;
- 2025.06 🔥Artykuł ThinkSound opublikowany na arXiv!
- 2025.06 🔥Demo Online już działa – wypróbuj teraz!
🚀 Funkcje
- Any2Audio: Generuj dźwięk z dowolnych modalności — wideo, tekstu, audio lub ich kombinacji.
- Video-to-Audio SOTA: Osiąga najnowocześniejsze wyniki na wielu benchmarkach V2A.
- Rozumowanie CoT: Łańcuch rozumowania do kompozycyjnej i kontrolowanej generacji dźwięku z użyciem MLLM.
- Interaktywna edycja obiektowa: Udoskonalaj lub edytuj konkretne zdarzenia dźwiękowe klikając na obiekty wizualne lub używając instrukcji tekstowych.
- Ujednolicony framework: Jeden model bazowy obsługuje generowanie, edycję i interaktywny workflow.
✨ Przegląd metody
ThinkSound dzieli generowanie i edycję dźwięku na trzy interaktywne etapy, wszystkie sterowane rozumowaniem CoT opartym na MLLM:
- Generowanie Foley: Tworzenie podstawowych, semantycznie i czasowo zgodnych pejzaży dźwiękowych z wideo.
- Obiektowa poprawa: Udoskonalanie lub dodawanie dźwięków dla wybranych przez użytkownika obiektów za pomocą kliknięć lub zaznaczeń na wideo.
- Celowa edycja audio: Modyfikacja wygenerowanego dźwięku za pomocą zaawansowanych instrukcji języka naturalnego.
⚡ Szybki start
Przygotowanie środowiska:
git clone https://github.com/liuhuadai/ThinkSound.git
cd ThinkSound
conda create -n thinksound python=3.10
conda activate thinksound
pip install thinksound
conda install -y -c conda-forge 'ffmpeg<7'
Download pretrained weights https://huggingface.co/liuhuadai/ThinkSound to Directory ckpts/
model weights can be also downloaded from https://www.modelscope.cn/models/iic/ThinkSound
git lfs install
git clone https://huggingface.co/liuhuadai/ThinkSound ckpts
To improve inference and training speed, you may optionally install a FlashAttention backend compatible with your system and PyTorch version.
✅ Wskazówka dla Windows:
Użytkownicy Windows mogą po prostu uruchomić setup_windows.bat (lub kliknąć go dwukrotnie), aby automatycznie utworzyć środowisko conda, zainstalować wszystkie zależności (w tym FFmpeg) i pobrać wytrenowany model — bez konieczności ręcznej konfiguracji.
Przed uruchomieniem skryptu upewnij się, żecondaigitsą zainstalowane i dostępne w zmiennej PATH systemu.
▶️ Uruchom Demo
#### Linux/macOS
chmod +x scripts/demo.sh
./scripts/demo.sh [use-half]
#### WindowsMożesz zamiast tego użyć dołączonego skryptu .bat:
.\scripts\demo.bat [use-half]
Uwaga:<ścieżka-do-twojego-wideo-demo>: Ścieżka do pojedynczego wideo[use-half](opcjonalnie): Dodaj use-half na końcu, aby włączyć ekstrakcję cech w połowie precyzji.
📦 Przetwarzanie wsadowe
#### Linux/macOS
chmod +x scripts/eval_batch.sh
./scripts/eval_batch.sh [use-half]
#### WindowsUżyj równoważnego skryptu .bat:
.\scripts\eval_batch.bat [use-half]
Uwaga:: Ścieżka do katalogu głównego zawierającego wszystkie filmy .mp4 do przetworzenia (wszystkie filmy muszą mieć taką samą długość).: Plik CSV z tekstowymi podpowiedziami dla każdego filmu (zobaczdemo_test.csvdla formatu).(opcjonalnie): Gdzie zapisać wygenerowane audio. Domyślnieresults/features.[use-half](opcjonalnie): Dodaj use-half na końcu, aby włączyć ekstrakcję cech w trybie półprecyzyjnym.
Użycie interfejsu webowego
Aby uzyskać interaktywne doświadczenie, uruchom interfejs webowy Gradio:
python app.py
🏋️ Trening modelu
Zobacz Training.md
📝 TODO i plany na przyszłość
- - [ ] Wydanie bardziej zaawansowanego modelu bazowego obejmującego wiele domen, zapewniającego bardziej angażujące i immersyjne tworzenie efektów foley
- - [ ] Dodanie obsługi dodatkowych modalności i zadań pochodnych
- - [ ] Wydanie modeli o różnych skalach
- - [x] Otwarcie źródła zestawu danych AudioCoT oraz automatycznej linii produkcyjnej
- - [x] Wydanie skryptów treningowych dla modeli ThinkSound
- - [x] Przyjazny dla początkujących README z szybkim startem na Windows
📄 Licencja
Ten projekt jest wydany na licencji Apache 2.0.
Uwaga:
Kod, modele i zestaw danych są przeznaczone wyłącznie do celów badawczych i edukacyjnych.
Użycie komercyjne NIE jest dozwolone.
W sprawie licencji komercyjnych prosimy o kontakt z autorami.
📦 Komponenty zewnętrzne
- Stable Audio Open VAE (by Stability AI):
- 📘 Wszelki inny kod i modele wydawane są na licencji Apache 2.0.
Podziękowania
Wielkie podziękowania dla:
- stable-audio-tools (od Stability AI):
- MMAudio:
📖 Cytowanie
Jeśli ThinkSound okazał się przydatny w Twoich badaniach lub pracy, prosimy o cytowanie naszej publikacji:
@misc{liu2025thinksoundchainofthoughtreasoningmultimodal,
title={ThinkSound: Chain-of-Thought Reasoning in Multimodal Large Language Models for Audio Generation and Editing},
author={Huadai Liu and Jialei Wang and Kaicheng Luo and Wen Wang and Qian Chen and Zhou Zhao and Wei Xue},
year={2025},
eprint={2506.21448},
archivePrefix={arXiv},
primaryClass={eess.AS},
url={https://arxiv.org/abs/2506.21448},
}📬 Contact
✨ Feel free to open an issue or contact us via email (liuhuadai@zju.edu.cn) if you have any questions or suggestions!
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-04 ---