ThinkSound
🌐 English | 简体中文 | 繁體中文 | Español | Français | 日本語
Se trovi utile questo progetto,
una stella ⭐ su GitHub sarebbe molto apprezzata!
ThinkSound è un framework unificato per la generazione Any2Audio con flow matching guidato dal ragionamento Chain-of-Thought (CoT).
Implementazione PyTorch per la generazione e modifica multimodale di audio: genera o modifica audio da video, testo e audio, grazie al ragionamento passo-passo dei Modelli Multimodali di Linguaggio di Grandi Dimensioni (MLLMs).
📰 Novità
- 2025.09.19 🎉 ThinkSound è stato accettato alla Conferenza Principale NeurIPS 2025!
- 2025.09.01 🔥 Il nostro dataset AudioCoT è ora open source e disponibile su Hugging Face!
- 2025.07.17 🧠 Fine-tuning abilitato: il codice per l’addestramento e il fine-tuning è ora pubblico, con istruzioni chiare per aiutarti a personalizzare ed estendere ThinkSound con i tuoi dati.
- 2025.07.15 📦 Installazione e utilizzo semplificati: dipendenze su PyPI per una configurazione semplice cross-platform; script
.batper Windows automatizzano la creazione dell’ambiente e l’esecuzione degli script. - 2025.07.08 🔧 Aggiornamento importante: il modello è stato alleggerito e ottimizzato per l’uso di memoria e GPU, ora supporta la generazione audio ad alto rendimento su larga scala!
- 2025.07.01 🔥Demo online su Hugging Face Spaces e ModelScope per un’esperienza interattiva!
- 2025.07.01 🔥Rilasciati script di inferenza e interfaccia web;
- 2025.06 🔥Paper ThinkSound pubblicato su arXiv!
- 2025.06 🔥Demo Online è attiva - provala subito!
🚀 Caratteristiche
- Any2Audio: Genera audio da qualsiasi modalità — video, testo, audio, o loro combinazioni.
- Video-to-Audio SOTA: Risultati all’avanguardia su molteplici benchmark V2A.
- Ragionamento CoT-Driven: Ragionamento Chain-of-Thought per generazione audio composizionale e controllabile tramite MLLMs.
- Editing Interattivo Object-centric: Raffina o modifica eventi sonori specifici cliccando su oggetti visivi o usando istruzioni testuali.
- Framework Unificato: Un modello base supporta generazione, modifica e flusso di lavoro interattivo.
✨ Panoramica del Metodo
ThinkSound suddivide la generazione e modifica audio in tre fasi interattive, tutte guidate dal ragionamento Chain-of-Thought (CoT) basato su MLLM:
- Generazione Foley: Genera paesaggi sonori fondamentali, semanticamente e temporalmente allineati dal video.
- Raffinamento Object-Centric: Raffina o aggiungi suoni per oggetti specificati dall’utente tramite click o regioni nel video.
- Editing Audio Mirato: Modifica l’audio generato usando istruzioni in linguaggio naturale di alto livello.
⚡ Avvio rapido
Preparazione dell'ambiente:
git clone https://github.com/liuhuadai/ThinkSound.git
cd ThinkSound
conda create -n thinksound python=3.10
conda activate thinksound
pip install thinksound
conda install -y -c conda-forge 'ffmpeg<7'
Download pretrained weights https://huggingface.co/liuhuadai/ThinkSound to Directory ckpts/
model weights can be also downloaded from https://www.modelscope.cn/models/iic/ThinkSound
git lfs install
git clone https://huggingface.co/liuhuadai/ThinkSound ckpts
To improve inference and training speed, you may optionally install a FlashAttention backend compatible with your system and PyTorch version.
✅ Suggerimento per Windows:
Gli utenti Windows possono semplicemente eseguire setup_windows.bat (o farci doppio clic) per creare automaticamente l'ambiente conda, installare tutte le dipendenze (incluso FFmpeg) e scaricare il modello pre-addestrato — nessuna configurazione manuale richiesta.
Assicurati checondaegitsiano installati e disponibili nel PATH di sistema prima di eseguire lo script.
▶️ Esegui la Demo
#### Linux/macOS
chmod +x scripts/demo.sh
./scripts/demo.sh [use-half]
#### WindowsIn alternativa, puoi utilizzare lo script .bat fornito:
.\scripts\demo.bat [use-half]
Nota:: Il percorso a un singolo video[usa-half](opzionale): Aggiungi usa-half alla fine per abilitare l'estrazione delle caratteristiche in mezza precisione.
📦 Inferenza in Batch
#### Linux/macOS
chmod +x scripts/eval_batch.sh
./scripts/eval_batch.sh [use-half]
#### WindowsUsa lo script .bat equivalente:
.\scripts\eval_batch.bat [use-half]
Nota:: Percorso alla directory principale contenente tutti i video .mp4 da elaborare (tutti i video devono avere la stessa durata).: Un file CSV con i prompt di testo per ciascun video (vedidemo_test.csvper il formato).(opzionale): Dove salvare l'audio generato. Il valore predefinito èresults/features.[use-half](opzionale): Aggiungi use-half alla fine per abilitare l'estrazione delle feature in mezza precisione.
Utilizzo dell'interfaccia web
Per un'esperienza interattiva, avvia l'interfaccia web Gradio:
python app.py🏋️ Allena il Modello
Vedi Training.md
📝 TODO & Piani Futuri
- - [ ] Rilasciare un modello di base più potente che copra più domini per offrire una creazione di foley più coinvolgente e immersiva
- - [ ] Aggiungere supporto per ulteriori modalità e compiti downstream
- - [ ] Rilasciare modelli di diverse dimensioni
- - [x] Open-source del dataset AudioCoT e pipeline automatizzata
- - [x] Rilasciare gli script di addestramento per i modelli ThinkSound
- - [x] Un README rapido per Windows adatto ai principianti
📄 Licenza
Questo progetto è rilasciato sotto la Licenza Apache 2.0.
Nota:
Il codice, i modelli e il dataset sono solo per scopi di ricerca ed educativi.
L'uso commerciale NON è consentito.
Per la licenza commerciale, si prega di contattare gli autori.
📦 Componenti di Terze Parti
- Stable Audio Open VAE (di Stability AI):
- 📘 Tutto il resto del codice e dei modelli è rilasciato sotto la Licenza Apache 2.0.
Ringraziamenti
Molte grazie a:
- stable-audio-tools (di Stability AI):
- MMAudio:
📖 Citazione
Se trovi ThinkSound utile per la tua ricerca o lavoro, cita il nostro articolo:
@misc{liu2025thinksoundchainofthoughtreasoningmultimodal,
title={ThinkSound: Chain-of-Thought Reasoning in Multimodal Large Language Models for Audio Generation and Editing},
author={Huadai Liu and Jialei Wang and Kaicheng Luo and Wen Wang and Qian Chen and Zhou Zhao and Wei Xue},
year={2025},
eprint={2506.21448},
archivePrefix={arXiv},
primaryClass={eess.AS},
url={https://arxiv.org/abs/2506.21448},
}📬 Contact
✨ Feel free to open an issue or contact us via email (liuhuadai@zju.edu.cn) if you have any questions or suggestions!
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-04 ---