ThinkSound
🌐 English | 简体中文 | 繁體中文 | Español | Français | 日本語
Se trovi utile questo progetto,
una stella ⭐ su GitHub sarebbe molto apprezzata!
ThinkSound è un framework unificato per la generazione Any2Audio con flow matching guidato dal ragionamento Chain-of-Thought (CoT).
Implementazione PyTorch per la generazione e modifica multimodale di audio: genera o modifica audio da video, testo e audio, alimentata dal ragionamento step-by-step dei Modelli Multimodali di Linguaggio di Grandi Dimensioni (MLLMs).
📰 Novità
- 2025.11.25 🔥Demo PrismAudio Online attivo - provalo ora!
- 2025.11.25 🔥Articolo PrismAudio pubblicato su arXiv, il primo framework multi-dimensionale CoT-RL per la generazione Video-to-Audio!
- 2025.09.19 🎉 ThinkSound è stato accettato alla Conferenza Principale NeurIPS 2025!
- 2025.09.01 Il nostro dataset AudioCoT è ora open-source e disponibile su Hugging Face!
- 2025.07.17 🧠 Fine-tuning abilitato: codice per training e fine-tuning ora pubblico, con istruzioni dettagliate per personalizzare ed estendere ThinkSound con i tuoi dati.
- 2025.07.15 📦 Installazione e usabilità semplificate: dipendenze su PyPI per setup facile cross-platform; script
.batper Windows automatizzano la creazione dell'ambiente e l'esecuzione degli script. - 2025.07.08 🔧 Aggiornamento importante: modello alleggerito e memoria/GPU ottimizzati, ora supporta generazione audio ad alta velocità su larga scala!
- 2025.07.01 Demo online su Hugging Face Spaces e ModelScope per esperienza interattiva!
- 2025.07.01 Rilasciati script di inferenza e interfaccia web;
- 2025.06 Articolo ThinkSound pubblicato su arXiv!
- 2025.06 Demo Online attivo - provalo ora!
🚀 Funzionalità
- Any2Audio: Genera audio da modalità arbitrarie — video, testo, audio, o loro combinazioni.
- Video-to-Audio SOTA: Risultati all'avanguardia su diversi benchmark V2A.
- Ragionamento CoT-Driven: Ragionamento Chain-of-Thought per generazione audio composizionale e controllabile tramite MLLMs.
- Editing Interattivo Oggetto-centrico: Raffina o modifica specifici eventi sonori cliccando su oggetti visivi o usando istruzioni testuali.
- Framework Unificato: Un unico modello di base supporta generazione, editing e flusso di lavoro interattivo.
✨ Panoramica del Metodo
ThinkSound scompone generazione ed editing audio in tre fasi interattive, tutte guidate dal ragionamento Chain-of-Thought (CoT) basato su MLLM:
- Foley Generation: Genera paesaggi sonori fondamentali, semanticamente e temporalmente allineati, dal video.
- Object-Centric Refinement: Raffina o aggiungi suoni per oggetti specificati dall'utente tramite click o regioni nel video.
- Targeted Audio Editing: Modifica l'audio generato usando istruzioni in linguaggio naturale di alto livello.
⚡ Avvio rapido
Preparazione dell’ambiente:
git clone https://github.com/liuhuadai/ThinkSound.git
cd ThinkSound
conda create -n thinksound python=3.10
conda activate thinksound
pip install thinksound
conda install -y -c conda-forge 'ffmpeg<7'
Download pretrained weights https://huggingface.co/liuhuadai/ThinkSound to Directory ckpts/
model weights can be also downloaded from https://www.modelscope.cn/models/iic/ThinkSound
git lfs install
git clone https://huggingface.co/liuhuadai/ThinkSound ckpts
To improve inference and training speed, you may optionally install a FlashAttention backend compatible with your system and PyTorch version.
✅ Suggerimento per Windows:
Gli utenti Windows possono semplicemente eseguire setup_windows.bat (o farci doppio clic) per creare automaticamente l'ambiente conda, installare tutte le dipendenze (incluso FFmpeg) e scaricare il modello pre-addestrato — nessuna configurazione manuale richiesta.
Assicurati checondaegitsiano installati e disponibili nel PATH di sistema prima di eseguire lo script.
▶️ Esegui la Demo
#### Linux/macOS
chmod +x scripts/demo.sh
./scripts/demo.sh [use-half]
#### WindowsIn alternativa, puoi utilizzare lo script .bat fornito:
.\scripts\demo.bat [use-half]
Nota:: Il percorso a un singolo video[usa-half](opzionale): Aggiungi usa-half alla fine per abilitare l'estrazione delle caratteristiche in mezza precisione.
📦 Inferenza in Batch
#### Linux/macOS
chmod +x scripts/eval_batch.sh
./scripts/eval_batch.sh [use-half]
#### WindowsUsa lo script .bat equivalente:
.\scripts\eval_batch.bat [use-half]
Nota:: Percorso alla directory principale contenente tutti i video .mp4 da elaborare (tutti i video devono avere la stessa durata).: Un file CSV con i prompt di testo per ciascun video (vedidemo_test.csvper il formato).(opzionale): Dove salvare l'audio generato. Il valore predefinito èresults/features.[use-half](opzionale): Aggiungi use-half alla fine per abilitare l'estrazione delle feature in mezza precisione.
Utilizzo dell'interfaccia web
Per un'esperienza interattiva, avvia l'interfaccia web Gradio:
python app.py🏋️ Allena il Modello
Vedi Training.md
📝 TODO & Piani Futuri
- - [ ] Rilasciare un modello di base più potente che copra più domini per offrire una creazione di foley più coinvolgente e immersiva
- - [ ] Aggiungere supporto per ulteriori modalità e compiti downstream
- - [ ] Rilasciare modelli di diverse dimensioni
- - [x] Open-source del dataset AudioCoT e pipeline automatizzata
- - [x] Rilasciare gli script di addestramento per i modelli ThinkSound
- - [x] Un README rapido per Windows adatto ai principianti
📄 Licenza
Questo progetto è rilasciato sotto la Licenza Apache 2.0.
Nota:
Il codice, i modelli e il dataset sono solo per scopi di ricerca ed educativi.
L'uso commerciale NON è consentito.
Per la licenza commerciale, si prega di contattare gli autori.
📦 Componenti di Terze Parti
- Stable Audio Open VAE (di Stability AI):
- 📘 Tutto il resto del codice e dei modelli è rilasciato sotto la Licenza Apache 2.0.
Ringraziamenti
Molte grazie a:
- stable-audio-tools (di Stability AI):
- MMAudio:
📖 Citazione
Se trovi ThinkSound utile per la tua ricerca o lavoro, cita il nostro articolo:
@misc{liu2025thinksoundchainofthoughtreasoningmultimodal,
title={ThinkSound: Chain-of-Thought Reasoning in Multimodal Large Language Models for Audio Generation and Editing},
author={Huadai Liu and Jialei Wang and Kaicheng Luo and Wen Wang and Qian Chen and Zhou Zhao and Wei Xue},
year={2025},
eprint={2506.21448},
archivePrefix={arXiv},
primaryClass={eess.AS},
url={https://arxiv.org/abs/2506.21448},
}📬 Contact
✨ Feel free to open an issue or contact us via email (liuhuadai@zju.edu.cn) if you have any questions or suggestions!
--- Tranlated By Open Ai Tx | Last indexed: 2026-01-07 ---