ThinkSound
🌐 English | 简体中文 | 繁體中文 | Español | Français | 日本語
Jika Anda merasa proyek ini bermanfaat,
memberikan bintang ⭐ di GitHub akan sangat dihargai!
ThinkSound adalah kerangka kerja generasi Any2Audio terpadu dengan pencocokan alur yang dipandu oleh penalaran Chain-of-Thought (CoT).
Implementasi PyTorch untuk pembuatan dan pengeditan audio multimodal: menghasilkan atau mengedit audio dari video, teks, dan audio, didukung oleh penalaran bertahap dari Multimodal Large Language Models (MLLMs).
📰 Berita
- 2025.09.19 🎉 ThinkSound telah diterima di Konferensi Utama NeurIPS 2025!
- 2025.09.01 🔥 Dataset AudioCoT kami kini bersifat open-source dan tersedia di Hugging Face!
- 2025.07.17 🧠 Finetuning diaktifkan: kode pelatihan dan finetuning sekarang tersedia untuk umum, beserta instruksi penggunaan yang jelas untuk membantu Anda menyesuaikan dan memperluas ThinkSound dengan data Anda sendiri.
- 2025.07.15 📦 Instalasi dan penggunaan yang disederhanakan: dependensi tersedia di PyPI untuk penyiapan lintas platform yang mudah; skrip Windows
.batmengotomatisasi pembuatan lingkungan dan menjalankan skrip. - 2025.07.08 🔧 Pembaruan besar: model diringankan dan dioptimalkan untuk penggunaan memori dan GPU, kini mendukung pembuatan audio berkapasitas tinggi!
- 2025.07.01 🔥Demo online di Hugging Face Spaces dan ModelScope untuk pengalaman interaktif!
- 2025.07.01 🔥Skrip inferensi dan antarmuka web dirilis;
- 2025.06 🔥Paper ThinkSound dirilis di arXiv!
- 2025.06 🔥Demo Online telah tersedia - coba sekarang!
🚀 Fitur
- Any2Audio: Menghasilkan audio dari berbagai modalitas — video, teks, audio, atau kombinasi mereka.
- Video-to-Audio SOTA: Mencapai hasil terbaik pada beberapa tolok ukur V2A.
- Penalaran Berbasis CoT: Penalaran Chain-of-Thought untuk pembuatan audio yang komposisional dan dapat dikendalikan melalui MLLMs.
- Pengeditan Interaktif Berbasis Objek: Memperbaiki atau mengedit kejadian suara tertentu dengan mengklik objek visual atau menggunakan instruksi teks.
- Kerangka Kerja Terpadu: Satu model dasar mendukung pembuatan, pengeditan, dan alur kerja interaktif.
✨ Ringkasan Metode
ThinkSound membagi proses pembuatan dan pengeditan audio menjadi tiga tahap interaktif, semuanya dipandu oleh penalaran Chain-of-Thought (CoT) berbasis MLLM:
- Pembuatan Foley: Menghasilkan lanskap suara dasar yang selaras secara semantik dan temporal dari video.
- Penyempurnaan Berbasis Objek: Menyempurnakan atau menambah suara untuk objek yang ditentukan pengguna melalui klik atau area pada video.
- Pengeditan Audio Terarah: Memodifikasi audio yang dihasilkan menggunakan instruksi bahasa alami tingkat tinggi.
⚡ Mulai Cepat
Persiapan Lingkungan:
git clone https://github.com/liuhuadai/ThinkSound.git
cd ThinkSound
conda create -n thinksound python=3.10
conda activate thinksound
pip install thinksound
conda install -y -c conda-forge 'ffmpeg<7'
Download pretrained weights https://huggingface.co/liuhuadai/ThinkSound to Directory ckpts/
model weights can be also downloaded from https://www.modelscope.cn/models/iic/ThinkSound
git lfs install
git clone https://huggingface.co/liuhuadai/ThinkSound ckpts
To improve inference and training speed, you may optionally install a FlashAttention backend compatible with your system and PyTorch version.
✅ Tips Windows:
Pengguna Windows dapat langsung menjalankan setup_windows.bat (atau klik dua kali) untuk secara otomatis membuat environment conda, menginstal semua dependensi (termasuk FFmpeg), dan mengunduh model pra-latih — tanpa perlu pengaturan manual.
Pastikancondadangitsudah terinstal dan tersedia di PATH sistem Anda sebelum menjalankan skrip.
▶️ Jalankan Demo
#### Linux/macOS
chmod +x scripts/demo.sh
./scripts/demo.sh [use-half]
#### WindowsAnda dapat menggunakan skrip .bat yang disediakan sebagai gantinya:
.\scripts\demo.bat [use-half]
Catatan:: Jalur ke satu video[use-half](opsional): Tambahkan use-half di akhir untuk mengaktifkan ekstraksi fitur presisi setengah.
📦 Inferensi Batch
#### Linux/macOS
chmod +x scripts/eval_batch.sh
./scripts/eval_batch.sh [use-half]
#### WindowsGunakan skrip .bat yang setara:
.\scripts\eval_batch.bat [use-half]
Catatan:: Jalur ke direktori root yang berisi semua video .mp4 yang akan diproses (semua video harus berdurasi sama).: File CSV dengan prompt teks untuk setiap video (lihatdemo_test.csvuntuk formatnya).(opsional): Tempat untuk menyimpan audio yang dihasilkan. Default keresults/features.[use-half](opsional): Tambahkan use-half di akhir untuk mengaktifkan ekstraksi fitur presisi setengah.
Penggunaan Antarmuka Web
Untuk pengalaman interaktif, jalankan antarmuka web Gradio:
python app.py🏋️ Latih Model
Lihat Training.md
📝 TODO & Rencana Masa Depan
- - [ ] Merilis model fondasi yang lebih kuat yang mencakup beberapa domain untuk memberikan kreasi foley yang lebih menarik dan imersif
- - [ ] Menambahkan dukungan untuk modalitas tambahan dan tugas hilir
- - [ ] Merilis model dalam berbagai skala
- - [x] Open-source dataset AudioCoT dan pipeline otomatis
- - [x] Merilis skrip pelatihan untuk model ThinkSound
- - [x] README Windows quick-start yang ramah pemula
📄 Lisensi
Proyek ini dirilis di bawah Lisensi Apache 2.0.
Catatan:
Kode, model, dan dataset hanya untuk tujuan riset dan edukasi.
Penggunaan komersial TIDAK diizinkan.
Untuk lisensi komersial, silakan hubungi penulis.
📦 Komponen Pihak Ketiga
- Stable Audio Open VAE (oleh Stability AI):
- 📘 Seluruh kode dan model lainnya dirilis di bawah Lisensi Apache 2.0.
Ucapan Terima Kasih
Terima kasih banyak kepada:
- stable-audio-tools (oleh Stability AI):
- MMAudio:
📖 Sitasi
Jika Anda merasa ThinkSound berguna dalam penelitian atau pekerjaan Anda, silakan sitasi makalah kami:
@misc{liu2025thinksoundchainofthoughtreasoningmultimodal,
title={ThinkSound: Chain-of-Thought Reasoning in Multimodal Large Language Models for Audio Generation and Editing},
author={Huadai Liu and Jialei Wang and Kaicheng Luo and Wen Wang and Qian Chen and Zhou Zhao and Wei Xue},
year={2025},
eprint={2506.21448},
archivePrefix={arXiv},
primaryClass={eess.AS},
url={https://arxiv.org/abs/2506.21448},
}📬 Contact
✨ Feel free to open an issue or contact us via email (liuhuadai@zju.edu.cn) if you have any questions or suggestions!
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-04 ---