ThinkSound
🌐 English | 简体中文 | 繁體中文 | Español | Français | 日本語
หากคุณพบว่าโปรเจ็กต์นี้มีประโยชน์,
การให้ดาว ⭐ บน GitHub จะได้รับการชื่นชมเป็นอย่างยิ่ง!
ThinkSound คือกรอบงานการสร้างเสียง Any2Audio แบบรวมศูนย์ โดยใช้การจับคู่การไหลที่ถูกชี้นำด้วยเหตุผล Chain-of-Thought (CoT)
การใช้งาน PyTorch สำหรับการสร้างและแก้ไขเสียงแบบมัลติโหมด: สร้างหรือแก้ไขเสียงจากวิดีโอ ข้อความ และเสียง โดยขับเคลื่อนด้วยการให้เหตุผลทีละขั้นจากโมเดลภาษาขนาดใหญ่แบบมัลติโหมด (MLLMs)
📰 ข่าวสาร
- 2025.11.25 🔥PrismAudio Demo ออนไลน์ เปิดให้ใช้งานแล้ว - ทดลองเลย!
- 2025.11.25 🔥งานวิจัย PrismAudio เผยแพร่บน arXiv แล้ว กรอบงาน CoT-RL แบบหลายมิติสำหรับการสร้างเสียงจากวิดีโอครั้งแรก!
- 2025.09.19 🎉 ThinkSound ได้รับการตอบรับให้เข้าร่วมงาน NeurIPS 2025 Main Conference!
- 2025.09.01 ชุดข้อมูล AudioCoT ของเราเปิดให้ใช้งานแบบโอเพ่นซอร์สแล้วที่ Hugging Face!
- 2025.07.17 🧠 เปิดใช้งานการฝึกและปรับแต่ง: โค้ดฝึกและปรับแต่งพร้อมใช้งาน พร้อมคู่มือการใช้งานเพื่อช่วยคุณปรับแต่งและขยาย ThinkSound ด้วยข้อมูลของคุณเอง
- 2025.07.15 📦 ติดตั้งและใช้งานง่ายขึ้น: ไลบรารีบน PyPI สำหรับติดตั้งข้ามแพลตฟอร์มง่าย ๆ; สคริปต์
.batบน Windows สร้างสภาพแวดล้อมและรันสคริปต์โดยอัตโนมัติ - 2025.07.08 🔧 อัปเดตครั้งใหญ่: โมเดลน้ำหนักเบาและปรับการใช้หน่วยความจำและ GPU อย่างเหมาะสม รองรับการสร้างเสียงที่ปริมาณมากได้แล้ว!
- 2025.07.01 เดโมออนไลน์บน Hugging Face Spaces และ ModelScope สำหรับประสบการณ์แบบอินเทอร์แอคทีฟ!
- 2025.07.01 ปล่อยสคริปต์ inference และเว็บอินเทอร์เฟซ;
- 2025.06 งานวิจัย ThinkSound เผยแพร่บน arXiv แล้ว!
- 2025.06 เดโมออนไลน์ เปิดให้ใช้งานแล้ว - ทดลองเลย!
🚀 คุณสมบัติ
- Any2Audio: สร้างเสียงจากมัลติโหมดใดก็ได้ — วิดีโอ ข้อความ เสียง หรือผสมผสานกัน
- Video-to-Audio SOTA: ทำผลงานล้ำหน้าสุดบนหลายมาตรฐาน V2A
- CoT-Driven Reasoning: การให้เหตุผลแบบ Chain-of-Thought สำหรับการสร้างเสียงแบบประกอบและควบคุมได้ผ่าน MLLMs
- Interactive Object-centric Editing: ปรับแต่งหรือแก้ไขเสียงเฉพาะโดยคลิกที่วัตถุในภาพหรือใช้คำสั่งข้อความ
- Unified Framework: โมเดลพื้นฐานเดียวรองรับทั้งการสร้าง แก้ไข และการทำงานแบบอินเทอร์แอคทีฟ
✨ ภาพรวมวิธีการ
ThinkSound แบ่งการสร้างและแก้ไขเสียงออกเป็น 3 ขั้นตอนแบบอินเทอร์แอคทีฟ ซึ่งทั้งหมดควบคุมโดยเหตุผล Chain-of-Thought จาก MLLM:
- Foley Generation: สร้างซาวด์สเคปพื้นฐานที่ตรงกับความหมายและเวลา จากวิดีโอ
- Object-Centric Refinement: ปรับแต่งหรือเพิ่มเสียงสำหรับวัตถุที่ผู้ใช้เลือก ด้วยการคลิกหรือเลือกบริเวณในวิดีโอ
- Targeted Audio Editing: แก้ไขเสียงที่สร้างขึ้นโดยใช้คำสั่งภาษาธรรมชาติขั้นสูง
⚡ เริ่มต้นใช้งานอย่างรวดเร็ว
การเตรียมสภาพแวดล้อม:
git clone https://github.com/liuhuadai/ThinkSound.git
cd ThinkSound
conda create -n thinksound python=3.10
conda activate thinksound
pip install thinksound
conda install -y -c conda-forge 'ffmpeg<7'
Download pretrained weights https://huggingface.co/liuhuadai/ThinkSound to Directory ckpts/
model weights can be also downloaded from https://www.modelscope.cn/models/iic/ThinkSound
git lfs install
git clone https://huggingface.co/liuhuadai/ThinkSound ckpts
To improve inference and training speed, you may optionally install a FlashAttention backend compatible with your system and PyTorch version.
✅ เคล็ดลับสำหรับ Windows:
ผู้ใช้ Windows สามารถรัน setup_windows.bat (หรือดับเบิลคลิกไฟล์นี้) เพื่อสร้างสภาพแวดล้อม conda ติดตั้งทุก dependency (รวมถึง FFmpeg) และดาวน์โหลดโมเดลที่ผ่านการฝึกมาแล้วโดยอัตโนมัติ — ไม่ต้องตั้งค่าด้วยตนเอง
ตรวจสอบให้แน่ใจว่าได้ติดตั้งcondaและgitและทั้งสองอยู่ใน PATH ของระบบก่อนรันสคริปต์นี้
▶️ รันเดโม
#### Linux/macOS
chmod +x scripts/demo.sh
./scripts/demo.sh [use-half]
#### Windowsคุณสามารถใช้สคริปต์ .bat ที่ให้มาแทนได้:
.\scripts\demo.bat [use-half]
หมายเหตุ:: เส้นทางไปยังวิดีโอตัวอย่างของคุณ[use-half](ไม่บังคับ): เพิ่ม use-half ต่อท้ายเพื่อเปิดใช้งานการดึงคุณลักษณะแบบ half precision
📦 การทำนายแบบกลุ่ม
#### Linux/macOS
chmod +x scripts/eval_batch.sh
./scripts/eval_batch.sh [use-half]
#### Windowsใช้สคริปต์ .bat ที่เทียบเท่า:
.\scripts\eval_batch.bat [use-half]
หมายเหตุ:: เส้นทางไปยังไดเรกทอรีหลักที่มีไฟล์วิดีโอ .mp4 ทั้งหมดที่จะประมวลผล (วิดีโอทั้งหมดต้องมีระยะเวลาเท่ากัน): ไฟล์ CSV ที่มีข้อความพรอมต์สำหรับแต่ละวิดีโอ (ดูรูปแบบได้ที่demo_test.csv)(ไม่บังคับ): ตำแหน่งที่จะบันทึกไฟล์เสียงที่สร้างขึ้น ค่าเริ่มต้นคือresults/features[use-half](ไม่บังคับ): เพิ่ม use-half ต่อท้ายเพื่อเปิดใช้งานการสกัดคุณลักษณะด้วยความแม่นยำครึ่งหนึ่ง
การใช้งานผ่านเว็บอินเทอร์เฟซ
สำหรับประสบการณ์แบบโต้ตอบ ให้เปิดใช้งาน Gradio web interface:
python app.py🏋️ ฝึกอบรมโมเดล
ดู Training.md
📝 TODO & แผนในอนาคต
- - [ ] ปล่อยโมเดลพื้นฐานที่ทรงพลังมากขึ้น ครอบคลุมหลายโดเมน เพื่อสร้างประสบการณ์การสร้างเสียงโฟลีย์ที่น่าสนใจและสมจริงยิ่งขึ้น
- - [ ] เพิ่มการรองรับรูปแบบข้อมูลและงานปลายทางเพิ่มเติม
- - [ ] ปล่อยโมเดลในขนาดที่แตกต่างกัน
- - [x] เปิดซอร์สชุดข้อมูล AudioCoT และระบบอัตโนมัติ
- - [x] ปล่อยสคริปต์สำหรับฝึกอบรมโมเดล ThinkSound
- - [x] README สำหรับเริ่มต้นใช้งาน Windows ที่เหมาะสำหรับมือใหม่
📄 ใบอนุญาต
โปรเจกต์นี้เผยแพร่ภายใต้ใบอนุญาต Apache 2.0
หมายเหตุ:
โค้ด โมเดล และชุดข้อมูลนี้มีไว้สำหรับ การวิจัยและการศึกษาเท่านั้น
ไม่อนุญาตให้ใช้เชิงพาณิชย์
หากต้องการใช้เชิงพาณิชย์ กรุณาติดต่อผู้เขียน
📦 ส่วนประกอบจากบุคคลที่สาม
- Stable Audio Open VAE (โดย Stability AI):
- 📘 โค้ดและโมเดลอื่น ๆ ทั้งหมด เผยแพร่ภายใต้ใบอนุญาต Apache 2.0
คำขอบคุณ
ขอขอบคุณเป็นอย่างสูงแก่:
- stable-audio-tools (โดย Stability AI):
- MMAudio:
📖 การอ้างอิง
หากคุณพบว่า ThinkSound มีประโยชน์ในการวิจัยหรือการทำงานของคุณ โปรดอ้างอิงงานวิจัยของเรา:
@misc{liu2025thinksoundchainofthoughtreasoningmultimodal,
title={ThinkSound: Chain-of-Thought Reasoning in Multimodal Large Language Models for Audio Generation and Editing},
author={Huadai Liu and Jialei Wang and Kaicheng Luo and Wen Wang and Qian Chen and Zhou Zhao and Wei Xue},
year={2025},
eprint={2506.21448},
archivePrefix={arXiv},
primaryClass={eess.AS},
url={https://arxiv.org/abs/2506.21448},
}📬 Contact
✨ Feel free to open an issue or contact us via email (liuhuadai@zju.edu.cn) if you have any questions or suggestions!
--- Tranlated By Open Ai Tx | Last indexed: 2026-01-07 ---