تینکساند
🌐 انگلیسی | 简体中文 | 繁體中文 | اسپانیایی | فرانسوی | ژاپنی
اگر این پروژه برای شما مفید بود،
یک ستاره ⭐ در گیتهاب بسیار ارزشمند خواهد بود!
تینکساند یک چارچوب یکپارچه برای تولید Any2Audio است که با تطبیق جریان و راهنمایی استدلال زنجیرهای (CoT) هدایت میشود.
پیادهسازی PyTorch برای تولید و ویرایش چندحالته صوتی: تولید یا ویرایش صوت از ویدیو، متن و صوت، با استفاده از استدلال گامبهگام توسط مدلهای بزرگ زبانی چندحالته (MLLM).
📰 اخبار
- 2025.11.25 🔥دموی آنلاین PrismAudio فعال شد - همین حالا امتحان کنید!
- 2025.11.25 🔥مقاله PrismAudio در arXiv منتشر شد، اولین چارچوب چندبعدی CoT-RL برای تولید صوت از ویدیو!
- 2025.09.19 🎉 ThinkSound در کنفرانس اصلی NeurIPS 2025 پذیرفته شد!
- 2025.09.01 دیتاست AudioCoT اکنون متنباز بوده و در Hugging Face قابل دسترسی است!
- 2025.07.17 🧠 آموزش و ریزتنظیم فعال شد: کد آموزش و ریزتنظیم اکنون به صورت عمومی در دسترس است، همراه با راهنمای استفاده شفاف برای شخصیسازی و توسعه ThinkSound با دادههای خودتان.
- 2025.07.15 📦 نصب و استفاده سادهشده: وابستگیها در PyPI برای راهاندازی آسان بر روی همه پلتفرمها؛ اسکریپتهای ویندوز
.batبرای خودکارسازی ساخت محیط و اجرای اسکریپتها. - 2025.07.08 🔧 بهروزرسانی عمده: مدل سبکتر شده و مصرف حافظه و GPU بهینه شده، اکنون از تولید صوت با توان بالا در مقیاس وسیع پشتیبانی میکند!
- 2025.07.01 دموی آنلاین در Hugging Face Spaces و ModelScope برای تجربه تعاملی!
- 2025.07.01 اسکریپتهای استنتاج و رابط وب منتشر شد؛
- 2025.06 مقاله ThinkSound در arXiv منتشر شد!
- 2025.06 دموی آنلاین فعال شد - همین حالا امتحان کنید!
🚀 ویژگیها
- Any2Audio: تولید صوت از هر حالت دلخواه — ویدیو، متن، صوت یا ترکیب آنها.
- Video-to-Audio SOTA: دستیابی به نتایج پیشرو در چندین معیار V2A.
- استدلال مبتنی بر CoT: استدلال زنجیرهای برای تولید صوت ترکیبی و قابل کنترل از طریق MLLMها.
- ویرایش تعاملی مبتنی بر شیء: اصلاح یا ویرایش رویدادهای صوتی خاص با کلیک روی اشیاء بصری یا استفاده از دستورالعمل متنی.
- چارچوب یکپارچه: یک مدل پایه که از تولید، ویرایش و گردشکار تعاملی پشتیبانی میکند.
✨ مرور روش
ThinkSound تولید و ویرایش صوت را به سه مرحله تعاملی تقسیم میکند که همگی با استدلال زنجیرهای مبتنی بر MLLM هدایت میشوند:
- تولید Foley: تولید صحنههای صوتی پایه با همترازی معنایی و زمانی از ویدیو.
- اصلاح مبتنی بر شیء: اصلاح یا افزودن صوت برای اشیاء مشخصشده توسط کاربر از طریق کلیک یا ناحیه در ویدیو.
- ویرایش هدفمند صوت: تغییر صوت تولیدشده با استفاده از دستورالعملهای زبان طبیعی سطح بالا.
⚡ شروع سریع
آمادهسازی محیط:
git clone https://github.com/liuhuadai/ThinkSound.git
cd ThinkSound
conda create -n thinksound python=3.10
conda activate thinksound
pip install thinksound
conda install -y -c conda-forge 'ffmpeg<7'
Download pretrained weights https://huggingface.co/liuhuadai/ThinkSound to Directory ckpts/
model weights can be also downloaded from https://www.modelscope.cn/models/iic/ThinkSound
git lfs install
git clone https://huggingface.co/liuhuadai/ThinkSound ckpts
To improve inference and training speed, you may optionally install a FlashAttention backend compatible with your system and PyTorch version.
✅ نکته ویندوز:
کاربران ویندوز میتوانند به سادگی فایل setup_windows.bat را اجرا کنند (یا روی آن دوبار کلیک کنند) تا محیط کاندا بهطور خودکار ساخته شود، تمامی وابستگیها (از جمله FFmpeg) نصب شوند و مدل از پیش آموزشدیده دانلود گردد — هیچ تنظیمات دستی لازم نیست.
قبل از اجرای اسکریپت، مطمئن شوید کهcondaوgitنصب شده و در PATH سیستم شما قرار دارند.
▶️ اجرای دمو
#### لینوکس/macOS
chmod +x scripts/demo.sh
./scripts/demo.sh [use-half]
#### ویندوزدر عوض میتوانید از اسکریپت .bat ارائهشده استفاده کنید:
.\scripts\demo.bat [use-half]
توجه:: مسیر یک ویدئوی تکی[use-half](اختیاری): افزودن use-half در انتها برای فعالسازی استخراج ویژگی با دقت نیمه.
📦 استنتاج دستهای
#### لینوکس/macOS
chmod +x scripts/eval_batch.sh
./scripts/eval_batch.sh [use-half]
#### ویندوزاز اسکریپت معادل .bat استفاده کنید:
.\scripts\eval_batch.bat [use-half]
توجه:: مسیر دایرکتوری اصلی که حاوی تمام ویدیوهای .mp4 برای پردازش است (همه ویدیوها باید مدت زمان یکسان داشته باشند).: یک فایل CSV با متون راهنما برای هر ویدیو (فرمت را درdemo_test.csvببینید).(اختیاری): مسیر ذخیرهسازی فایلهای صوتی تولید شده. به طور پیشفرضresults/featuresاست.[use-half](اختیاری): افزودن use-half در انتها برای فعالسازی استخراج ویژگی با دقت نیمه.
استفاده از رابط وب
برای تجربه تعاملی، رابط وب Gradio را اجرا کنید:
python app.py🏋️ آموزش مدل
به Training.md مراجعه کنید.
📝 برنامههای آینده و کارهای باقیمانده
- - [ ] انتشار یک مدل پایه قدرتمندتر که چندین حوزه را پوشش دهد و خلق فولی جذابتر و فراگیرتری ارائه کند
- - [ ] افزودن پشتیبانی از حالتهای بیشتر و وظایف پاییندستی
- - [ ] انتشار مدلها در مقیاسهای مختلف
- - [x] متنباز کردن مجموعه داده AudioCoT و خط لوله خودکار
- - [x] انتشار اسکریپتهای آموزش برای مدلهای ThinkSound
- - [x] README شروع سریع برای ویندوز مناسب مبتدیان
📄 مجوز
این پروژه تحت مجوز Apache 2.0 منتشر شده است.
توجه:
کد، مدلها و مجموعه داده فقط برای اهداف پژوهشی و آموزشی هستند.
استفاده تجاری مجاز نیست.
برای اخذ مجوز تجاری، لطفاً با نویسندگان تماس بگیرید.
📦 اجزای شخص ثالث
- Stable Audio Open VAE (توسط Stability AI):
- 📘 سایر کدها و مدلها تحت مجوز Apache License 2.0 منتشر شدهاند.
تقدیر و تشکر
با تشکر فراوان از:
- stable-audio-tools (توسط Stability AI):
- MMAudio:
📖 ارجاع
اگر ThinkSound در تحقیقات یا کار شما مفید بود، لطفاً مقاله ما را ارجاع دهید:
@misc{liu2025thinksoundchainofthoughtreasoningmultimodal,
title={ThinkSound: Chain-of-Thought Reasoning in Multimodal Large Language Models for Audio Generation and Editing},
author={Huadai Liu and Jialei Wang and Kaicheng Luo and Wen Wang and Qian Chen and Zhou Zhao and Wei Xue},
year={2025},
eprint={2506.21448},
archivePrefix={arXiv},
primaryClass={eess.AS},
url={https://arxiv.org/abs/2506.21448},
}📬 Contact
✨ Feel free to open an issue or contact us via email (liuhuadai@zju.edu.cn) if you have any questions or suggestions!
--- Tranlated By Open Ai Tx | Last indexed: 2026-01-07 ---