تینکساند
🌐 انگلیسی | 简体中文 | 繁體中文 | اسپانیایی | فرانسوی | ژاپنی
اگر این پروژه برای شما مفید بود،
یک ستاره ⭐ در گیتهاب بسیار ارزشمند خواهد بود!
تینکساند یک چارچوب یکپارچه برای تولید Any2Audio است که با تطبیق جریان و راهنمایی استدلال زنجیرهای (CoT) هدایت میشود. پیادهسازی PyTorch برای تولید و ویرایش صوت چندرسانهای: تولید یا ویرایش صوت از ویدئو، متن و صوت، با پشتیبانی از استدلال گامبهگام مبتنی بر مدلهای زبانی بزرگ چندرسانهای (MLLMs).
📰 اخبار
- ۲۰۲۵.۰۹.۱۹ 🎉 ThinkSound به کنفرانس اصلی NeurIPS 2025 پذیرفته شد!
- ۲۰۲۵.۰۹.۰۱ 🔥 مجموعه داده AudioCoT اکنون متنباز بوده و در Hugging Face در دسترس است!
- ۲۰۲۵.۰۷.۱۷ 🧠 امکان تنظیم دقیق: کد آموزش و تنظیم دقیق اکنون به صورت عمومی منتشر شده و دستورالعملهای واضح برای سفارشیسازی و توسعه ThinkSound با دادههای خودتان ارائه شده است.
- ۲۰۲۵.۰۷.۱۵ 📦 نصب و کاربری ساده: وابستگیها در PyPI برای راهاندازی آسان در همه سیستمعاملها؛ اسکریپتهای
.batویندوز ایجاد محیط و اجرای اسکریپتها را خودکار میکنند. - ۲۰۲۵.۰۷.۰۸ 🔧 بهروزرسانی عمده: مدل سبکتر شده و مصرف حافظه و GPU بهینه شده است، اکنون از تولید صوت با توان بالا در مقیاس پشتیبانی میکند!
- ۲۰۲۵.۰۷.۰۱ 🔥دموی آنلاین در Hugging Face Spaces و ModelScope برای تجربه تعاملی!
- ۲۰۲۵.۰۷.۰۱ 🔥اسکریپتهای استنتاج و رابط وب منتشر شد؛
- ۲۰۲۵.۰۶ 🔥مقاله ThinkSound در arXiv منتشر شد!
- ۲۰۲۵.۰۶ 🔥دموی آنلاین فعال است - همین حالا امتحان کنید!
🚀 قابلیتها
- Any2Audio: تولید صوت از هر نوع داده — ویدئو، متن، صوت یا ترکیب آنها.
- ویدئو به صوت SOTA: دستیابی به بهترین نتایج در چندین معیار V2A.
- استدلال مبتنی بر CoT: استدلال زنجیرهای برای تولید صوت ترکیبی و قابل کنترل با MLLMs.
- ویرایش تعاملی مبتنی بر شیء: اصلاح یا ویرایش رویدادهای صوتی خاص با کلیک روی اشیاء تصویری یا دستور متنی.
- چارچوب یکپارچه: یک مدل بنیادی واحد برای تولید، ویرایش و جریان کاری تعاملی.
✨ مرور روش
ThinkSound تولید و ویرایش صوت را به سه مرحله تعاملی تقسیم میکند که همگی با استدلال زنجیرهای مبتنی بر MLLM هدایت میشوند:
- تولید Foley: تولید صداهای پایه، همتراز معنایی و زمانی با ویدئو.
- اصلاح مبتنی بر شیء: اصلاح یا افزودن صدا برای اشیاء مشخصشده توسط کاربر از طریق کلیک یا ناحیههای ویدئو.
- ویرایش هدفمند صوت: تغییر صوت تولیدشده با دستورالعملهای طبیعی سطح بالا.
⚡ شروع سریع
آمادهسازی محیط:
git clone https://github.com/liuhuadai/ThinkSound.git
cd ThinkSound
conda create -n thinksound python=3.10
conda activate thinksound
pip install thinksound
conda install -y -c conda-forge 'ffmpeg<7'
Download pretrained weights https://huggingface.co/liuhuadai/ThinkSound to Directory ckpts/
model weights can be also downloaded from https://www.modelscope.cn/models/iic/ThinkSound
git lfs install
git clone https://huggingface.co/liuhuadai/ThinkSound ckpts
To improve inference and training speed, you may optionally install a FlashAttention backend compatible with your system and PyTorch version.
✅ نکته ویندوز:
کاربران ویندوز میتوانند به سادگی فایل setup_windows.bat را اجرا کنند (یا روی آن دوبار کلیک کنند) تا محیط کاندا بهطور خودکار ساخته شود، تمامی وابستگیها (از جمله FFmpeg) نصب شوند و مدل از پیش آموزشدیده دانلود گردد — هیچ تنظیمات دستی لازم نیست.
قبل از اجرای اسکریپت، مطمئن شوید کهcondaوgitنصب شده و در PATH سیستم شما قرار دارند.
▶️ اجرای دمو
#### لینوکس/macOS
chmod +x scripts/demo.sh
./scripts/demo.sh [use-half]
#### ویندوزدر عوض میتوانید از اسکریپت .bat ارائهشده استفاده کنید:
.\scripts\demo.bat [use-half]
توجه:: مسیر یک ویدئوی تکی[use-half](اختیاری): افزودن use-half در انتها برای فعالسازی استخراج ویژگی با دقت نیمه.
📦 استنتاج دستهای
#### لینوکس/macOS
chmod +x scripts/eval_batch.sh
./scripts/eval_batch.sh [use-half]
#### ویندوزاز اسکریپت معادل .bat استفاده کنید:
.\scripts\eval_batch.bat [use-half]
توجه:: مسیر دایرکتوری اصلی که حاوی تمام ویدیوهای .mp4 برای پردازش است (همه ویدیوها باید مدت زمان یکسان داشته باشند).: یک فایل CSV با متون راهنما برای هر ویدیو (فرمت را درdemo_test.csvببینید).(اختیاری): مسیر ذخیرهسازی فایلهای صوتی تولید شده. به طور پیشفرضresults/featuresاست.[use-half](اختیاری): افزودن use-half در انتها برای فعالسازی استخراج ویژگی با دقت نیمه.
استفاده از رابط وب
برای تجربه تعاملی، رابط وب Gradio را اجرا کنید:
python app.py🏋️ آموزش مدل
به Training.md مراجعه کنید.
📝 برنامههای آینده و کارهای باقیمانده
- - [ ] انتشار یک مدل پایه قدرتمندتر که چندین حوزه را پوشش دهد و خلق فولی جذابتر و فراگیرتری ارائه کند
- - [ ] افزودن پشتیبانی از حالتهای بیشتر و وظایف پاییندستی
- - [ ] انتشار مدلها در مقیاسهای مختلف
- - [x] متنباز کردن مجموعه داده AudioCoT و خط لوله خودکار
- - [x] انتشار اسکریپتهای آموزش برای مدلهای ThinkSound
- - [x] README شروع سریع برای ویندوز مناسب مبتدیان
📄 مجوز
این پروژه تحت مجوز Apache 2.0 منتشر شده است.
توجه:
کد، مدلها و مجموعه داده فقط برای اهداف پژوهشی و آموزشی هستند.
استفاده تجاری مجاز نیست.
برای اخذ مجوز تجاری، لطفاً با نویسندگان تماس بگیرید.
📦 اجزای شخص ثالث
- Stable Audio Open VAE (توسط Stability AI):
- 📘 سایر کدها و مدلها تحت مجوز Apache License 2.0 منتشر شدهاند.
تقدیر و تشکر
با تشکر فراوان از:
- stable-audio-tools (توسط Stability AI):
- MMAudio:
📖 ارجاع
اگر ThinkSound در تحقیقات یا کار شما مفید بود، لطفاً مقاله ما را ارجاع دهید:
@misc{liu2025thinksoundchainofthoughtreasoningmultimodal,
title={ThinkSound: Chain-of-Thought Reasoning in Multimodal Large Language Models for Audio Generation and Editing},
author={Huadai Liu and Jialei Wang and Kaicheng Luo and Wen Wang and Qian Chen and Zhou Zhao and Wei Xue},
year={2025},
eprint={2506.21448},
archivePrefix={arXiv},
primaryClass={eess.AS},
url={https://arxiv.org/abs/2506.21448},
}📬 Contact
✨ Feel free to open an issue or contact us via email (liuhuadai@zju.edu.cn) if you have any questions or suggestions!
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-04 ---