ThinkSound
🌐 English | 简体中文 | 繁體中文 | Español | Français | 日本語
Если вы считаете этот проект полезным,
звезда ⭐ на GitHub будет очень признательна!
ThinkSound — это унифицированная платформа генерации Any2Audio с сопоставлением потоков, управляемая рассуждениями в стиле Chain-of-Thought (CoT).
Реализация на PyTorch для мультимодальной генерации и редактирования аудио: генерируйте или редактируйте аудио на основе видео, текста и аудио, с поэтапным рассуждением от Мультимодальных Больших Языковых Моделей (MLLMs).
📰 Новости
- 2025.09.19 🎉 ThinkSound принят на Главную конференцию NeurIPS 2025!
- 2025.09.01 🔥 Наш датасет AudioCoT открыт и доступен на Hugging Face!
- 2025.07.17 🧠 Доступно дообучение: код для обучения и дообучения опубликован вместе с подробной инструкцией, чтобы вы могли адаптировать и расширять ThinkSound под свои данные.
- 2025.07.15 📦 Упрощённая установка и использование: зависимости через PyPI для лёгкой кроссплатформенной установки; Windows
.bat-скрипты автоматизируют создание окружения и запуск скриптов. - 2025.07.08 🔧 Важное обновление: модель облегчена, оптимизировано использование памяти и GPU, теперь поддерживает массовую высокопроизводительную генерацию аудио!
- 2025.07.01 🔥Онлайн-демо на Hugging Face Spaces и ModelScope для интерактивного опыта!
- 2025.07.01 🔥Выпущены скрипты для инференса и веб-интерфейс;
- 2025.06 🔥Статья ThinkSound опубликована на arXiv!
- 2025.06 🔥Онлайн-демо доступно — попробуйте прямо сейчас!
🚀 Возможности
- Any2Audio: Генерируйте аудио из любых модальностей — видео, текста, аудио или их комбинаций.
- Video-to-Audio SOTA: Достигает передовых результатов на нескольких V2A-бенчмарках.
- CoT-Driven Reasoning: Поэтапное рассуждение для композиционной и управляемой генерации аудио через MLLMs.
- Интерактивное объектно-центричное редактирование: Улучшайте или редактируйте отдельные звуковые события, кликая по визуальным объектам или используя текстовые инструкции.
- Унифицированный фреймворк: Одна базовая модель поддерживает генерацию, редактирование и интерактивный рабочий процесс.
✨ Обзор метода
ThinkSound разделяет генерацию и редактирование аудио на три интерактивные стадии, все управляются поэтапным рассуждением на базе MLLM:
- Генерация фоли: Генерация базовых, семантически и временно согласованных звуковых ландшафтов из видео.
- Объектно-центричное уточнение: Улучшение или добавление звуков для выбранных пользователем объектов через клики или области на видео.
- Целевое редактирование аудио: Модификация сгенерированного аудио с помощью высокоуровневых инструкций на естественном языке.
⚡ Быстрый старт
Подготовка среды:
git clone https://github.com/liuhuadai/ThinkSound.git
cd ThinkSound
conda create -n thinksound python=3.10
conda activate thinksound
pip install thinksound
conda install -y -c conda-forge 'ffmpeg<7'
Download pretrained weights https://huggingface.co/liuhuadai/ThinkSound to Directory ckpts/
model weights can be also downloaded from https://www.modelscope.cn/models/iic/ThinkSound
git lfs install
git clone https://huggingface.co/liuhuadai/ThinkSound ckpts
To improve inference and training speed, you may optionally install a FlashAttention backend compatible with your system and PyTorch version.
✅ Совет для Windows:
Пользователи Windows могут просто запустить setup_windows.bat (или дважды щелкнуть по нему), чтобы автоматически создать среду conda, установить все зависимости (включая FFmpeg) и загрузить предобученную модель — никакой ручной настройки не требуется.
Перед запуском скрипта убедитесь, чтоcondaиgitустановлены и доступны в переменной PATH вашей системы.
▶️ Запуск демо
#### Linux/macOS
chmod +x scripts/demo.sh
./scripts/demo.sh [use-half]
#### WindowsВместо этого вы можете использовать предоставленный скрипт .bat:
.\scripts\demo.bat [use-half]
Примечание:: Путь к одному видео[use-half](необязательно): Добавьте use-half в конце для включения извлечения признаков в половинной точности.
📦 Пакетный вывод
#### Linux/macOS
chmod +x scripts/eval_batch.sh
./scripts/eval_batch.sh [use-half]
#### WindowsИспользуйте эквивалентный скрипт .bat:
.\scripts\eval_batch.bat [use-half]
Примечание:: Путь к корневому каталогу, содержащему все .mp4 видео для обработки (все видео должны быть одинаковой длительности).: CSV-файл с текстовыми подсказками для каждого видео (см. формат вdemo_test.csv).(необязательно): Путь для сохранения сгенерированного аудио. По умолчаниюresults/features.[use-half](необязательно): Добавьте use-half в конце для включения извлечения признаков в половинной точности.
Использование веб-интерфейса
Для интерактивной работы запустите веб-интерфейс Gradio:
python app.py🏋️ Обучение модели
См. Training.md
📝 Планы TODO и на будущее
- - [ ] Выпустить более мощную базовую модель, охватывающую несколько доменов, для более увлекательного и иммерсивного создания фоли
- - [ ] Добавить поддержку дополнительных модальностей и последующих задач
- - [ ] Выпустить модели разных масштабов
- - [x] Открыть исходный датасет AudioCoT и автоматизированный конвейер
- - [x] Выпустить обучающие скрипты для моделей ThinkSound
- - [x] README для быстрого старта на Windows для новичков
📄 Лицензия
Этот проект распространяется по лицензии Apache 2.0.
Примечание:
Код, модели и датасет предназначены только для научных и образовательных целей.
Коммерческое использование НЕ разрешено.
Для коммерческого лицензирования, пожалуйста, свяжитесь с авторами.
📦 Сторонние компоненты
- Stable Audio Open VAE (от Stability AI):
- 📘 Весь остальной код и модели распространяются по лицензии Apache 2.0.
Благодарности
Благодарности:
- stable-audio-tools (от Stability AI):
- MMAudio:
📖 Цитирование
Если ThinkSound оказался полезным для ваших исследований или работы, пожалуйста, процитируйте нашу статью:
@misc{liu2025thinksoundchainofthoughtreasoningmultimodal,
title={ThinkSound: Chain-of-Thought Reasoning in Multimodal Large Language Models for Audio Generation and Editing},
author={Huadai Liu and Jialei Wang and Kaicheng Luo and Wen Wang and Qian Chen and Zhou Zhao and Wei Xue},
year={2025},
eprint={2506.21448},
archivePrefix={arXiv},
primaryClass={eess.AS},
url={https://arxiv.org/abs/2506.21448},
}📬 Contact
✨ Feel free to open an issue or contact us via email (liuhuadai@zju.edu.cn) if you have any questions or suggestions!
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-04 ---