ThinkSound
🌐 English | 简体中文 | 繁體中文 | Español | Français | 日本語
Если вы считаете этот проект полезным,
звезда ⭐ на GitHub будет очень признательна!
ThinkSound — это унифицированная платформа генерации Any2Audio с сопоставлением потоков, управляемая рассуждениями в стиле Chain-of-Thought (CoT).
Реализация на PyTorch для многомодального аудиогенерирования и редактирования: создавайте или редактируйте аудио по видео, тексту и аудио, с пошаговым рассуждением на основе Мультимодальных Больших Языковых Моделей (MLLM).
📰 Новости
- 2025.11.25 🔥Онлайн демо PrismAudio доступно — попробуйте сейчас!
- 2025.11.25 🔥Статья о PrismAudio опубликована на arXiv, первая многомерная CoT-RL-архитектура для генерации аудио из видео!
- 2025.09.19 🎉 ThinkSound принят на NeurIPS 2025 Main Conference!
- 2025.09.01 Наш датасет AudioCoT теперь в открытом доступе на Hugging Face!
- 2025.07.17 🧠 Доступна дообучаемость: код для обучения и дообучения открыт, с подробной инструкцией по кастомизации и расширению ThinkSound на ваших данных.
- 2025.07.15 📦 Упрощена установка и использование: зависимости через PyPI для легкой кроссплатформенной установки; Windows
.bat-скрипты автоматизируют создание окружения и запуск. - 2025.07.08 🔧 Крупное обновление: модель облегчена, оптимизировано использование памяти и GPU, поддерживает масштабное высокопроизводительное аудиогенерирование!
- 2025.07.01 Онлайн-демо на Hugging Face Spaces и ModelScope для интерактивной работы!
- 2025.07.01 Выпущены скрипты инференса и веб-интерфейс;
- 2025.06 Статья о ThinkSound опубликована на arXiv!
- 2025.06 Онлайн-демо доступно — попробуйте сейчас!
🚀 Возможности
- Any2Audio: Генерация аудио из любых модальностей — видео, текста, аудио или их комбинаций.
- Video-to-Audio SOTA: Достижение лучших результатов на ряде V2A-бенчмарков.
- CoT-управляемое рассуждение: Пошаговое Chain-of-Thought рассуждение для композиционного и управляемого аудиогенерирования через MLLM.
- Интерактивное объектно-центричное редактирование: Детализируйте или редактируйте конкретные звуковые события по клику на визуальных объектах или текстовым инструкциям.
- Единая архитектура: Одна базовая модель поддерживает генерацию, редактирование и интерактивную работу.
✨ Обзор метода
ThinkSound разделяет задачи генерации и редактирования аудио на три интерактивных этапа, все управляются Chain-of-Thought рассуждением на основе MLLM:
- Foley-генерация: Создание базовых, семантически и временно согласованных звуковых ландшафтов по видео.
- Объектно-центричная детализация: Детализация или добавление звуков для выбранных пользователем объектов через клики или области на видео.
- Целевое аудиоредактирование: Модификация сгенерированного аудио с помощью высокоуровневых инструкций на естественном языке.
⚡ Быстрый старт
Подготовка среды:
git clone https://github.com/liuhuadai/ThinkSound.git
cd ThinkSound
conda create -n thinksound python=3.10
conda activate thinksound
pip install thinksound
conda install -y -c conda-forge 'ffmpeg<7'
Download pretrained weights https://huggingface.co/liuhuadai/ThinkSound to Directory ckpts/
model weights can be also downloaded from https://www.modelscope.cn/models/iic/ThinkSound
git lfs install
git clone https://huggingface.co/liuhuadai/ThinkSound ckpts
To improve inference and training speed, you may optionally install a FlashAttention backend compatible with your system and PyTorch version.
✅ Совет для Windows:
Пользователи Windows могут просто запустить setup_windows.bat (или дважды щелкнуть по нему), чтобы автоматически создать среду conda, установить все зависимости (включая FFmpeg) и загрузить предобученную модель — никакой ручной настройки не требуется.
Перед запуском скрипта убедитесь, чтоcondaиgitустановлены и доступны в переменной PATH вашей системы.
▶️ Запуск демо
#### Linux/macOS
chmod +x scripts/demo.sh
./scripts/demo.sh [use-half]
#### WindowsВместо этого вы можете использовать предоставленный скрипт .bat:
.\scripts\demo.bat [use-half]
Примечание:: Путь к одному видео[use-half](необязательно): Добавьте use-half в конце для включения извлечения признаков в половинной точности.
📦 Пакетный вывод
#### Linux/macOS
chmod +x scripts/eval_batch.sh
./scripts/eval_batch.sh [use-half]
#### WindowsИспользуйте эквивалентный скрипт .bat:
.\scripts\eval_batch.bat [use-half]
Примечание:: Путь к корневому каталогу, содержащему все .mp4 видео для обработки (все видео должны быть одинаковой длительности).: CSV-файл с текстовыми подсказками для каждого видео (см. формат вdemo_test.csv).(необязательно): Путь для сохранения сгенерированного аудио. По умолчаниюresults/features.[use-half](необязательно): Добавьте use-half в конце для включения извлечения признаков в половинной точности.
Использование веб-интерфейса
Для интерактивной работы запустите веб-интерфейс Gradio:
python app.py🏋️ Обучение модели
См. Training.md
📝 Планы TODO и на будущее
- - [ ] Выпустить более мощную базовую модель, охватывающую несколько доменов, для более увлекательного и иммерсивного создания фоли
- - [ ] Добавить поддержку дополнительных модальностей и последующих задач
- - [ ] Выпустить модели разных масштабов
- - [x] Открыть исходный датасет AudioCoT и автоматизированный конвейер
- - [x] Выпустить обучающие скрипты для моделей ThinkSound
- - [x] README для быстрого старта на Windows для новичков
📄 Лицензия
Этот проект распространяется по лицензии Apache 2.0.
Примечание:
Код, модели и датасет предназначены только для научных и образовательных целей.
Коммерческое использование НЕ разрешено.
Для коммерческого лицензирования, пожалуйста, свяжитесь с авторами.
📦 Сторонние компоненты
- Stable Audio Open VAE (от Stability AI):
- 📘 Весь остальной код и модели распространяются по лицензии Apache 2.0.
Благодарности
Благодарности:
- stable-audio-tools (от Stability AI):
- MMAudio:
📖 Цитирование
Если ThinkSound оказался полезным для ваших исследований или работы, пожалуйста, процитируйте нашу статью:
@misc{liu2025thinksoundchainofthoughtreasoningmultimodal,
title={ThinkSound: Chain-of-Thought Reasoning in Multimodal Large Language Models for Audio Generation and Editing},
author={Huadai Liu and Jialei Wang and Kaicheng Luo and Wen Wang and Qian Chen and Zhou Zhao and Wei Xue},
year={2025},
eprint={2506.21448},
archivePrefix={arXiv},
primaryClass={eess.AS},
url={https://arxiv.org/abs/2506.21448},
}📬 Contact
✨ Feel free to open an issue or contact us via email (liuhuadai@zju.edu.cn) if you have any questions or suggestions!
--- Tranlated By Open Ai Tx | Last indexed: 2026-01-07 ---