安装
首先安装 Python 包
pip install git+https://github.com/mli/autocut.git
本地安装测试
git clone https://github.com/mli/autocut
cd autocut
pip install .
上面将安装 pytorch。如果你需要 GPU 运行,且默认安装的版本不匹配的话,你可以先安装 Pytorch。如果安装 Whipser 出现问题,请参考官方文档。
另外需要安装 ffmpeg
# on Ubuntu or Debian
sudo apt update && sudo apt install ffmpeg
# on Arch Linux
sudo pacman -S ffmpeg
# on MacOS using Homebrew (https://brew.sh/)
brew install ffmpeg
# on Windows using Scoop (https://scoop.sh/)
scoop install ffmpeg
Docker 安装
首先将项目克隆到本地。git clone https://github.com/mli/autocut.git
安装 CPU 版本
进入项目根目录,然后构建 docker 映像。docker build -t autocut .
运行下面的命令创建 docker 容器,就可以直接使用了。docker run -it –rm -v E:\autocut:/autocut/video autocut /bin/bash
其中 -v
是将主机存放视频的文件夹 E:\autocut
映射到虚拟机的 /autocut/video
目录。E:\autocut
是主机存放视频的目录,需修改为自己主机存放视频的目录。
安装 GPU 版本
使用 GPU 加速需要主机有 Nvidia 的显卡并安装好相应驱动。然后在项目根目录,执行下面的命令构建 docker 映像。docker build -f ./Dockerfile.cuda -t autocut-gpu .
使用 GPU 加速时,运行 docker 容器需添加参数 --gpus all
。docker run –gpus all -it –rm -v E:\autocut:/autocut/video autocut-gpu
转录某个视频生成 .srt
和 .md
结果。
autocut -t 22-52-00.mp4
- 如果对转录质量不满意,可以使用更大的模型,例如autocut -t 22-52-00.mp4 –whisper-model large默认是
small
。更好的模型是medium
和large
,但推荐使用 GPU 获得更好的速度。也可以使用更快的tiny
和base
,但转录质量会下降。
剪切某个视频
autocut -c 22-52-00.mp4 22-52-00.srt 22-52-00.md
- 默认视频比特率是
--bitrate 10m
,你可以根据需要调大调小。 - 如果不习惯 Markdown 格式文件,你也可以直接在
srt
文件里删除不要的句子,在剪切时不传入md
文件名即可。就是autocut -c 22-52-00.mp4 22-52-00.srt
- 如果仅有
srt
文件,编辑不方便可以使用如下命令生成md
文件,然后编辑md
文件即可,但此时会完全对照srt
生成,不会出现no speech
等提示文本。autocut -m test.srt test.mp4 autocut -m test.mp4 test.srt # 支持视频和字幕乱序传入 autocut -m test.srt # 也可以只传入字幕文件
一些小提示
- 讲得流利的视频的转录质量会高一些,这因为是 Whisper 训练数据分布的缘故。对一个视频,你可以先粗选一下句子,然后在剪出来的视频上再剪一次。
- 最终视频生成的字幕通常还需要做一些小编辑。但
srt
里面空行太多。你可以使用autocut -s 22-52-00.srt
来生成一个紧凑些的版本22-52-00_compact.srt
方便编辑(这个格式不合法,但编辑器,例如 VS Code,还是会进行语法高亮)。编辑完成后,autocut -s 22-52-00_compact.srt
转回正常格式。 - 用 Typora 和 VS Code 编辑 Markdown 都很方便。他们都有对应的快捷键 mark 一行或者多行。但 VS Code 视频预览似乎有点问题。
- 视频是通过 ffmpeg 导出。在 Apple M1 芯片上它用不了 GPU,导致导出速度不如专业视频软件。
常见问题
- 输出的是乱码?AutoCut 默认输出编码是
utf-8
. 确保你的编辑器也使用了utf-8
解码。你可以通过--encoding
指定其他编码格式。但是需要注意生成字幕文件和使用字幕文件剪辑时的编码格式需要一致。例如使用gbk
。autocut -t test.mp4 –encoding=gbk autocut -c test.mp4 test.srt test.md –encoding=gbk如果使用了其他编码格式(如gbk
等)生成md
文件并用 Typora 打开后,该文件可能会被 Typora 自动转码为其他编码格式,此时再通过生成时指定的编码格式进行剪辑时可能会出现编码不支持等报错。因此可以在使用 Typora 编辑后再通过 VSCode 等修改到你需要的编码格式进行保存后再使用剪辑功能。 - 如何使用 GPU 来转录?当你有 Nvidia GPU,而且安装了对应版本的 PyTorch 的时候,转录是在 GPU 上进行。你可以通过命令来查看当前是不是支持 GPU。python -c “import torch; print(torch.cuda.is_available())”否则你可以在安装 AutoCut 前手动安装对应的 GPU 版本 PyTorch。
- 使用 GPU 时报错显存不够。whisper 的大模型需要一定的 GPU 显存。如果你的显存不够,你可以用小一点的模型,例如
small
。如果你仍然想用大模型,可以通过--device
来强制使用 CPU。例如autocut -t 11-28-18.mp4 –whisper-model large –device cpu - 能不能使用
pip
安装?whisper已经发布到PyPI了,可以直接用pip install openai-whisper
安装。
阅读全文
资源下载
下载价格免费
下载说明:
1、本站所有资源均从互联网上收集整理而来,仅供学习交流之用,因此不包含技术服务请大家谅解!
2、本站不提供任何实质性的付费和支付资源,所有需要积分下载的资源均为网站运营赞助费用或者线下劳务费用!
3、本站所有资源仅用于学习及研究使用,您必须在下载后的24小时内删除所下载资源,切勿用于商业用途,否则由此引发的法律纠纷及连带责任本站和发布者概不承担!
4、本站站内提供的所有可下载资源,本站保证未做任何负面改动(不包含修复bug和完善功能等正面优化或二次开发),但本站不保证资源的准确性、安全性和完整性,用户下载后自行斟酌,我们以交流学习为目的,并不是所有的源码都100%无错或无bug!如有链接无法下载、失效或广告,请联系客服处理!
5、本站资源除标明原创外均来自网络整理,版权归原作者或本站特约原创作者所有,如侵犯到您的合法权益,请立即告知本站,本站将及时予与删除并致以最深的歉意!
6、如果您也有好的资源或教程,您可以投稿发布,成功分享后有站币奖励和额外收入!
7、如果您喜欢该资源,请支持官方正版资源,以得到更好的正版服务!
8、请您认真阅读上述内容,注册本站用户或下载本站资源即您同意上述内容!
原文链接:https://www.shuli.cc/?p=19170,转载请注明出处。
1、本站所有资源均从互联网上收集整理而来,仅供学习交流之用,因此不包含技术服务请大家谅解!
2、本站不提供任何实质性的付费和支付资源,所有需要积分下载的资源均为网站运营赞助费用或者线下劳务费用!
3、本站所有资源仅用于学习及研究使用,您必须在下载后的24小时内删除所下载资源,切勿用于商业用途,否则由此引发的法律纠纷及连带责任本站和发布者概不承担!
4、本站站内提供的所有可下载资源,本站保证未做任何负面改动(不包含修复bug和完善功能等正面优化或二次开发),但本站不保证资源的准确性、安全性和完整性,用户下载后自行斟酌,我们以交流学习为目的,并不是所有的源码都100%无错或无bug!如有链接无法下载、失效或广告,请联系客服处理!
5、本站资源除标明原创外均来自网络整理,版权归原作者或本站特约原创作者所有,如侵犯到您的合法权益,请立即告知本站,本站将及时予与删除并致以最深的歉意!
6、如果您也有好的资源或教程,您可以投稿发布,成功分享后有站币奖励和额外收入!
7、如果您喜欢该资源,请支持官方正版资源,以得到更好的正版服务!
8、请您认真阅读上述内容,注册本站用户或下载本站资源即您同意上述内容!
原文链接:https://www.shuli.cc/?p=19170,转载请注明出处。
评论0