Chenyme-AAVT V0.4是一个全自动视频翻译项目。利用Whisper识别声音,AI大模型翻译字幕,最后合并字幕视频,生成翻译好的带字幕的视频。

该项目旨在提供一个简单易用的全自动视频翻译工具,帮助您快速识别声音并翻译生成字幕文件,然后将翻译后的字幕与原视频合并,以便您更快速的实现视频翻译。主要基于 OpenAI 开发的 Whisper 来识别声音和 LLMs 辅助翻译字幕 ,利用 Streamlit 搭建快速使用的 WebUI 界面,以及 FFmpeg 来实现字幕与视频的合并。

Tips:推荐选用 Faster-whisper 和 Large 模型以获得最好的断句、识别体验。

注意: 首次使用 Whisper 模型时需下载,国内建议开启 VPN 下载。启用 GPU 加速需下载 CUDA 和 PyTorch,且保证PyTorch 版本与 CUDA 匹配,否则程序识别失败会默认禁用GPU加速。

项目亮点:

  • 支持 faster-whisper 后端
  • 支持 GPU 加速
  • 支持 ChatGPT、KIMI 翻译
  • 支持多种语言识别、翻译
  • 支持多种字幕格式输出
  • 支持字幕、视频预览

GitHub地址:https://github.com/Chenyme/Chenyme-AAVT

历史上的今天
02月
14
    抱歉,历史上的今天作者很懒,什么都没写!
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。