2026年,短剧依然是流量密码,但拍短剧的门槛却越来越高:写剧本要脑洞、找演员要预算、拍分镜要团队、剪视频要技术……普通人基本告辞。
但最近有一个开源项目正在疯狂“降维打击”
一句话,你就能得到一部完整的AI短剧成品。
项目名字叫:火宝短剧(Huobao Drama)
GitHub开源地址:
https://github.com/chatfire-AI/huobao-drama
目前已收获 6.5k+ Star,国内AI内容创作圈讨论度极高。
它到底有多“离谱”?
你只需要在界面输入一句简单描述,比如:
“霸道总裁爱上灰姑娘,但灰姑娘其实是隐藏的富家女,最后反转互宠”
然后点一下“生成”,后台就会自动完成下面全流程:
1. 大模型自动写出完整多章节剧本(含人物关系、对话、分场)
2. 为每个角色AI生成形象照(支持批量、可上传自己喜欢的参考图)
3. 自动拆分成专业分镜脚本(镜头描述、景别、转场提示)
4. 文生图/图生视频批量生成每一帧画面和动态镜头
5. 自动合成带转场、配乐的最终短视频(目前支持Doubao、Sora等多种视频模型)
整个过程基本“无人值守”,从创意到成片可能只要几分钟到十几分钟(取决于你选的模型速度和GPU算力)。
这个开源项目还贴心地提供了两个示例视频(直接可看效果):
视频效果1:
https://ffile.chatfire.site/cf/public/20260114094337396.mp4
视频效果2:
https://ffile.chatfire.site/cf/public/fcede75e8aeafe22031dbf78f86285b8.mp4
效果已经接近“能看”的水平,尤其是配合本地部署 + 3080Ti/4090这类显卡,质量和速度都非常可观。
真正戳中的亮点
1. 真正的一站式闭环(不是只到分镜图就结束了)
市面上很多工具做到文生图+图生视频就喊“全自动”了,但火宝是少数真正把“合成+转场+输出mp4”也包下来的项目。
2. 本地存储 + Base64防失效(2026最实用的细节)
现在很多AI平台生成的图/视频链接过几天就404了。火宝从v1.0.4开始强制把所有生成素材下载到本地,还用Base64方式嵌入参考图,避免链接失效导致任务断档。这是很多竞品目前都没有解决的痛点。
3. 对国内用户友好
- Docker一键部署(国内镜像源加速已内置)
- 支持Ollama本地大模型(qwen2.5、deepseek等)零成本跑
- 提供优云智算3080Ti一键部署镜像(适合不想折腾服务器的人)
- 配置文件、文档、交流群都非常完善
4. 技术选型
后端:Go 1.23 + Gin + GORM + Zap(性能好、并发强)
前端:Vue3 + TS + Vite + Element Plus + Tailwind
视频处理:FFmpeg(转场、剪辑、编码全靠它)
架构:标准的DDD领域驱动分层,代码可读性高,容易二次开发
5. 持续迭代速度非常快
项目在2026年1月几乎每周都有大版本更新:
- v1.0.4:本地存储+Base64+数据清洗脚本
- v1.0.3:纯Go SQLite驱动 + WAL并发优化
- v1.0.2:支持OpenAI Sora视频端点
谁最适合用火宝短剧?
- 短视频/短剧博主:快速验证剧情idea,批量产出测试版本
- 自媒体/营销号:需要大量定制化剧情宣传片
- AI爱好者/独立开发者:想折腾本地AI视频全流程pipeline
- 小团队/工作室:想降低短剧试错成本,先用AI跑通再真人拍
它不是取代专业短剧团队的工具,而是让“0基础的人也能5分钟出一条能看的短剧demo”的生产力乘法器。
快速上手
1. 有一定显卡(最好≥3080)→ 直接点这个链接一键部署(优云智算):
https://www.compshare.cn/images/CaWEHpAA8t1H?referral_code=8hUJOaWz3YzG64FI2OlCiB&ytag=GPU_YY_YX_GitHub_huobaoai
(记得及时把生成的文件下载到本地)
2. 喜欢本地折腾→ Docker Compose部署(README里有国内加速配置)
3分钟启动,推荐!
3. 完全不想花钱→ 用Ollama + qwen2.5 + 开源图生视频模型跑(速度慢但0成本)
仓库地址再贴一次(别错过):
https://github.com/chatfire-AI/huobao-drama
你准备用它生成什么类型的短剧?古风、爽文、都市、悬疑,还是反转?
欢迎评论区聊聊