
AI 一站式短剧/漫剧生成平台
Industrial AI Motion Comic & Video Workbench
AI 漫剧工场 是一个面向短剧、漫剧、动态漫画与影视分镜创作者的 AI 生产工作台,目标是把故事创意快速转化为可预览、可导出、可继续剪辑的视觉资产与视频片段。
项目采用 Script-to-Asset-to-Keyframe 工作流:先完成剧情与分镜,再生成角色/场景资产,随后在 AI工作台中制作关键帧与视频,最后统一预览和导出。
普通电脑安装文件支持windows
Windows : 安装文件https://github.com/yuanzhongqiao/deep-printfilm/archive/refs/tags/PrintFilmPro-V-0.8.03.zip
传统 Text-to-Video 往往难以稳定控制角色、构图和镜头起止画面。AI 漫剧工场引入动画与影视制作中的关键帧思路:
剧情创作阶段用于把故事、小说片段或短剧创意整理为可生产的结构化内容。
场景角色阶段用于沉淀后续画面生成需要使用的核心视觉资产。
AI工作台是关键帧与视频片段制作的核心区域。
制片导出阶段用于集中预览、检查和下载项目成果。
资产管理用于集中查看和调整项目中的提示词资产。
项目默认围绕 GitCC API 提供的文本、图像与视频模型组织工作流:
模型配置可以在应用内调整,适配不同上游模型名称、接口路径和参数。
npm install
npm run dev
启动后访问终端输出的本地地址。Vite 开发环境会代理 /api-proxy 到 GitCC API,便于本地调试。
npm run build
npm run preview
docker-compose up -d --build
docker-compose logs -f
docker-compose down
默认通过 3005 端口访问。Compose 会生成 ai-manga-studio:latest 镜像、ai-manga-studio-app 容器和 ai-manga-studio-network 网络。Nginx 会托管前端静态文件,并代理 /api-proxy 到 GitCC API。
docker build -t ai-manga-studio .
docker run -d -p 3005:80 --name ai-manga-studio-app ai-manga-studio
docker logs -f ai-manga-studio-app
docker stop ai-manga-studio-app
npm run electron:dev
npm run electron:build
npm run electron:build:win
electron:dev:先构建前端,再启动 Electron 窗口。electron:build:使用 electron-builder 生成桌面安装包。AI 漫剧工场 为产品名输出到 release/ 目录。/api-proxy 到 GitCC API。npm install
npm run dev
npm run build
npm run preview
npm run electron:dev
npm run electron:build
docker-compose up -d --build
docker-compose down
.
├── App.tsx
├── components/
│ ├── Dashboard.tsx
│ ├── Sidebar.tsx
│ ├── ModelConfig/
│ ├── Onboarding/
│ ├── StageScript/
│ ├── StageAssets/
│ ├── StageDirector/
│ ├── StageExport/
│ └── StagePrompts/
├── electron/
├── public/
├── services/
├── types/
├── types.ts
├── vite.config.ts
├── Dockerfile
├── docker-compose.yaml
└── nginx.conf
传统的散装操作中,提示词的连贯性和资产管理全靠脑子记。上一秒主角穿西装,下一秒就变夹克,为了修这些 Bug,创作者只能在各个工具之间来回复制粘贴。
deep-printfilm 采用的是 Script-to-Asset-to-Keyframe(剧本-资产-关键帧)逻辑。在这个后台里,你可以先输入故事大纲拆成分镜,然后生成角色的基础定妆照和各套服装变体。最后在生成视频片段时,让模型尽量参考这些已经定好的视觉资产。
这个工具并没有试图搞个“一键出片”的噱头,而是把工作流切分得很清晰实在:
第一步先搞定文本(剧本和分镜节奏);第二步确立视觉资产(角色、服装和环境概念图);第三步才是真正的生成工作台。在这个核心操作区,所有的镜头都以网格形式管理。你可以为每个镜头生成起始关键帧,再基于关键帧去跑视频。
这种做法最大的好处,是把原本散落在 txt 记事本、图片文件夹和生成记录里的素材,集中到同一个项目里管理。
目前该项目在GitHub上已有接近千星关注,并发布了正式的 Release 版本,属于近期关注度上升较快的新工具。
对于小白用户,开发者提供了基于 Electron 打包的 Windows 桌面端直接安装。但如果你本身有 Docker 部署经验,也可以把它跑在服务器、NAS 或本地开发环境里,它也完全支持 Docker 服务端部署或本地开发环境运行。
不过在部署和使用之前,有几件事需要提前确认:
如果你已经跑通过一两次 AI 视频流程,受够了频繁切换窗口的折磨,deep-printfilm 是一个思路很对、能帮你省下大量项目管理精力的提效工具。
但如果你是完全没接触过 API 调用的纯新手,指望下载安装后点个按钮就能吐出一部能赚钱的短剧,那它不适合你。真正的门槛永远不在于工作台的安装,而在于你如何写出好的提示词,以及搞定稳定且高性价比的模型接口。
建议普通用户可以先做个小范围试用,跑通一个几十秒的短片看看效果,再决定要不要把它作为主力的生产工具。
deep-printfilm 真正有用的地方,不是让 AI 突然变得更会拍视频,而是把原本散落的剧本、角色设定、场景参考、关键帧和视频片段放进同一个项目里。对已经折腾过 AI 视频的人来说,这种“把东西管清楚”的能力,反而比多一个生成按钮更实际。
如果你期待的是下载安装后自动生成一部完整短剧,它大概率会让你失望。但如果你已经有自己的剧本、角色设定和生成流程,只是受够了文件夹混乱、提示词散落和镜头前后接不上的问题,那它确实值得试一试。