MakeGirlMoe的使用体验
这篇博文似乎应该出现在2018年才对。
MakeGirlMoe是一个极为古早的ACG图像生成模型,是用GAN(已经好久没听说过它了...)架构训练的。当时似乎也引起过一段时间的热议。这几年来顶尖文生图AI快速发展,底层原理从GAN进化到Diffsuion再进化到TransFormer。生成图片的精美度早已也不是这个老前辈能比的(当然资源占用也水涨船高)。今天,笔者想将它重新捡起来(主要是因为电脑性能太差跑不了现在的模型),看看它表现。
部署
笔者不打算使用它的在线版,而是打算将它拉到本地部署使用。它的所有代码托管在GitHub上,仓库包括了其在线版提供的几个模型。
拉取这个仓库需要你的git启用git-lfs拓展。你可以在这里下载git-lfs。对于nix系统,默认软件源里应该有这东西。完成安装后,执行(这个仓库非常大,记得进行网络配置):
git clone https://github.com/makegirlsmoe/makegirlsmoe_web/
上文已经提到,这个项目仓库里还存放了模型,有几个模型大小似乎超出了git默认的http缓冲区大小,建议修改git的http缓冲区大小。不出意外的话,它应该已经被clone到了本地。下文中的所有路径是相对于仓库在本地的根目录而言的。
MakeGirlMoe使用NodeJS,请提前安装。然后,执行npm install以下载依赖。
只要你不作死把它部署到公网,报错可以忽略。
接下来,我们需要对代码和其依赖进行一些修改,不然它可能跑不起来,详细如下:
- 将
src/Config.js的第1行改为var debug = true; - 将
node_modules/http-deceiver/lib/deceiver.js第22行至第27行改为:
HTTPParser = require('http-parser-js').HTTPParser;
methods = HTTPParser.methods;
// v6
if (!methods)
methods = require('http-parser-js').methods;
改完之后,终端运行npm start,等一到二秒暖机,之后部署就完成了。
使用
默认情况下,MakeGirlMoe运行在localhost:3000下。浏览器访问此处,即可打开其UI。它的UI与在线版无异,就不展示了。
试着生成了几张图片,可以看看:





从这几张图片可以看出用这些模型生成的图片的上下限差距极大,下完全不成人形,上可以作为一个尚可的头像。对于衣着、发饰、头发等位置,它的表现通常极差(手这种地方就更不用说了)。所以用这个AI就像在抽卡,运气不好就只有古神出现。此外,笔者更建议使用Bouvarida(256x256版本)模型,因为它输出的稳定性似乎更好,上限似乎也更高。
需要指出的是,随机噪声对其产生图片的质量影响极大,所以建议你保存一些观感还行的噪声,它是支持这么做的。
本来想做一下benmmark的,但是它生成图像即使在我这台轻薄本上(i5-1155,无独显,16G)也非常快,所以认为没有必要,遂放弃。稍微看了一眼内存占用量,不算浏览器,后端占用内存在200M至300M浮动,相对现在的AI来说非常轻量(当然,付出了质量的代价)。
就写到这里结束吧。