AI热点 4小时前 168 浏览次数 0 评论

LiblibAI 正式推出2.0,十字路口第一时间评测:从 1.0 到 2.0,什么变了?

AI中国
AI中国

发布了 11092 文章

LiblibAI 2.0:真· AI 创作 Studio



作为一个熟练掌握各种 AI 工具的创作者,你可能熟悉这样的创作日常:我们需要为图片生成订阅 Midjourney,为视频生成购买 Pika 或 Runway,用 Topaz 来高清修复,甚至在不同开源模型之间来回切换、用 LoRA、蜘蛛网一样的 ComfyUI、Stable Diffusion……


每多一个工具,就多一层摩擦。


2 天前,国内最大的 AI 多模态模型社区之一的 LiblibAI 进行了一次大升级,正式推出了 2.0 版本。对许多创作者而言,这个平台并不陌生,LiblibAI 一直是国内开源绘画与 LoRA 文化的重要发源地,也常被称为中国版的 CivitAI (大家常说的 C 站)


这一次,LiblibAI 重新梳理了创作者的工作逻辑,正式补全了一个完整的「工作站」。


可以明确地说,这一次,LiblibAI 正在尝试回答那个被反复追问的问题:


在 AI 时代,创作到底该有多难?


所以,这篇文章我们不打算做单纯的功能测评。


我们更想从一个创作者的真实体验出发,聊聊这次 LiblibAI 的升级,也聊聊,在这个AI 时代,创作者们的「内心活动」、真实的困惑与想法


AI 创作的「工具大分裂」时代,我们为何感到疲惫?


首先,先看一个大问题:


AI 创作的「工具大分裂」时代,我们为何总是感到疲惫?


要回答这个问题,不妨先回到我们最熟悉的日常工作流: 


 【1】为了得到一张「好看、有美感」的图,我们先得在许多 AI 生图模型中选择一个,比如 Midjourney ,然后订阅 Pro 套餐,再垫概念图;


【2】接着,把满意的图下载下来(有些平台,甚至不充值不允许下载);


【3】如果想对局部做些精细调整,在过去可能还得用 Stable Diffusion 的 Inpainting 功能,启动像蜘蛛网一样复杂的 ComfyUI;



【4】最后,想让这张图动起来?很好,现在请打开 AI 视频生成平台:Pixverse、Kling、Pika 或 Runway,再次导入、输入提示词、等待生成……


像我,平常爱用的就有:很有创意的 Recraft、有美感的 Midjourney、中文图像编辑能力很好的字节 Seedream 4.0、混元图像 3.0、英文图像编辑能力不错的谷歌 NanoBanana角色一致性保持很好的 F.1 Kontext


像这些模型,我们能像「报菜名」一样,轻松说出一堆。


每个月下来,每个产品都得冲一笔少则 20 多则 100 美元的月费。更贵的,其实是被割裂的注意力和被稀释的创造力


所以,一个创作者最需要的几样东西,最理想的状态下应该是:全都被放在同一个触手可及的地方


为什么必须是「Studio」?


LiblibAI 的「前世」,是那个被无数创作者亲切称为「小破站」的开源模型社区。许许多多设计师,曾在这里寻找灵感、下载模型、学习工作流。


也是名副其实的「中国版 CivitAI」。



它最令人关注的是对创作者的真诚。相信很多朋友都实际体验过一个有趣的故事,LiblibAI 即便在资金十分紧张的时刻,也还在发放激励,硬是聚拢了中文世界最活跃的 AIGC 创作者。


确实,当时有很多人用 Stable Diffusion 训练模型、上传作品、写教程、分享 Prompt,每天循环炼图、上传、优化。


在这个过程中,大家亲眼见证了 AI 图像从「崩坏脸」「天花板窗户」进化到可落地可商用,也亲身感受了社区从「草根互助」成长为「创作者激励体系」的建立。LiblibAI 也在动荡中坚持,哪怕在资金最紧张时(公司账上只剩下 4000 块钱)仍发放创作者激励,累计补贴超千万。让很多人赚到了人生第一笔 AIGC 收益:



然而,当开源生态的热度逐渐冷却,各种模型即服务的 SOTA AI 生图模型出来时,2 个问题出现了,相信很多人对此都有共鸣:


【1】对于新人,WebUI 和 ComfyUI 的节点式操作门槛过高,劝退了大量潜在用户。毕竟,不是所有人都有能力、或者有时间有想法去搭工作流的。


【2】对于成熟的创作者,单一的模型训练和分享,已无法满足系统性的、追求效率的商业创作需求。


市场想要的,不再是零散的「玩具」,而是一个集成化的「Studio 工作室」


所以,LiblibAI 2.0 正是在回应这一变化。它试图让创作重新回归一个整体过程:从灵感萌发,到素材生成,再到最终成品的诞生,所有动作,都能在一个空间内完成。


这间 AI 工作室的真实生产力如何?


如果说过去一年,AI 创作的关键词是「拆解」,那么 LiblibAI 2.0 想要做的,就是「重组」


在 2.0 版本里,LiblibAI 首次引入了一个完整的「Studio 工作站」概念:它不再是一个单纯的开源模型社区,而是一个让创作者能在同一个页面内,完成从「生图 → 生视频 → 特效 → 成品资产管理」的全链路创作环境。


这意味着,过去那些「模型之间来回切换」「素材导出导入」的步骤,被一次性整合进一个系统中。


虽然,这回的 LiblibAI 给出了一揽子升级,但是原有的 WebUI、ComfyUI、LoRA 也都没有取消


那么,这间全新的「工作室」,究竟能为创作带来什么?


简单来说:它把一个创作者最高频的几样需求,全都放在了触手可及的地方


总的来说,LiblibAI 2.0 新增了 4 个功能:图片生成、视频生成、视频特效、资产。我们一个一个来看。


首先是生图工作流


现在,在 LiblibAI 的 AI 生图工作室界面里,用户能一次性调用多种模型(Seedream 4.0、Nano Banana、Mj V7、F.1-Kontext 等),也支持超清 4K 图,并将素材、特效、视频在同一个工作区中连贯使用:



LiblibAI 2.0 的改动,本质上是在「降低切换摩擦」。


它让创作者能在同一个界面下完成不同模型的调用与测试。在我生图的时候,注意到目前的生图算力是打五折的,所以我一次性尝试了非常多轮的生图测试。


「十字路口」团队一直都计划着去硅谷办一场 AI Hacker House 的线下黑客松活动。所以这回我就以这个为主题来生成几张海报,试一试。


如果我想在海报中使用「Hackathon」这个词,如果使用中文的话,或者说有更多中文元素的话,我一般会用 Seedream 4.0。


垫一张我们 AI Hacker House 的参考图,提示词如下:









要是全英文的话,我一般会用 Nano 模型,它的效果会比较好一点,主要是在 LiblibAI 里面的操作流程确实非常流畅。我每回都会生成非常多轮的图片,主要也是便宜(趁着打折) :












还有一点就是,用 LiblibAI 有一个体感上特别明显的地方:因为它集成了非常多的模型,所以我会根据不同的模型调整不同的提示词,或者说用同一个提示词直接去用多个模型刷新测试,疯狂抽卡。


像是美感度还不错 Mj V7:



我还会用 Mj V7 来生成一只我们「 AI Hacker House 的标志性小猫咪」,像是这样比较有创新力的,又比较有美感的图片,在其他模型上可能会需要多 Roll 几 轮,但是 Mj V7 会好一点。



在 LiblibAI 里面的操作流程确实还是比较顺的。


比如说,你可以直接在同一个图片生成界面里面,将多个图片设置为参考图,然后它们会集中到一个输入框里面。


其实可以这么说,LiblibAI里面的生图流程和生视频的流程相比于一些专有平台来说,会稍微更顺畅一些,而且得益于社区长年的积累,灵感会更好找


像是,我就在社区里找了找灵感,让图 1 的小猫跳到图 2 的 AI Hacker House 文字上。



接下来我们可以继续抽卡了,可以选择多个模型进行反复的抽卡。 看看下面的效果,是不是还不错:







再比如,使用多个模型让这只小猫和 AI Hacker House 的标志进行组合。






其次,是视频生成。


目前,LibLib AI 里面接入了可灵、通义万象、海螺、vidu、Pixverse 等 SOTA AI 视频模型。


每个视频模型都支持非常多的特效。你可以在这个特效广场位置找到它们。我浅浅数了一下,5 个模型,一共有 100 个左右的特效模版



这个功能确实非常好玩。 「视频特效」,如果你点击这个模版之后呢,它会在 5 秒钟内给你整个视频 or 图片套上固定的特效。


像是在保持好一致性的情况下,把上面的那只 AI Hacker House 的小猫咪「捏团团」:


vidu 一秒入魂的「来点草间弥生」视频特效:


可灵的「万物膨胀」视频特效:


还有各种小创意:




生成的所有素材、视频、特效文件,都会自动存入「资产库」:



与此同时,那些我们老用户非常熟悉的「AI 工具箱」依然得到了保留。背景消除、风格迁移、构图扩展、局部修复……这一系列曾支撑起社区生态的功能,如今被重新整合进 Studio 工作流中。


所以,与其说 Liblib 2.0 新增了 4 块功能,不如说它把多年的技术与经验,向「工作流前端」又推进了一步。这个 AI 工具箱功能,也是一直以来的 LiblibAI 社区文化的最直观的体现


你能在 AI 工具箱里找到关于图片创作的大部分功能:



现在,这 4 大功能 + AI 工具箱等 LiblibAI 原有的社区创意储备,共同组成了一个很好用、比较全面的工作流。


下面,让我们总结下。


LiblibAI 2.0 的升级,其实是 AI 应用从「功能时代」迈向「场景时代」的同时,自己努力寻找新定位的一个缩影。


过去的逻辑是:模型强大 ≠ 创作高效。


而新的逻辑是:系统连贯 = 创作自由。


这种一站式的 Studio 模式,是否会成为未来 AI 创作工具的主流形态?它能否真正解决创作者的效率焦虑和成本焦虑?


时间会给出答案,但 LiblibAI 已经「先做为敬」了。


对于所有身处「工具大分裂」时代而感到疲惫的创作者来说,这个全新的「工作室」或许值得亲自推门进去看一看。


AI 创作的浪潮,正从最初的「技术狂欢」回归到「价值创造」。我们这些身处其中的创作者,也从追求「新奇特」,回归到追求「好用、高效」。


LiblibAI 2.0 的这次升级,恰好踩在了这个节点上。


它用一个「真· AI 创作 Studio」的形态,回应了我们这些创作者最朴素的期待:少一些折腾,多一些创作。


如果你也曾为散落各处的 AI 工具感到疲惫,为高昂的订阅费感到焦虑,那么,我真诚地建议你,去这个全新的工作室里坐一坐。



文章来自于微信公众号 “十字路口Crossing”,作者 “十字路口Crossing”

AI中国

AI中国

11092 文章 2000749 浏览次数 950300 粉丝

评论 (0)

睡觉动画