英伟达AI研究人员推出FFN融合技术:加速大型语言模型推理 人工智能芯片巨头英伟达的研究人员近日发布了一项名为“FFN融合”(FFN Fusion)的创新架构优化技术。该技术旨在通过解决Transformer架构中固有的串行计算瓶颈,显著提升大型语言模型(LLMs)的推理效率,为更广泛地部署高性能AI应用铺平道路.近年来,大型语言模型在自然语言处理、科学研究和对话代理等领域展现出强大的能力。然而,随着模型规模和复杂性的不断增加,其推理过程所需的计算资源也大 AI热点 3周前 0 点赞 0 评论 149 浏览
EasyControl:让DiT模型拥有ControlNet般强大操控,支持吉卜力画风转换 在人工智能绘画领域,扩散模型(Diffusion Model)正经历从基于Unet架构向基于Transformer架构(DiT)的转变。然而,DiT生态系统在插件支持、效率以及多条件控制等方面仍面临挑战。近日,由Xiaojiu-z领衔的团队推出了名为EasyControl的创新框架,旨在为DiT模型提供高效且灵活的条件控制能力,犹如为DiT模型装上了强大的“ControlNet”。EasyCont AI热点 2周前 0 点赞 0 评论 200 浏览