大语言模型(LLM)

Persona Engine开源发布,AI虚拟助手与Live2D融合打造交互新体验

近日,Persona Engine(人格引擎)项目正式开源,凭借其融合大语言模型(LLM)、Live2D、自动语音识别(ASR)、文本转语音(TTS)以及实时语音克隆(RVC)等前沿技术的强大功能,引发了AI与虚拟内容创作领域的广泛关注。据AIbase了解,该项目通过赋予虚拟角色自然对话与动态表情能力,实现了与虚拟人物的实时交互,特别适用于VTubing、直播和虚拟助手场景。项目已在GitHub上

MCP生态崛起,六行代码打造智能AI代理

随着人工智能技术的飞速发展,模型上下文协议(Model Context Protocol,MCP)生态正在成为连接大语言模型(LLM)与外部工具的桥梁,赋予AI前所未有的操作能力。MCP作为由Anthropic于2024年11月推出的开源协议,旨在标准化LLM与外部数据源和工具的交互方式。开发者们称其为“AI的USB-C接口”。通过MCP,LLM可以轻松调用网页搜索、文件操作甚至3D建模软件等工具

GLM-4-32B 与 GLM-Z1-32B 在 OpenRouter 上线,免费开放

清华大学 KEG 实验室(THUDM)研发的 GLM-4-32B 及 GLM-Z1-32B 两款前沿大语言模型(LLM)正式在 OpenRouter 平台上线,且完全免费向全球用户开放。这一里程碑式的事件标志着高性能 AI 模型的普及迈出了重要一步,为开发者、研究人员及 AI 爱好者提供了强大的工具,以推动人工智能应用的进一步创新。模型上线:性能强劲,免费开放GLM-4-32B 作为一款拥有320

Intel 开源 AI Playground,可用intel Arc 显卡使用各种AI模型

Intel 宣布将其生成式 AI 软件 AI Playground 正式开源,这一举措引发了 AI 社区的广泛关注。作为一款专为 Intel Arc GPU 和集成显卡优化的 AI 工具,AI Playground 被描述为一个“AI 中心”,支持本地运行聊天式大语言模型(LLM)以及图像和视频生成功能。此次开源标志着 Intel 在推动生成式 AI 技术普及和社区协作方面迈出了重要一步。开源 A

清华与上海 AI Lab 联合打造新型过程奖励模型GenPRM,让小模型超越 GPT-4o

在人工智能领域,随着 OpenAI 的 o1和 DeepSeek 的 R1模型受到广泛关注,大语言模型(LLM)的推理能力和测试时扩展(TTS)技术引发了众多研究者的兴趣。然而,在处理复杂推理问题时,如何准确评估模型每一步的回答质量,依然是一个亟待解决的难题。为此,清华大学与上海 AI Lab 共同提出了生成式过程奖励模型(GenPRM),为过程监督推理提供了创新解决方案。传统的过程奖励模型(PR

字节跳动发布高效预训练长度缩放技术,突破长序列训练瓶颈

字节跳动宣布推出高效预训练长度缩放技术(Efficient Pretraining Length Scaling),通过创新的Parallel Hidden Decoding Transformer(PHD-Transformer)框架,显著提升大语言模型(LLM)在长序列预训练中的效率与性能。据AIbase了解,该技术在保持推理效率的同时,支持高达2048K(2M)的上下文长度训练,解决了传统框