腾讯混元宣布大语言模型和3D模型正式开源
中证网讯(记者 杨梓岩)11月5日,腾讯混元宣布最新的MoE大语言模型“混元Large”以及混元3D生成大模型“Hunyuan3D-1.0”正式开源,支持企业及开发者精调、部署等不同场景的使用需求,可在HuggingFace、Github等技术社区直接下载,免费并可商用。当天,腾讯云TI平台和高性能应用服务HAI也开放接入这两个模型,为模型的精调、API调用及私有化部署提供一站式服务。
本次开源是腾讯混元继文生图模型后持续开放的新举措。其中,腾讯混元Large是目前开源领域参数规模最大、效果最好的MoE模型,而腾讯混元3D生成大模型则是业界首个同时支持文字、图像生成3D的开源大模型。目前,两个模型均已经在腾讯业务场景中落地应用,是面向实用场景的应用级大模型。
据了解,腾讯混元Large模型总参数量389B,激活参数量52B,上下文长度达256K,公开测评结果显示,腾讯混元Large在CMMLU、MMLU、CEval、MATH等多学科综合评测集以及中英文NLP任务、代码和数学等9维度处于领先位置。
MoE(Mixture of Experts),即混合专家模型,是目前国内外主流的大模型结构。2024年年初,腾讯混元宣布在国内率先采用MoE架构模型,总体性能比上一代Dense模型提升50%。此后,腾讯混元推出基于MoE架构的多模态理解大模型以及基础模型“混元turbo”,在性能、效果、速度等多个领域表现优越。
此次腾讯混元开源的3D生成大模型Hunyuan3D-1.0,解决了现有的3D生成模型在生成速度和泛化能力上存在不足的问题,可以帮助3D创作者和艺术家自动化生产3D资产。该模型具有强大的泛化能力和可控性,可重建各类尺度物体,大到建筑,小到工具花草。经过定性、定量多个维度的评估,腾讯混元3D生成大模型的生成质量已达到开源模型的先进水平。应用上,3D生成相关技术已经开始应用于UGC 3D创作、商品素材合成、游戏3D资产生成等腾讯业务中。