跳动百科

腾讯发布Hunyuan-TurboS:首款超大型混合Transformer-Mamba MoE模型震撼登场

梁刚娇   来源:网易

【新闻速递】腾讯今日宣布,其自主研发的最新人工智能模型——Hunyuan-TurboS正式发布。作为全球首款超大型混合Transformer-Mamba MoE(Mixture of Experts)模型,Hunyuan-TurboS标志着腾讯在AI领域的又一次重大突破。

Hunyuan-TurboS模型采用了创新的混合架构,将Transformer与MoE机制相结合,实现了对大规模数据集的高效处理和复杂任务的精准解决。该模型不仅在计算效率上取得了显著提升,还在自然语言处理、图像识别等多个领域展现了卓越性能,为实现更智能的人机交互提供了强有力的技术支持。

腾讯表示,Hunyuan-TurboS的推出旨在推动AI技术的发展,促进各行各业的智能化转型。未来,腾讯将继续加大研发投入,探索更多前沿技术,致力于构建更加开放、包容的AI生态,助力社会各领域实现高质量发展。

此次发布的Hunyuan-TurboS,是腾讯在人工智能领域深耕多年的重要成果之一,也是其持续推动技术创新、服务社会发展的又一里程碑。