美团龙猫团队正式推出多模态大模型LongCat-Next,其核心创新在于采用LoZA稀疏注意力机制。该模型支持100万(1M)超长上下文处理,通过智能筛查技术,将50%低重要性模块替换为流式稀疏注意力,从而实现128K解码速度提升10倍,同时节省30%算力。模型包含Flash-Exp和Flash-Lite两个版本,在长文本任务中的表现超越了Qwen-3。