终端代理的端到端堆栈看起来像是什么样子,当您结合结构化工具组、合成强化学习环境以及基准对齐的评估时?来自CAMEL AI、Eigent AI和其他合作伙伴的研究团队发布了SETA,这是一个专注于终端代理的强化学习的工具包和环境堆栈。该项目针对在Unix风格壳中运行的代理,必须在一个基准体系结构(如Terminal Bench)下完成可验证任务。 三大主要贡献...
NVIDIA刚刚发布了其专为低延迟语音代理和实时字幕设计的全新流式英语转录模型(Nemotron Speech ASR)。Hugging Face上的检查点nvidia/nemotron-speech-streaming-en-0.6b结合了一个缓存感知的FastConformer编码器和RNNT解码器,并针对现代NVIDIA GPU上的流式和批量任务进行了...
阿布扎比的科技创新研究所(TII)发布了一款名为Falcon-H1R-7B的7B参数推理专用模型,在数学、代码和通用基准测试中与14B到47B推理模型相匹配甚至更好,同时保持紧凑和高效。该模型基于Falcon H1 7B基础版,可在Hugging Face的Falcon-H1R系列下使用。 Falcon-H1R-7B之所以引人注目,是因为它将3个设计选择结合...
液态AI发布LFM2.5,新一代基于LFM2架构的小型基础模型,专注于设备边缘部署。该模型包括LFM2.5-1.2B-Base和LFM2.5-1.2B-Instruct,并可扩展到日语、视觉语言和音频语言变体。该模型作为开源权重发布在Hugging Face上,并通过LEAP平台提供。 架构和训练方案 LFM2.5保留了为在CPU和NPUs上实现快速和内存高...
马克特普斯特发布其2025年分析平台 AI2025Dev,旨在将本年度的人工智能活动转换为可查询的数据集,涵盖模型发布、开放性、培训规模、基准性能和生态系统参与者等信息。马克特普斯特是一家位于加州的AI新闻平台,关注机器学习、深度学习和数据科学研究。 本发布的新内容 AI2025Dev 的2025年发布在两个层面进行了扩展: 发布分析,重点关注的模型和框...
腾讯混元研究团队发布了HY-MT1.5,这是一款针对移动设备和云系统的多语言机器翻译家族,采用相同的训练方案和指标。HY-MT1.5包含2个翻译模型,HY-MT1.5-1.8B和HY-MT1.5-7B,支持33种语言及5种民族和方言的相互翻译,并在GitHub和Hugging Face上提供开源权重。 模型家族和部署目标 HY-MT1.5-7B是WMT25冠...
Zlab 普林斯顿的研究员发布了 LLM-Pruning Collection,这是一个基于 JAX 的存储库,将大型语言模型的多种剪枝算法整合到一个可复制的框架中。它的目标非常明确,就是在统一训练和评估环境中,方便比较块级、层级和权重级剪枝方法,无论是在 GPU 还是 TPU 上。 LLM-Pruning Collection 包含的内容 它被描述为一个基...
腾讯浑元3D数字人团队发布了HY-Motion 1.0,这是一个开放权重文本到3D人类动作生成系列,将基于流匹配的Diffusion Transformer扩展到动作领域的10亿参数。这些模型将自然语言提示和期望时长转换为统一SMPL-H骨骼的3D人类动作片段,可在GitHub和Hugging Face上 以代码、检查点和Gradio界面本地使用。 htt...
Cloudflare开源了tokio-quiche,这是一个异步QUIC和HTTP/3 Rust库,它使用Tokio运行时封装了经过实战检验的quiche实现。这个库在生产系统(如Apple iCloud Private Relay、基于Oxy的代理和WARP的MASQUE客户端)中得到了优化,在这些系统中,每秒它可以处理数百万个HTTP/3请求,具有低延迟...
阿里巴巴通义实验室发布了MAI-UI——一家基础GUI代理的家族。它本地理解MCP工具使用、代理用户交互、设备-云协作和在线RL,在一般GUI基础和移动GUI导航方面取得了最先进的结果,超过了AndroidWorld上Gemini-2.5-Pro、Seed1.8和UI-Tars-2。该系统针对早期GUI代理常忽视的三个特定差距:原生代理用户交互、MCP工具集...