安爸-超级家庭
bg

AI信息差

使用强化学习训练 LLM Agents 的资源列表:AgentsMeetRL

GitHub 上一份汇总了使用强化学习训练 LLM Agents 的资源列表:AgentsMeetRL。为我们系统整理了各类开源项目的强化学习框架、算法选择和奖励机制,还按应用领域详细分类。涵盖了基础框架、搜索研究、GUI 交互、工具使用、文本游戏、问答推理等多个领域的项目分析。项目目前持续更新,适合想深入了解 LLM Agent 训练技术的开发者参考学习。...

阅读:7 评论:0

谢赛宁团队新基准让LLM集体自闭,DeepSeek R1、Gemini 2.5 Pro都是零分

机器之心报道 编辑:陈陈、+0 当前 LLM 与人类大师级水平之间仍存在显著差距。 近年来,LLMs(如 GPT-4、Claude、Gemini 等)在代码生成领域取得了显著进展。它们不仅在经典编程基准(如 HumanEval)中表现出色,甚至在某些测试中超越了人类平均水平。这促使许多研究者开始宣称:LLM 已经胜过人类程序员,尤其是在竞赛编程领域。 ...

阅读:8 评论:0

AI Agent平台Sedai获2000万美元融资,主打云优化

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注! AI Agent平台Sedai在官网宣布,获得2000万美元B轮融资。本次由AVP领投,Norwest、Sierra Ventures和Uncorrelated Ventures等跟投...

阅读:8 评论:0

Meta出1亿美元,挖角OpenAI员工

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注! CNBC消息,OpenAI联合创始人兼首席执行官Sam Altman透露,Meta平台曾试图挖走OpenAI的员工,提供高达1亿美元的签约奖金,以及更高的年度薪酬方案。 不过,奥特曼在...

阅读:7 评论:0

清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

随着大型模型需要处理的序列长度不断增加,注意力运算(Attention)的时间开销逐渐成为主要开销。此前,清华大学陈键飞团队提出的即插即用的 SageAttention 和 SageAttention2 已经被业界及社区广泛的使用于各种开源及商业的大模型中,比如 Vidu,CogvideoX,Mochi,Wan,HunyuanVideo,Flux,Llam...

阅读:7 评论:0

统一框架下的具身多模态推理:自变量机器人让AI放下海德格尔的锤子

机器之心报道 自变量机器人 当 AI 放下海德格尔的锤子时,意味着机器人已经能够熟练使用工具,工具会“隐退”成为本体的延伸,而不再是需要刻意思考的对象。 当一位熟练的木匠抓起锤子时,锤子消失了 —— 不是物理上的消失,而是无需思考便可自如使用。然而,当前最先进的机器人仍然无法“放下”这把“锤子”,它们被困在循环中 —— 识别锤子、规划如何使用锤子,每一次...

阅读:8 评论:0

信息过载时代,如何真正「懂」LLM?从MIT分享的50个面试题开始

机器之心报道 编辑:+0 人类从农耕时代到工业时代花了数千年,从工业时代到信息时代又花了两百多年,而 LLM 仅出现不到十年,就已将曾经遥不可及的人工智能能力普及给大众,让全球数亿人能够通过自然语言进行创作、编程和推理。 LLM 的技术版图正以前所未有的速度扩张,从不断刷新型号的「模型竞赛」,到能够自主执行任务的智能体,技术的浪潮既令人振奋,也带来了前所未有...

阅读:10 评论:0

10×加速!DCM显著提升视频扩散模型推理效率!HunyuanVideo13B推理时间从1500秒缩短至120秒!

本文由南京大学,香港大学,上海人工智能实验室,中国科学院大学与南洋理工大学 S-Lab 联合完成。 扩散模型在视频合成任务中取得了显著成果,但其依赖迭代去噪过程,带来了巨大的计算开销。尽管一致性模型(Consistency Models)在加速扩散模型方面取得了重要进展,直接将其应用于视频扩散模型却常常导致时序一致性和外观细节的明显退化。 本文通过分析一...

阅读:7 评论:0

一手实测超强开源OCR文档识别,效果超闭源模型。

这个OCR有点牛的。 开源没几天就有2.5k星星了。 看我实测的就知道有多猛,我用这个项目的论文测试了下,别家这里都是图片,它这里直接就识别成表格了,甚至符号都长得一样。 开源的OCR已经进化到比很多闭源的效果更好了。 所以PDF、文档翻译这些根本没必要再去花大价钱用了。 扫码加入AI交流群 获得更多技术支持和交流 (请注明自己的职业) 项目简介 Mon...

阅读:7 评论:0

ACL 2025 深入浅出看关系:探索多模态大模型关系“幻觉”问题

什么是“关系幻觉”? 如今,多模态大语言模型(MLLMs)已经在我们生活中随处可见,无论是聊天机器人还是自动驾驶,甚至是医疗诊断,都有它们的身影。然而,这些模型有时却会“编故事”,做出与现实不符的错误回答,我们称之为“幻觉”现象。 在过去的研究中,幻觉往往被简单地分为对象级(判断是否存在某个物体)和属性级(判断物体的颜色、形状等特性)。但现实世界中,还有...

阅读:7 评论:0