安爸-超级家庭
bg

AI进家庭

刚刚,ICLR 2025时间检验奖颁给Adam之父!Bengio「注意力机制」摘亚军

新智元报道 编辑:桃子 好困 【新智元导读】ICLR 2025时间检验奖重磅揭晓!Yoshua Bengio与华人科学家Jimmy Ba分别领衔的两篇十年前论文摘得冠军与亚军。一个是Adam优化器,另一个注意力机制,彻底重塑深度学习的未来。 刚刚,ICLR 2025时间检验奖公布! 斩获大奖的是,xAI工程师、Hinton高徒Jimmy Ba发表的...

阅读:11 评论:0

中国第一家启动IPO的“大模型六虎”来袭!智谱融资超160亿,美国OpenAI也将IPO|

4月15日消息,钛媒体AGI获悉,据中国证监会网站,北京智谱华章科技股份有限公司(智谱AI)公布IPO上市辅导备案报告,辅导机构为中国国际金融股份有限公司(中金公司)。 根据辅导备案报告,本次智谱AI辅导前期准备工作于2025年4月启动,正式辅导期第二阶段在2025年8月到2025 年10月。这意味着,智谱AI最快将在2025年底前向上交所或港交所提交IP...

阅读:8 评论:0

海豚语言被谷歌大模型破译!跨物种交流大门打开,哈萨比斯:下一个是狗

一水 发自 凹非寺 量子位 | 公众号 QbitAI 神奇!人类和海豚真的能实现跨物种交流了?! 当地时间4月14日(也是世界海豚日),谷歌CEO皮猜激动官宣: 隆重推出DolphinGemma,基于多年积累的海豚声音数据训练而成,有助于实现跨物种交流。 划重点,这个海豚模型参数仅400M,小到能直接在谷歌Pixel 9手机上运行。 而且皮猜还说了,...

阅读:9 评论:0

GPT-4.1深夜偷袭!OpenAI掏出史上最小、最快、最便宜三大模型,百万token上下文

OpenAI新模型编码、长文本理解、多轮对话能力飙升,性价比拉满。 作者 | 程茜 编辑 | 云鹏 智东西4月15日报道,刚刚,OpenAI一口气掏出了GPT-4.1系列的三款模型,并称这是其有史以来最小、最快、最便宜的模型系列,且新模型的整体性能表现要优于GPT-4o和GPT-4o mini。 GPT-4.1系列模型包含三个模型:GPT-4.1、...

阅读:9 评论:0

音乐人的AI助手来了!MCP生态再添新军,AbletonMCP让创作像发微信一样简单!

MCP 可以说是在2025年AI领域里最热门的技术之一了!这个号称大模型接入万物的通用协议,智能体时代的HTTP,AI工具的USB-C接口。 继BlenderMCP、PlaywrightMCP、UnityMCP、百度地图MCP等MCP应用的发布,MCP生态也是越来越丰富了,各行各业的产品都在尝试借助MCP接入AI能力。 而最近音乐创作工具 Ableton 也...

阅读:8 评论:0

Chonky:一个完全基于神经网络的文本分块工具

Chonky:一个完全基于神经网络的文本分块工具。它能将文本智能分割成有意义的语义块,帮助你更高效地处理和理解长文本。亮点: 使用Transformer模型,精准分块; 支持RAG系统,拓展应用范围; 一行代码即可完成安装,简单易用。 参考文献: [1] https://github.com/mirth/chonky [2] https://hugg...

阅读:9 评论:0

GRPO:零依赖版

GRPO 训练实现的极简依赖版本。几乎从零开始构建所有组件,仅依赖 tokenizers 进行分词处理,以及 pytorch 完成训练。 参考文献: [1] http://github.com/policy-gradient/GRPO-Zero (文:NLP工程化) GRPO:零依赖版最先出现在每时AI。

阅读:8 评论:0

Skywork-OR1:释放强化学习的力量,打造强大的数学和代码推理Agent

Skywork-OR1:释放强化学习的力量,打造强大的数学和代码推理Agent。亮点: Skywork-OR1-Math-7B在AIME24上得分69.8,超越同尺寸模型; Skywork-OR1-32B-Preview性能媲美671B参数的Deepseek-R1; 开源模型权重、训练数据及代码,助力社区研究。 参考文献: [1] http://gi...

阅读:10 评论:0

刚刚,OpenAI发布GPT-4.1,性能暴涨、100万上下文

今天凌晨1点,OpenAI进行了技术直播发布了最新模型——GPT-4.1。 除了GPT-4.1之外,还有GPT 4.1-Mini和GPT 4.1-Nano两款模型,在多模态处理、代码能力、指令遵循、成本方面实现大幅度提升。特别是支持100万token上下文,这对于金融分析、小说写作、教育等领域帮助巨大。 由于GPT-4.1的发布,OpenAI宣布将会淘汰刚发...

阅读:9 评论:0

什么样的偏好,才叫好的偏好?——揭秘偏好对齐数据的「三驾马车」

论文有两位共同一作。何秉翔,清华大学博士一年级,研究方向为大语言模型对齐、强化学习。张文斌,哈尔滨工业大学博士一年级,研究方向为自然语言处理。 近年来,大语言模型(LLMs)的对齐研究成为人工智能领域的核心挑战之一,而偏好数据集的质量直接决定了对齐的效果。无论是通过人类反馈的强化学习(RLHF),还是基于「RL-Free」的各类直接偏好优化方法(例如 DP...

阅读:9 评论:0