安爸-超级家庭
bg

AI信息差

小样本大能量!MedVLM-R1借力DeepSeek强化学习,重塑医疗AI推理能力

射学影像是现代医疗诊断的关键,每年全球约有 80 亿次影像检查。随着 AI 技术的快速发展,医学视觉语言模型 (VLM) 在放射学任务中显示出良好的前景,但大多数现有的 VLM 仅产生最终答案而不展示底层推理。 然而,医学推理在临床应用中扮演着至关重要的角色。一方面,医生对于 AI 诊断结果的「可理解、可追溯」有着强烈需求;另一方面,监管部门也往往更关注...

阅读:8 评论:0

ICLR 2025 扩散模型奖励微调新突破!Nabla-GFlowNet让多样性与效率兼得

©来源 | 机器之心 在视觉生成领域,扩散模型(Diffusion Models)已经成为生成高质量图像、视频甚至文本的利器。然而,生成结果往往离我们所偏好的不一致:结果不美观,图文不符,等等。 虽然我们可以像大语言模型中的 RLHF(基于人类反馈的强化学习)一样直接用传统强化学习来微调扩散模型,但收敛速度往往慢;而基于可微计算图直接最大化奖励函数的方法又...

阅读:9 评论:0

只因论文「碰瓷」,ICLR 2025区域主席直接拒稿!最强rebuttal,赢回荣耀

新智元报道 编辑:KingHZ 【新智元导读】1%合成数据,就能让AI模型瞬间崩溃!如此颠覆性发现,只因未引用他人论文,ICLR区域主席直接拒稿,好在作者成功rebuttal,论文最终选为Spotlight。而背后,竟是一桩图灵奖得主Yann Lecun关注的学界争议! ICLR 2025,公开审稿,多级反转! 只因没有引用COLM 2024会议的...

阅读:10 评论:0

4月13日周日 | Python热门项目

欢迎关注我,持续获取更多内容,感谢赞&在看\~ Python项目排行 | 8个 1. yeongpin / cursor-free-vip 项目语言: Python Star总数: 11,643 Fork总数: 1,441 Star新增: 1,033 stars today 项目地址: https://github.com/yeongpin/cur...

阅读:10 评论:0

吉卜力爆红背后,关键推手另有其人!GPT-4o竟封奥特曼为AGI之王

新智元报道 编辑:KingHZ 【新智元导读】AI名流化身三国杀,奥特曼被GPT-4o认作AGI霸主!继吉卜力风全家福后,GPT-4o卡牌风、个性化罗塔牌让人眼前一亮。而纽约客曝料:吉卜力风全家福掀翻全网,背后最大功臣不是奥特曼,而是亚马逊前高级软件工程师Grant Slatton! AI版「三国杀」卡牌来了。 AI初创Nous Research联...

阅读:10 评论:0

AI奥数大奖出炉,英伟达摘桂冠!14B破解34题暴击DeepSeek R1

新智元报道 编辑:编辑部 NJY 【新智元导读】AIMO2最终结果出炉了!英伟达团队NemoSkills拔得头筹,凭借14B小模型破解了34道奥数题,完胜DeepSeek R1。 第二届人工智能数学奥林匹克竞赛(AIMO2)开奖了! 作为大赛顾问委员会的一员,陶哲轩激动地宣布了最新的结果——英伟达团队AI成功破解了34道题(共50题)。 这一次,...

阅读:8 评论:0

美科技界焦虑横行:岗位减少、薪酬缩水、AI崛起

作者 | Kevin V. Nguyen、Rya Jetha 译者 | 核子可乐 策划 | 褚杏娟 随着大型企业纷纷用 AI 编码取代人力,薪资下降和越来越长的求职周期正变得愈发普遍。 2023 年底,Zach Pretzell 被一家太空科技公司解雇,当时他没想到自己会在八个月后的今天仍没能找到下一份工作。尽管在多个号称是全球科技之都的城市申请了数...

阅读:9 评论:0

麦橘超然的NSFW专用LoRa

Flux模型发布以来,基本上垄断了开源AI绘画领域真人风格,不过它也有无法回避的缺点:油腻。 尤其是在生成东亚人的时候,面部的油腻感很难接受。 于是很多创作团队制作了东亚人专用模型,以麦橘、红潮和真实边缘三个模型为最佳代表。 其中麦橘的风格更具有美感,但美颜效果较重,真实边缘基本没有美颜的感觉,红潮则介于二者之间。 这三个模型我经常配合使用。 不过麦橘虽然...

阅读:8 评论:0

OpenAI揭秘GPT-4.5训练:10万块GPU,几乎全员上阵,出现“灾难性问题”

我们离理想中的训练系统还很遥远。 编译 | 陈骏达 陈家阳 编辑 | Panken 智东西4月13日消息,近日,在OpenAI史上最贵模型GPT-4.5发布1个多月后,OpenAI联合创始人兼CEO萨姆·阿尔特曼(Sam Altman)与GPT-4.5的3位核心技术人员进行了一场45分钟的高信息量对谈,首次披露了这款模型研发耗时严重超期、计算集群频...

阅读:9 评论:0

人类一生所学不过4GB,加州理工顶刊新研究引热议

西风 一水 发自 凹非寺 量子位 | 公众号 QbitAI 24小时不间断学习且不遗忘,一辈子也只有4GB的“知识储量”? 科学家们最新研究,计算出了人类学习积累上限,就这么多\~\~(甚至还不如一块U盘能装)。 这是来自Cell旗下神经科学顶刊Neuron上的一项工作,它提出了一个发人深省的悖论: 人类信息处理速度仅为每秒10bit,而我们的感官系统却...

阅读:8 评论:0