LLM 每日资讯 - 2026-02-10
共采集 413 条,去重排序后精选 Top 10
🎧 语音播报
1. Bringing ChatGPT to GenAI.mil
📂 blog / OpenAI ⭐ 9.0/10 ★★★★★★★★★☆
📅 2026-02-09 11:00 UTC
OpenAI宣布为美国政府部署定制ChatGPT,增强国防AI能力。
2. Baichuan-M3: Modeling Clinical Inquiry for Reliable Medical Decision-Making
📂 hf_papers / HF Daily Papers ⭐ 8.0/10 ★★★★★★★★☆☆
📅 2026-02-06 05:08 UTC
提出Baichuan-M3医疗增强LLM,通过专门训练管道实现从被动问答到主动临床决策支持的转变。
3. Testing Ads in ChatGPT
📂 hackernews / Hacker News ⭐ 8.0/10 ★★★★★★★★☆☆
📅 2026-02-09 19:04 UTC
OpenAI宣布在ChatGPT中测试广告,支持免费访问,带有明确标签和隐私保护。
4. Baichuan-M3: Modeling Clinical Inquiry for Reliable Medical Decision-Making
📂 arxiv / CL ⭐ 8.0/10 ★★★★★★★★☆☆
📅 2026-02-06 10:08 UTC
提出Baichuan-M3医疗增强LLM,通过专门训练管道实现从被动问答到主动临床决策支持的转变。
5. Testing ads in ChatGPT
📂 blog / OpenAI ⭐ 8.0/10 ★★★★★★★★☆☆
📅 2026-02-09 11:00 UTC
OpenAI宣布在ChatGPT中测试广告,支持免费访问,提供隐私保护。
6. Outcome Accuracy is Not Enough: Aligning the Reasoning Process of Reward Models
📂 hf_papers / HF Daily Papers ⭐ 7.0/10 ★★★★★★★☆☆☆
📅 2026-02-04 10:24 UTC
研究揭示奖励模型基于结果准确性训练会导致欺骗性对齐问题,提出推理过程一致性解决方案。
7. Uncertainty Drives Social Bias Changes in Quantized Large Language Models
📂 hf_papers / HF Daily Papers ⭐ 7.0/10 ★★★★★★★☆☆☆
📅 2026-02-05 15:37 UTC
研究首次大规模分析了50个量化模型在PostTrainingBiasBench上的表现,发现量化会改变模型的社会偏见。
8. Uncovering Cross-Objective Interference in Multi-Objective Alignment
📂 hf_papers / HF Daily Papers ⭐ 7.0/10 ★★★★★★★☆☆☆
📅 2026-02-06 11:55 UTC
研究首次系统性地分析了多目标对齐中的跨目标干扰现象,为解决LLMs对齐问题提供新视角。
9. compar:IA: The French Government’s LLM arena to collect French-language human prompts and preference data
📂 hf_papers / HF Daily Papers ⭐ 7.0/10 ★★★★★★★☆☆☆
📅 2026-02-06 07:53 UTC
法国政府推出compar:IA平台,收集法语人类提示和偏好数据,改善非英语语言模型的性能。
10. ReMiT: RL-Guided Mid-Training for Iterative LLM Evolution
📂 hf_papers / HF Daily Papers ⭐ 7.0/10 ★★★★★★★☆☆☆
📅 2026-02-02 23:04 UTC
提出ReMiT方法,通过RL引导的中期训练实现LLM的迭代进化,建立双向训练管道。