核心内容:
- 模型发布:OpenAI推出GPT-5 Codex,EPFL等发布Apertus-70B-Instruct,Qwen3系列模型优化推理与思考能力
- 论文突破:Tongyi Lab发布6篇代理AI论文,EntroPO框架实现编码代理SOTA,DeepSeek-R1训练方法登顶Nature
- 开源生态:SQLBot、timesfm、nanobrowser等工具更新,ROMA框架和ODS项目推动多代理与搜索技术发展
模型发布
- OpenAI GPT-5 Codex:OpenAI发布了新的AI编码模型,支持动态调整思考时间,适用于开发者。 来源:Geeky Gadgets
- Apertus-70B-Instruct:由EPFL、ETH Zurich和瑞士国家超级计算中心发布的完全开源多语言大语言模型,支持1000多种语言,促进AI可访问性。 来源:公告链接
- K2-Think (32B):新模型在推理任务上超越更大模型如GPT-OSS 120B,证明训练质量优于规模。
- Qwen3-Next-80B-A3B-Instruct:MoE架构,支持256K上下文窗口,实现高效扩展。
- Qwen3-Next-80B-A3B-Thinking:免费部署的新模型,针对思考任务优化。 来源:Cloud Rift
- Qwen3-Coder-30B:基于EntroPO框架微调,在SWE-bench-lite基准上实现开源模型新SOTA。 来源:arXiv
- DeepSeek-R1:开源AI模型,今年早些时候发布,其训练方法论文发表于Nature。 来源:Nature
- xAI新模型:旨在提升对物理世界的理解和操作,推动机器人和自主系统进展。 来源:链接
- Anthropic Claude 3.7更新:提升推理能力并降低延迟,针对企业应用。 来源:链接
新论文
- Tongyi Lab的6篇代理AI论文:包括Scaling Agents via Continual Pre-training、WebSailor-V2、WebResearcher、WebWeaver、Towards General Agentic Intelligence via Environment Scaling和ReSum,聚焦深度研究代理。 来源:arXiv 2509.13310、arXiv 2509.13305等
- EntroPO框架论文:介绍构建强大AI编码代理的方法,实现开源模型SOTA。 来源:arXiv
- DeepSeek-R1训练方法:详细说明大规模推理模型训练方法。 来源:Nature
- arXiv上新AI论文(部分):包括Hierarchical Learning for Maze Navigation等,9月18日上传117篇。 来源:arXiv
- 每日论文摘要(选):如OmniWorld(多域4D世界建模数据集)、UI-S1(半在线强化学习GUI自动化)等。
- Describe Anything模型论文:焦点于LLM和RL的安全性。 来源:链接
开源项目
- SQLBot:基于大模型和RAG的智能Text-to-SQL系统。 来源:GitHub
- timesfm:Google Research的时间序列基础模型,用于预测。 来源:GitHub
- nanobrowser:开源Chrome扩展,支持AI网页自动化,使用自定义LLM密钥。 来源:GitHub
- ROMA:递归多代理框架,分解复杂任务,实现深度研究SOTA。
- ODS (Open Deep Search):分离推理、搜索和计算,实现搜索基准SOTA。
- Dobby:开源模型,使用200万+用户反馈微调,实现人性化语气。
- opencode:开源终端AI,支持75+模型、GitHub工作流和多会话。 来源:GitHub
- WebSailor-V2:开源网页代理(30B MoE),通过合成数据和RL超越专有代理。