北航、人大和九坤投资共同撰写的论文 《Scaling Laws for Code: Every Programming Language Matters》 整理而成。 在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。
在代码大模型(Code ...
科技行者 on MSN
北航团队首次揭秘多语言编程的奥秘:为什么Python比Rust更“饿”数据?
这项由北京航空航天大学的杨健、国鑫、林静等研究者联合优矿公司和中国人民大学人工智能学院团队完成的突破性研究,发表于2025年12月的arXiv预印本(论文编号:2512.13472v1),是全球首次系统性探索多语言编程训练规律的重要成果。
TRAE公布2025年度产品“成绩单”:600万注册用户、6000万个会话和5亿条 Query,代码,工作流,query,企业版 ...
2025 年, TRAE 用户总共发起了近 6000 万个会话,发送了近 5 亿条 Query,与 AI 进行了深入的创新和协作。TRAE 用户平均周均活跃天数近 5 天 ,相当于“工作日全勤”;其中,国际版付费用户的周均活跃天数超过 6 ...
昨天,MiniMax M2.1 发布。前脚 MiniMax 刚传出通过港交所聆讯的消息,后脚就直接发布了新一代模型 —— M2.1。巧的是 GLM-4.7 ...
TRAE 的代码补全功能 Cue 今年实现关键技术性突破,在代码续写及预测跳转、跨文件代码预测及跳转等方面的探索处于行业头部。超过 50% 的用户每天主动使用 Cue 功能进行代码编辑,智能代码补全与建议已成为高频刚需。自上线以来,Cue 累计推荐近 ...
这一次,它直接甩出了一份硬核成绩单,在衡量多语言软件工程能力的Multi-SWE-bench榜单中,以仅10B的激活参数拿下了49.4%的成绩,超越了Claude Sonnet 4.5等国际顶尖竞品,拿下全球SOTA。
如今,张宏波也在用一门重新编撰的语言,用全新的方式,向AI表达“你好”,这门语言叫做——Moonbit。他现在是粤港澳大湾区数字经济研究院(后简称:IDEA)基础软件中心首席科学家。
scons ( 2.3.0 ) ant ( 1.8.2 ) Python ( 2.7.3 ) PostgreSQL ( 9.3.4 ) Linux x86-64: g++ ( 4.3.4 ) gcc ( 4.3.4 ) make ( 3.81 ) kernel ( 3.0.13-0.27-default ) Linux PPC64: g++ ( 4.3.4 ) gcc ( 4.3.4 ) make ...
这两天,中国 AI 行业关注的核心无疑是 MiniMax。 12 月 21 日,MiniMax(稀宇科技)正式向港交所递交招股书,披露的一连串数字瞬间引爆了舆论场:账上坐拥超 10 亿美元的现金储备,2025 年前九个月营收同比激增 174.7%,而在保持高强度研发的同时,经调整净亏损控制在 1.86 亿美元。 资本市场的喧嚣还没结束,23 日,MiniMax 又反手甩出了一张技术牌:正式上线 M ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果