关闭广告

刚刚,ACL首届博士论文奖揭晓!半个顶会都是中国人,超51%占比史无前例

新智元2025-07-29 12:00:016056人阅读


新智元报道

编辑:桃子 好困

【新智元导读】ACL首届博士论文奖公布了,UC伯克利助理教授Sewon Min摘桂冠!开幕式上,组委会公开了今年参会背景,提交论文的中国作者占全世界一半。ACL,如今成了中国的顶会?

ACL 2025在维也纳开幕了!

今年的ACL,可谓是座无虚席,盛况空前。开幕式上,组委会公布了今年参会的具体情况。


值得一提的是,论文里的中国作者已经占据了半壁江山,比例超过51%。

其中,第一作者有高达51.3%来自大陆,排在第二的美国仅为14%。



ACL今年整体情况如下(主会议部分):

• 1,700篇主会论文,1,400篇Findings论文,108篇产业论文

• 17篇CL(Computational Linguistics)论文,40篇TACL(Transactions of ACL)论文

• 2场主旨演讲,1场专家小组讨论


此外,顶会附属活动还包括:28场workshop(投稿超800篇),8场教程(tutorial),64演示(demo),104篇学生研究工作(SRW)论文。

同在今天,首届ACL「计算语言学博士论文奖」正式公布了。

来自UC伯克利EECS助理教授Sewon Min,因论文Rethinking Data Use in Large Language Models斩获大奖。


7月初,她曾获得了ACM博士论文奖荣誉提名

ACL成了中国顶会?

作为NLP领域A类顶会之一,ACL每年汇聚了世界各地学者,今年是第63届年会。

回看过去十年,ACL总论文提交量增长了10倍,过去5年增长了4倍。

今年,顶会共提交了8360(8350)篇论文,其中主会录用率为20.3%,共有1699篇论文。Findings录用率为16.7%,共有1392篇论文。


相较于去年,论文总提交数量上涨了70%,审稿人共有5903人,上涨了38%。

更有趣的是,ACL桌拒比率比24年飙升160%。


从提交论文研究的领域来看,NLP应用(13.1%)位列第一,资源和评估占比12.4%,还有多模态和语言Grounding、语言建模等领域,成为了研究重点。


其他一些数据统计:

  • 67%的论文标题和摘要中有「LLM」一词,其中9%提及了GPT,8%提及了Llama,还有2%论文提及了DeepSeek、BERT、Gemini/Gemma。

  • 50位作者提交了超过10篇论文,23%的作者提交了超2篇论文。

  • 250篇论文有超10位作者,仅一位作者论文有20篇。

  • 65%的论文标题里都有「:」!


目前,ACL最佳论文奖暂未公布,今年首次公布了「计算语言学博士论文奖」。

ACL首届博士论文奖

这篇获奖论文Rethinking Data Use in Large Language Models,于2024年发表,全文长达157页,是华盛顿大学Sewon Min的博士毕业论文。

ACL组委会点评,这篇论文为大模型的行为和能力提供了关键见解,特别是在上下文学习方面。

其研究结果,对当今NLP的核心产生了影响。


论文地址:https://www.sewonmin.com/assets/Sewon_Min_Thesis.pdf

总的来说,这篇研究核心,重点围绕LLM如何利用训练时使用的的大量文本语料库。

首先,作者揭示了这些模型在训练后学习新任务的内在机制——其所谓的上下文学习能力几乎完全取决于从训练数据中获取的知识。

接着,她又提出了一类新型非参数化语言模型。

它们将训练数据重新定位为可检索的信息数据库,从而显著提升准确性与可更新性。

在此过程中,作者还开发首批广泛应用的神经检索模型之一,以及将传统两阶段流程简化为单阶段的创新方法。

研究表明,非参数化模型为负责任的数据使用开辟了新途径。比如,通过对授权文本与受版权内容的分类差异化处理。

最后,Sewon Min对下一代语言模型的发展方向作出展望,强调高效Scaling、事实性增强、去中心化架构这三大核心目标。


7月初,她的这篇论文,还获得了ACM博士论文荣誉提名。在接受ACM采访中,她首次畅谈了选择LLM领域原因,以及对当前AI领域的一些看法。

以下内容,为采访部分截取:

Q:你是如何决定将LLM作为研究方向的?

NLP领域的研究者长期致力于构建「通用模型」——无需针对特定任务训练就能处理多种任务。

当大语言模型出现时,其技术路径是通过海量数据的自监督训练来构建巨型模型,从而消除对人类监督的依赖。

这似乎为实现该目标指明了一条道路。

这个理念简单得令人沮丧,却揭示了诸多关键要素:数据质量与规模的核心作用、对人类先验知识的最小化依赖、以及消除人工标注环节。以上是官方回答。

老实说,这个领域听起来就令人兴奋,而且研究过程充满乐趣。如今该领域能产生如此广泛而深远的影响,我感到非常幸运。

Q:你在近期演讲中提到,当前LLM生成人物传记时,事实错误率高达42%。为何会出现这种情况?

我认为这与当前LLM基于记忆训练数据的底层机制有关。

对于知名人士,模型能生成准确传记,因为相关高频出现于训练数据中;但对于曝光不足的对象,模型往往无法准确回忆,转而生成看似合理实则错误的文本(即幻觉现象)。

这反映了此类模型数据学习机制的核心局限。

Q:你在「非参数化」大语言模型领域取得突破性成果。能否举例说明非参数化大语言模型与标准大语言模型在生成响应时的区别?

标准大语言模型常虚构事实。例如,当我询问无法联网的ChatGPT「首尔有哪些米其林三星餐厅」时,它错误列举了二星餐厅Gaon和已歇业的La Yeon,甚至编造营业时间——这反映出记忆知识的过时与缺失。

而非参数化大语言模型会从实时更新的数据存储中检索文档(如2025年提到首尔唯一三星餐厅Mingles的文章),并基于这些文档给出正确答案。

作者介绍


Sewon Min是加州大学伯克利分校电子工程与计算机科学系的助理教授,同时也是艾伦人工智能研究所的研究科学家,并隶属于伯克利人工智能研究实验室和伯克利自然语言处理研究组。

她的研究方向是自然语言处理和机器学习,特别是在大语言模型领域——致力于深入理解并推动模型的发展,重点研究如何利用海量的文本语料库。


此前,她在华盛顿大学获得计算机科学与工程博士学位,在首尔大学获得计算机科学与工程学士学位。曾担任Meta FAIR的兼职访问研究员,并先后在谷歌研究院和Salesforce研究院实习。


参考资料:

https://x.com/aclmeeting/status/1949836573144445424 https://www.acm.org/articles/people-of-acm/2025/sewon-min


版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

宫鲁鸣:亚洲杯是小考算及格 王思雨直言心有不甘杨力维表达遗憾

醉卧浮生 浏览 3599 07-21

供货亚马逊、谷歌等巨头,泰凌微上半年归母净利同比预增267%,“连接+算力”双轮驱动

时代周报 浏览 4047 07-26

美团王莆中:将保证美团骑手收入永远在蓝领第一梯队

网易科技报道 浏览 7656 07-18

外媒记者:俄乌代表、巴以代表都在中国上桌聊

北京日报客户端-长安街知事 浏览 1 09-19

被那英笑拥了,《花少7》如此和谐融洽,她功不可没

娱乐圈笔娱君 浏览 2372 08-19

奥乐齐双店同开,“重资产”降维打击

商业观察家 浏览 6815 07-20

票房从13.12亿跌到67.8万,我五味杂陈:港片这块金字招牌算砸了

靠谱电影君 浏览 2 09-21

山东舰航母编队香港开放活动已吸引近两万人次参观

环球网资讯 浏览 1239 07-07

美股创新高,全靠AI续命?

国际金融报 浏览 7879 07-27

E句话|X玖少年团宣布解散

仙女事件簿 浏览 9079 07-20

特斯拉无人出租开始接客!30块钱一次

车东西 浏览 8473 06-24

闫冬|脑机信息隐私属性泛化之反思与规制

上观新闻 浏览 6142 08-13

二手充电宝6元收40元卖,谁在给电子垃圾开绿灯?丨中听

大象新闻 浏览 1493 08-18

男篮已回北京!总结两天后前往杭州备战热身赛,曾凡博将归队报到

篮球资讯达人 浏览 1050 07-18

许凯赵晴聊天记录疑曝光,赵晴曾劈腿与许凯交往

小咪侃娱圈 浏览 2 08-24

内推前任成了最时髦的恋爱运动

虎嗅APP 浏览 6171 07-27

网管中心主任白喜林:中国网球人才选拔将聚焦红土赛场

懂球帝 浏览 4610 07-22

"菌中之王"最贵曾卖到1公斤1800元 有人1次挖三四十斤

环球网资讯 浏览 6115 07-20

“敢投绝杀球的怎么能叫失败者” !胡明轩距离封神就差了一点点

直播吧 浏览 2389 08-19

还在磨合纽卡夏窗花近2.8亿欧,英超开局仅1胜3平1负排第13

直播吧 浏览 0 09-22

王曼昱4-2战胜桥本帆乃香, 国乒包揽欧洲大满贯女单四强

懂球帝 浏览 0 08-23
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除沪ICP备2023013132号-2