在开源模型平台Hugging Face上,陈丹琦也成为了Thinking Machines Lab团队的成员之一。今年7月,刚刚成立5个月的Thinking Machines Lab完成了20亿美元(约合人民币143.46亿元)的全球史上最大种子轮融资,投后估值达120亿美元(约合人民币857.87亿元)。这家创企阵容豪华,多位成员曾在OpenAI担任要职,如OpenAI联合创始人、前后训练团队负责人John Schulman,以及前GPT-4o-mini团队负责人Kevin Lu等。陈丹琦于2008年保送进入清华大学计算机科学实验班(姚班),2012年获计算机科学学士学位,随后赴美国斯坦福大学攻读博士,2018年获计算机科学博士学位,导师为原斯坦福大学AI实验室主任、NLP领域的领先专家Christopher Manning。陈丹琦曾两次获得计算语言学领域顶会ACL的优秀论文奖,也曾获得谷歌、亚马逊、Meta、Adobe等机构给学者颁发的奖项。2016年,陈丹琦作为第一作者,凭借论文“A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task(《对CNN/每日邮报阅读理解任务的全面评估》)”获得ACL的优秀论文奖。这篇论文帮助学界认识到,数据集本身的缺陷回影响模型评估的可信度,是理解早期机器阅读理解研究局限性的里程碑式论文。
▲陈丹琦作为第一作者的ACL 2016优秀论文
论文链接:https://arxiv.org/abs/1606.028582022年,由她指导并署名的论文“Ditch the Gold Standard: Re-evaluating Conversational Question Answering(《抛弃黄金标准:对话式问答的再评估》)”再次获得ACL优秀论文奖,这一论文的第一作者为Huihan Li。
▲陈丹琦参与指导的ACL 2022优秀论文
论文链接:https://arxiv.org/abs/2112.08812这篇论文提出应当重新审视评估标准,强调在对话问答场景中,单一“标准答案”不足以衡量模型真实的理解与对话能力。研究提供了更合理的评估方法,反映模型在多样性、语境理解与对话适应性方面的表现。在斯坦福大学期间,陈丹琦在句法解析、知识库构建、问答和对话系统等领域做出了贡献。她2014年发表的论文“A Fast and Accurate Dependency Parser Using Neural Networks(《一种快速且准确的基于神经网络的依存句法分析》)”是第一个成功的神经网络依存句法分析模型,用于分析句子的语法结构。该工作为谷歌NLP团队后续解析器的研究奠定了基础。陈丹琦2017年发表的论文“Reading Wikipedia to Answer Open-Domain Questions(《通过阅读维基百科回答开放域问题》)” 开启了将信息检索与神经阅读理解方法结合起来,进行开放域问答研究的方向。2018年,陈丹琦完成了题为“Neural Reading Comprehension and Beyond(《神经阅读理解及其拓展》)”的博士论文,长达156页。该论文重点研究阅读理解和问答任务,在斯坦福大学正式公开后,迅速成为近十年来最受欢迎的博士论文之一。后来,它被中国的NLP研究者翻译成中文,是该领域许多人必读的著作。