AI写的论文首次被顶会ACL录用,评分位列投稿前8.2%
AI写的论文首次被顶会ACL录用,评分位列投稿前8.2%
AI写的论文首次被顶会ACL录用,评分位列投稿前8.2%大模型的(de)发展落地日新月异,就在(zài)年初,业界还在担心AI生产的学术垃圾充斥论文库,年中,AI生成的论文已经可以被顶会认可了。
5月29日,海外初创公司Intology 宣布,他们的(de)(de)“AI科学家”Zochi的论文被(bèi)顶会ACL主会议录用,成为首个(shǒugè)独立通过 A* 级别科学会议同行评审的AI,同时宣布开放Zochi的Beta 测试。
这一发布的(de)含金量在于,ACL是自然语言处理领域全球排名第一的顶会(dǐnghuì),其主(qízhǔ)会议平均录用率通常低于20%,论文需具备突破性创新。据悉,Zochi的论文获得评审最终评分(píngfēn)4分,在所有投稿论文中排名前8.2%。
Intology是(shì)一家较为陌生的(de)(de)初创公司,从目前官网和博客的信息梳理来看,这家公司是在2025年初新成立的,定位是一个研究智能科学的实验室,两名联创分别是连续创业者Ron Arel和前Meta华人研究员Andy Zhou,两人均毕业(bìyè)于伊利诺伊大学厄巴纳-香槟分校(fēnxiào)(UIUC)。
Intology成立后,此前3月团队就推出了(le)智能体Zochi,称其为AI科学家,并宣布其研究成果已被(bèi)ICLR 2025研讨会(yántǎohuì)接收。不过,此前的这一研讨会的论文接收率在(zài)60%-70%,要求比顶会的主会低(dī)了不少,官方认为,此次更进一步的顶会突破标志(biāozhì)着AI达到博士级科研水平,人类博士通常需数年才能在此类会议发表。
具体看此次AI科学家(kēxuéjiā)Zochi“写”的论文,主题是关于大模型(móxíng)安全的,名为《Tempest: Automatic Multi-Turn Jailbreaking of Large Language Models with Tree Search》,直译过来是《Tempest:基于树搜索的大模型自主多轮越狱(yuèyù)》,简单(jiǎndān)来说,Zochi利用了一种“树搜索”技术(jìshù),来探索(tànsuǒ)多种对话路径,逐步突破大模型的安全防线(fángxiàn)。
研究提出的(de)Tempest框架,能通过多轮对话逐步瓦解模型的安全防线(fángxiàn),绕过安全检测(jiǎncè),通过小让步的累积完成违规的内容输出。例如,直接(zhíjiē)让模型回答敏感信息“制作炸弹”,基于(jīyú)安全机制模型会直接拒绝,但通过多轮委婉地引导提问,最终却可以让模型回答出正确的信息。
评估结果显示,Tempest在OpenAI的旧模型GPT-3.5-turbo上的成功率(chénggōnglǜ)为100%,在GPT-4上的成功率为97%。这一(zhèyī)研究主要是(shì)揭示了多轮(duōlún)对话攻击的漏洞,可以为设计更佳的AI安全防御提供参考。
值得一提的(de)是,论文的署名是两位联创,但官方博客表示,除论文格式调整与绘图外,内容全程无人工参与,“我们对这项工作负责,但主要(zhǔyào)的智力贡献(gòngxiàn)是由AI系统完成的” 。
据官方介绍,人类仅输入研究领域,Zochi就可以(yǐ)独立完成后续全流程。Zochi 首先会采集并分析数千篇(shùqiānpiān)研究论文,以确定特定领域内有潜力的(de)研究方向(fāngxiàng)。其检索系统能够识别文献中(zhōng)的关键贡献、方法论、局限性以及新兴模式,识别论文之间不(bù)明显的联系,并提出创新的解决方案。从提出假设到完成实验,就像一个真正的科学家。
AI科学家并非个例,除了Intology外,Transformer作者Llion Jones去年创立的Sakana AI,也推出了一个(yígè)基于AI的科研系统“AI Scientist”,论文(lùnwén)也已被ICLR 2025研讨会(yántǎohuì)接收,分数为(wèi)6/7/6。
AI for Science(AI4Science)一直是(shì)AI行业最前沿的(de)(de)落地领域之一,人工智能可以极大地促进科学的进步,提高科学家的效率、准确性和创造力。不过,新(xīn)事物的出现也伴随着合理性和规则适配的争议。
此前3月Intology 推出Zochi、宣布论文被会议接收时,就被不少(bùshǎo)学术界人士批评,认为这是对科学同行评审过程的(de)滥用,在提交论文前,团队并未(wèi)知会相关方是AI生成的论文,也未获得(huòdé)同行评审者的同意。
在此次博客最后(zuìhòu),官方提到了AI带来的学术伦理问题,认为AI驱动的研究给科学问责(wènzé)和可重复性带来了挑战。但他们认为,虽然 Zochi 自主运营,但人类研究员(yánjiūyuán)仍然是作者,并(bìng)负责验证方法、解释(jiěshì)结果并确保符合伦理规范。对于论文,人类作者进行多轮内部审查,并在提交前仔细核实了所有结果和代码。
“我们鼓励在(zài)致谢中列出(lièchū)AI系统,而不是将其列为(lièwèi)作者。虽然AI驱动的研究提出了关于归属、透明度和问责制的重要问题,但我们认为,智力贡献应该(yīnggāi)以实质内容而非来源来评判。”Intology官方表示,他们的主要关注点是通过AI工具协助人类研究者。
(本文来自第一财经(cáijīng))
大模型的(de)发展落地日新月异,就在(zài)年初,业界还在担心AI生产的学术垃圾充斥论文库,年中,AI生成的论文已经可以被顶会认可了。
5月29日,海外初创公司Intology 宣布,他们的(de)(de)“AI科学家”Zochi的论文被(bèi)顶会ACL主会议录用,成为首个(shǒugè)独立通过 A* 级别科学会议同行评审的AI,同时宣布开放Zochi的Beta 测试。
这一发布的(de)含金量在于,ACL是自然语言处理领域全球排名第一的顶会(dǐnghuì),其主(qízhǔ)会议平均录用率通常低于20%,论文需具备突破性创新。据悉,Zochi的论文获得评审最终评分(píngfēn)4分,在所有投稿论文中排名前8.2%。
Intology是(shì)一家较为陌生的(de)(de)初创公司,从目前官网和博客的信息梳理来看,这家公司是在2025年初新成立的,定位是一个研究智能科学的实验室,两名联创分别是连续创业者Ron Arel和前Meta华人研究员Andy Zhou,两人均毕业(bìyè)于伊利诺伊大学厄巴纳-香槟分校(fēnxiào)(UIUC)。
Intology成立后,此前3月团队就推出了(le)智能体Zochi,称其为AI科学家,并宣布其研究成果已被(bèi)ICLR 2025研讨会(yántǎohuì)接收。不过,此前的这一研讨会的论文接收率在(zài)60%-70%,要求比顶会的主会低(dī)了不少,官方认为,此次更进一步的顶会突破标志(biāozhì)着AI达到博士级科研水平,人类博士通常需数年才能在此类会议发表。
具体看此次AI科学家(kēxuéjiā)Zochi“写”的论文,主题是关于大模型(móxíng)安全的,名为《Tempest: Automatic Multi-Turn Jailbreaking of Large Language Models with Tree Search》,直译过来是《Tempest:基于树搜索的大模型自主多轮越狱(yuèyù)》,简单(jiǎndān)来说,Zochi利用了一种“树搜索”技术(jìshù),来探索(tànsuǒ)多种对话路径,逐步突破大模型的安全防线(fángxiàn)。
研究提出的(de)Tempest框架,能通过多轮对话逐步瓦解模型的安全防线(fángxiàn),绕过安全检测(jiǎncè),通过小让步的累积完成违规的内容输出。例如,直接(zhíjiē)让模型回答敏感信息“制作炸弹”,基于(jīyú)安全机制模型会直接拒绝,但通过多轮委婉地引导提问,最终却可以让模型回答出正确的信息。
评估结果显示,Tempest在OpenAI的旧模型GPT-3.5-turbo上的成功率(chénggōnglǜ)为100%,在GPT-4上的成功率为97%。这一(zhèyī)研究主要是(shì)揭示了多轮(duōlún)对话攻击的漏洞,可以为设计更佳的AI安全防御提供参考。
值得一提的(de)是,论文的署名是两位联创,但官方博客表示,除论文格式调整与绘图外,内容全程无人工参与,“我们对这项工作负责,但主要(zhǔyào)的智力贡献(gòngxiàn)是由AI系统完成的” 。
据官方介绍,人类仅输入研究领域,Zochi就可以(yǐ)独立完成后续全流程。Zochi 首先会采集并分析数千篇(shùqiānpiān)研究论文,以确定特定领域内有潜力的(de)研究方向(fāngxiàng)。其检索系统能够识别文献中(zhōng)的关键贡献、方法论、局限性以及新兴模式,识别论文之间不(bù)明显的联系,并提出创新的解决方案。从提出假设到完成实验,就像一个真正的科学家。
AI科学家并非个例,除了Intology外,Transformer作者Llion Jones去年创立的Sakana AI,也推出了一个(yígè)基于AI的科研系统“AI Scientist”,论文(lùnwén)也已被ICLR 2025研讨会(yántǎohuì)接收,分数为(wèi)6/7/6。
AI for Science(AI4Science)一直是(shì)AI行业最前沿的(de)(de)落地领域之一,人工智能可以极大地促进科学的进步,提高科学家的效率、准确性和创造力。不过,新(xīn)事物的出现也伴随着合理性和规则适配的争议。
此前3月Intology 推出Zochi、宣布论文被会议接收时,就被不少(bùshǎo)学术界人士批评,认为这是对科学同行评审过程的(de)滥用,在提交论文前,团队并未(wèi)知会相关方是AI生成的论文,也未获得(huòdé)同行评审者的同意。
在此次博客最后(zuìhòu),官方提到了AI带来的学术伦理问题,认为AI驱动的研究给科学问责(wènzé)和可重复性带来了挑战。但他们认为,虽然 Zochi 自主运营,但人类研究员(yánjiūyuán)仍然是作者,并(bìng)负责验证方法、解释(jiěshì)结果并确保符合伦理规范。对于论文,人类作者进行多轮内部审查,并在提交前仔细核实了所有结果和代码。
“我们鼓励在(zài)致谢中列出(lièchū)AI系统,而不是将其列为(lièwèi)作者。虽然AI驱动的研究提出了关于归属、透明度和问责制的重要问题,但我们认为,智力贡献应该(yīnggāi)以实质内容而非来源来评判。”Intology官方表示,他们的主要关注点是通过AI工具协助人类研究者。
(本文来自第一财经(cáijīng))



相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎