教授称因关闭ChatGPT数据授权,两年学术成果瞬间清零

财经 (3) 2026-01-25 22:08:04

  炒股就看,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:IT之家)

IT之家 1 月 25 日消息,如果要给房东写一封措辞强硬的邮件,反映天花板漏水的问题,需要找个帮手把关,那么 ChatGPT 或许是个不错的工具。但和所有同类竞品一样,ChatGPT 也存在诸多有据可查的缺陷:它不仅常常生成虚假信息,还自带一种谄媚讨好的语气,极易让用户陷入严重的认知误区。

换句话说,它绝非人们处理重要工作时可以依赖的工具,科隆大学植物科学教授马塞尔・布赫就吃了大亏,才明白了这个道理。

IT之家注意到,布赫在《自然》杂志的一篇专栏中坦言,自从关闭了 ChatGPT 的“数据授权”功能后,他两年来精心整理的学术成果,包括科研经费申请材料、论文修订稿、课程讲义和考试题目,全都“不翼而飞”了。

他当初关闭这项功能,是想验证“即便不向 OpenAI 提供个人数据,自己是否仍能使用该模型的全部功能”。可令他崩溃的是,所有聊天记录瞬间消失得无影无踪。

“没有任何预警提示,”布赫写道,“也没有撤销选项,只留下一片空白的页面。”

这篇专栏发布后,有网友质疑,布赫怎么能两年来都不做本地备份?也有人怒不可遏,呼吁校方解雇他,理由是他在学术工作中过度依赖人工智能。

不过,也有一些人对他表示同情。海德堡大学教学协调员罗兰・格罗姆斯在社交平台上发文称:“尽管马塞尔・布赫的工作流程漏洞百出,还犯了个愚蠢的错误,但他敢于公开这段经历,值得肯定。很多科研人员都觉得自己能识破所有陷阱,可事实上,每个人都可能因一时疏忽,遭遇这样的麻烦。”

布赫也率先承认,ChatGPT 生成的内容“看似言之凿凿,实则有时漏洞百出”。他强调自己从未“将模型的可靠性等同于内容的真实性”,但他“信赖平台工作区的连续性和表面稳定性”,每天都把 ChatGPT Plus 当作贴身助手使用。

生成式人工智能在科学界的应用,一直争议不断。据《月刊》报道,大量来源不明、由 AI 拼凑的劣质稿件正涌入各大科学期刊,让同行评审沦为一场“灾难”。更有甚者,一些专门发表 AI 垃圾稿件的虚假学术期刊应运而生,借机牟利。最终的结果就是:AI 生成的劣质内容,交由 AI 模型进行同行评审,这进一步加剧了对学术文献的污染。

与此同时,科研人员经常收到通知,被告知自己的研究成果在新论文中被引用,但点进去后却发现,相关引用内容纯属 AI 虚构。

需要明确的是,目前没有任何证据表明,布赫曾试图将 AI 生成的劣质内容塞给学生,或是发表不实的 AI 撰写研究成果。

尽管如此,他的这段惨痛经历,仍为所有人敲响了警钟。

布赫在专栏中指责 OpenAI:在未能提供“基础保护措施”以防止用户数年心血毁于一旦的情况下,就贸然推出 ChatGPT Plus 付费订阅服务。

OpenAI 在给《自然》杂志的一份声明中回应称,聊天记录一旦删除便“无法恢复”,并反驳了布赫“未收到任何提示”的说法,强调“用户在永久删除聊天记录前,系统会弹出确认窗口”。该公司还“贴心”建议:“用户在处理专业工作时,应做好个人数据备份。”

THE END