人工智能软件ChatGPT近期持续火爆,一方面是由于它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,这受到了学术界、资本界的青睐。但另一方面,近期关于ChatGPT的负面消息也越来越多:很多时候在它十分严谨的表述下,其内容却完全虚假,这引发了很多笑话,甚至导致学术圈对它开始警惕和抗拒。今天我们就来看看,ChatGPT在“造假”方面有哪些表现。
▲用ChatGPT写假新闻的业主道歉。
编写假新闻真假难辨
(资料图片)
居民信以为真到处转发
2月16日,一则“浙江省杭州市政府3月1号取消机动车依尾号限行”的“新闻稿”在网上疯传。17日杭州警方证实,该消息不实,警方已介入调查。
据媒体报道,16日下午,杭州某小区业主群讨论ChatGPT,一位业主开玩笑说尝试用它写篇杭州取消限行的新闻稿,随后在群里直播了使用ChatGPT的写作过程,还把文章发在群里。这篇“假新闻”行文严谨、语气措辞得当,也基本符合官方通报的格式,其他业主不明就里,随后截图转发,导致错误信息大规模传播。
涉事业主后来在微信群里道了歉,称不实信息的截图,误导了大家。“在社会上造成不良影响,给政府工作带来不便,我深表歉意”。
编造医学论文摘要
百分百通过剽窃检查
2022年12月27日,美国西北大学的Catherine Gao等人在预印本bioRxiv上发表了一篇研究论文。
在这篇发表于预印本论文中,Catherine Gao领导的研究团队使用ChatGPT来生成研究论文摘要,以测试科学家是否能发现它们。
研究团队要求ChatGPT根据发表在JAMA、NEJM、BMJ、Lancet和Nature Medicine这5个顶级医学期刊上精选的论文来撰写50篇医学研究摘要。然后,研究团队通过论文剽窃检测器和人工智能输出检测器将这些摘要与原始摘要进行比较,并要求一组医学研究人员找出哪些是ChatGPT所编造的摘要。
结果令人惊讶,ChatGPT所编写的摘要顺利通过了论文剽窃检查,原创性得分为100%,也就是没有检测到抄袭。人工智能输出检测器发现了33篇(识别率66%)由ChatGPT所编造的摘要,而人类审稿人只正确识别了34篇(识别率68%)由ChatGPT所编造的摘要和86%的真正的论文摘要。这意味着,ChatGPT在编造研究论文摘要方面,达到了人类专家都难辨真假的程度。
▲ChatGPT称鲁迅和周树人不是一个人。
文献有作者有期刊页码
仔细一查全是假的
据《纽约时报》报道,近日美国北密歇根大学(Northern Michigan University)哲学教授安东尼·奥曼(Antony Aumann)在为世界宗教课程批改论文时,读到了他看到的“全班最好的论文” 。该论文有干净的段落、恰当的例子和严谨的论点。但随后在奥曼的质问下,这位学生承认使用了ChatGPT.这一发现让奥曼感到震惊。
让软件代笔不是最让人感到恐惧的,最让人害怕的是,ChatGPT会写出了一些不存在的论文让查询者使用。今年1月,一位中国网友因为导师要与他讨论ChatGPT的话题,于是让ChatGPT写几篇论文看看。结果,ChatGPT“编造了三篇论文,标题作者概要啥都有,看上去跟真的似的”。最后,ChatGPT承认了这几篇论文都是假的。
今年2月,另一名网友想通过ChatGPT查询文献资料,也遭遇假论文。他发微博表示:“我想要查的研究方向都有文献证据,提到具体文献给我编提供不了DOI但有作者和期刊页码信息,一查好家伙全是假的。”
▲ChatGPT做小学数学题,却写出极其复杂的计算过程。
编造假媒体假记者
连假的舆论监督报道都有
ChatGPT的造假行为有时候还会十分“严谨”,不仅会虚构一个人物,还会连同这个人物的生平、经历、工作单位全部编造出来,让不知真假的人难以防范。
请看以下文字:艾米丽·帕克是个受人尊敬的记者和编辑,拥有超过15年的行业经验。她于2018年加入总部位于美国佛罗里达州的《圣彼得哨兵报》,担任管理编辑,并在2020年迅速晋升为总编。在她的领导下,《圣彼得哨兵报》靠着深度报道和调查性新闻在新闻界获誉无数。帕克本人也因其致力于准确和公正的报道和承诺为社区发声而为人知晓。
不明就里的人根本不会知道,上面这一大段人物简介全是假的。据媒体报道,今年1月27日,美国传媒教育机构波因特学院旗下媒介素养项目“媒体智慧”(MediaWise)的负责人马哈德万就做了一个“测试”:他在不到10分钟的时间内,用ChatGPT“制造了”一份虚构的报纸、四个并不存在的编辑部人员、一份报刊简介,甚至还有相应的编辑部标准、更正政策和一篇虚假的指控当地政府腐败的文章。“艾米丽·帕克”就是ChatGPT虚构的四个记者之一。
▲喊ChatGPT背诗,它却自己写了一首。
网友要求背诵《观沧海》
ChatGPT自己写了一首
很多人以为ChatGPT仅是在查询文献时才出现造假行为,其实并不是。即使在处理很简单的问题时,ChatGPT都可能出现“一本正经胡说八道”的情况。ChatGPT对于一些文化常识问题、数学计算题不是太擅长,而且它的回答往往是大段长段,过于冗长。在需要查询资料时,非专业人士可能无法分辨ChatGPT答案的准确性,极有可能会被严重误导,特别是青少年学生。
例如,有网友曝光了一次与ChatGPT的问答。问:韩国的历史有多长?答:韩国的历史可以追溯到公元前2333年。当时由韩国的传奇开国者丹官建立了第一个王国。
有网友让ChatGPT背一下大家熟知的《观沧海》这首诗,谁知道它并没有回答曹操的那首著名的诗,而是自己即兴创作了一首。
也有人让ChatGPT做一道小学数学题,它却写出了一长串极其复杂的计算过程,而最后给出的却是错误答案。
还有网友询问:鲁迅和周树人是不是一个人,也得到了让人啼笑皆非的答案。
虚假信息难以完全消除
学术界严格限制使用
ChatGPT是由埃隆·马斯克等人创立的人工智能研究实验室OpenAI在2022年11月30日发布的全新人工智能技术驱动的自然语言处理工具。就在网民们畅想它会给信息检索、文学创作、文书写作和测试领域带来的各种可能性时,虚假信息的研究者们已经发出严厉的警告。美国新闻可信度评估机构的联合执行官格洛维茨称:“ChatGPT可能成为互联网有史以来最强大的传播虚假信息的工具。”
OpenAI首席技术官米拉?穆拉蒂曾在接受美国《时代》杂志采访时表示,ChatGPT可能会“编造事实”。穆拉蒂还在采访中强调,像ChatGPT这样的人工智能工具“可能被滥用,也可能被坏人使用”,引发了关于如何在全球范围内对其进行监管的问题。
据悉,一些美国的大学教授表示,他们计划使用检测软件来根除AI作弊,国外剽窃检测服务机构Turnitin表示,今年将纳入更多识别人工智能(包括ChatGPT)的功能。另外,来自哈佛大学、耶鲁大学、罗德岛大学和其他大学的6000多名教师也注册使用GPTZero(ChatGPT辨认应用),该程序也有望快速检测AI生成的文本。
华中科技大学法学院副教授滕锐在接受中青报记者采访时表示,ChatGPT是大量不同的数据集群训练出来的语言模型,目前其背后仍是“黑盒”结构,即无法确切对其内在的算法逻辑进行分解,所以不能确保使用ChatGPT过程中,其所输出的内容不会产生攻击伤害用户的表述。
据中新网报道,近期《暨南学报(哲学社会科学版)》发布关于使用人工智能写作工具的说明。说明提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。
此外,《天津师范大学学报(基础教育版)》也发布相关声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。
(文章来源:上游新闻)