首页 >  新闻中心 > 行业新闻

Share - WeChat

  参考消息网8月24日报道据 日本《产经新闻》8月11日报道,日本目白大学心理学系副教授财津亘的研究显示,能够利用犯罪调查活动使用的统计学方法,准确区分聊天生成预训练转换器(ChatGPT)——一款生成式AI——撰写的日文文章和人类撰写的文章。这一发现已被刊登在美国《科学公共图书馆·综合》杂志网站上。

  由于ChatGPT能够用日文生成流畅的文章,外界高度担忧其会在学术论文和网络发言等方面被滥用。关于如何识别AI生成的英文文章的论文已经出现,但有关日文文章的论文还是首次出现。

  研究人员利用“计量文体学”理论,将文章按照词性进行分解,对助词、逗号的用法等特征进行统计分析。研究人员要求ChatGPT“以相同的标题和工作量撰写论文”,对生成的72篇心理学相关日文论文进行了比较。

  结果显示,从相邻词性的组合、助词用法、逗号用法、“又”“这个”等没有独立含义的词语的占比等4个指标来看,ChatGPT和人类写出的文章在统计学上存在明显差异。

  让AI学习这种差异,然后根据逗号用法来识别论文撰写者,准确率达到93.5%。如果综合以上4个指标进行识别,则准确率可以达到100%。

  财津副教授曾经担任富山县警科学搜查研究所首席研究员,从事过恐吓信、诽谤信等的鉴识工作。他说:“ChatGPT生成的文章尽管自然流畅,但通过寻找那些人类乍一看无法发现的‘文章指纹’,目前仍能够基本准确地判断出撰写者是否为人类。”

  ChatGPT能够根据提问、请求、指示来生成类似人类作品的文章。虽然自这款软件发布起才过去不到一年时间,但用户已经遍及全球,在日本也受到现象级关注。人们期待ChatGPT在提高办公效率等诸多领域大显身手,但同时也开始对其可能导致虚假信息扩散和在论文、考试等领域被不当使用感到担忧,其被用于犯罪的风险也一再被提及。ChatGPT的确是一把双刃剑。

  ChatGPT由美国初创企业开放人工智能研究中心(OpenAI)于去年11月发布。普通用户只需完成用邮箱地址注册等简单手续即可免费使用。

  当用户提出问题或下达指令时,ChatGPT能够领会其意图并给出恰当回答。由于ChatGPT能够进行与人类之间交谈类似的自然对话,为了提高办公效率,很多地方政府开始将其引入日常工作。

  但是,随着AI的飞速发展,区分文章撰写者是人类还是AI已经变得愈发困难。今年1月,OpenAI发布了一款识别工具,但由于无法做到百分百准确,已经于7月下旬下架。

  ChatGPT这种能在短时间内生成海量文章的技术不仅诱发论文造假,还可能被用于进行撰写欺诈邮件等犯罪活动。

  一些大学已经限制学生在撰写论文和报告时使用生成式AI。今年4月,东京大学副校长太田邦史在网站上就生成式AI发表了见解。他说:“这可能是一次堪比渡过卢比孔河(公元前49年,凯撒破除将领不得带兵渡过卢比孔河的禁忌,率军占领罗马,集大权于一身,实行独裁统治——本网注)的事件。”在谈到无法逆转的社会变革产生的巨大冲击时,他提醒自己的学生:“不能只靠生成式AI写报告。”

2022年7月12日,世界互联网大会国际组织正式成立,从互联网领域的国际盛会发展为国际组织,总部设于中国北京。我们将致力于搭建全球互联网共商共建共享平台,推动国际社会顺应信息时代数字化、网络化、智能化趋势,共迎安全挑战,共谋发展福祉,携手构建网络空间命运共同体。