人工智能冒充人刷假新闻、灌水评论怎么办?让人工智能来鉴别-利来app苹果

发布日期: 2019-07-31 14:30 

人工智能现在的写作能力虽然还不至于写出世界名著,但足以掩藏住机器的痕迹,混淆普通人的视线。最重要的是,ai可以批量生产文本,炮制假新闻、快速刷评论。该如何揪出冒充人类的ai呢?哈佛大学和麻省理工学院- ibm沃森人工智能实验室(mit-ibm watson ai lab)的研究人员想到了用ai识别ai


他们开发了一种叫做“巨型语言模型测试器”(gltr)的新工具,用于识别人工智能生成的文本。其辨别原理基于:人工智能是利用文本中的统计模式来自动生成文本的,而不考虑单词和句子的实际含义。也就是说,如果一篇文章中的用词都是可预测的,该文章就极可能是由人工智能写的,而gltr可以标注出文章用词是否可预测。


开发最厚的盾,就要用最强的矛来测试。前一阵子,埃隆·马斯克参与创立的ai研究机构openai推出了一种算法,可以自动生成真实度极高的段落。只要在该算法的“学习模式”中输入海量数据,该算法就可以统计词频,组合高频词,生成新的段落。而哈佛大学的团队正是用open ai公开发布的代码为基础,发明了gltr


gltr可以根据词频,标明最可能出现的单词搭配。最易预测的单词是绿色的,较难预测的是黄色和红色的,最难预测的是紫色的。当对open ai编写的算法所生成的文字进行测试后,发现大部分单词都可预测;而人类写出的新闻和科学摘要文字搭配更多样。


那么,什么样的用词才是ai无法模仿的“人来之笔”呢?澎湃新闻记者将《哈姆雷特》中脍炙人口的段落放进该工具中检索。

 

《哈姆雷特》选段,右为中文译文


可以看到,莎翁的手笔确实不是ai能轻易揣摩的,短短的片段中就出现了20多处标紫。第一处标紫的“暴虐”虽非多么生僻的词汇,但用来修饰“命运”却并不常见。在ai眼中,这种搭配犹能体现出“人性之光”。


gltr的研究人员让哈佛的学生分别在不使用gltr、和使用gltr的时候,判断文本是否是人工智能生成的。实验结果表明,在不使用gltr时,学生们只能识别出一半的虚假文本;而看到gltr所做的标注后,他们可以识别出72%的虚假文本。sebastian gehrmanns是一位参与gltr发明的博士生,他表明:“我们的目标是建立一个人类和人工智能协作的体系。”


《麻省理工科技评论》对此评价道,现在自动生成的假消息越来越多,这种ai工具或许能有效打击机器制造的假新闻、假视频和灌水评论。

来源:澎湃新闻     编辑:valkrja

查看更多新闻

地址:安徽省合肥市高新区中安创谷科技园a4栋5层