"\u003Cdiv\u003E\u003Cp\u003E美国一支研究团队研发了一个能检测和清除假新闻的程式。这意味着,要终结假新闻,是指日可待的。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F6e87b01a98b6411593252ac185f47d55\" img_width=\"634\" img_height=\"464\" alt=\"检测假新闻程序诞生,假新闻或将被终结\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E据英国《每日邮报》网站报道,这个名为\"巨人语言模型实验室\"(GLMTR)的程式是由哈佛大学和麻省理工学院的资讯工艺专家们联手设计,旨在对抗不真实的新闻。\u003C\u002Fp\u003E\u003Cp\u003E根据他们的研究结果,这程式已能将伪造文字的检测率从54%提高至72%。这也表示,假消息的时日可能已不多。\u003C\u002Fp\u003E\u003Cp\u003E此外,这程式也可协助辨识脸书和推特等社交媒体账号的虚假个人资料。\u003C\u002Fp\u003E\u003Cp\u003E这个GLMTR程式是根据电脑的预测性语言模式,针对电脑的运算法来运作。它假设,电脑自动生成的文字会顺序使用一些最有可能的词汇。\u003C\u002Fp\u003E\u003Cp\u003E而相比之下,人们书写时则经常会选择一些他人无法预测的字眼。虽然其句子的节奏可能令人出乎意料,但它依然是合理和完全相关的。\u003C\u002Fp\u003E\u003Cp\u003EGLMTR程式每次将会从一个60字的部分中寻找这样的格式,并突出最可预测的文字顺序,将其列为\"可疑文字\"。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F9b0e6d962b17403dbc5d278f22edf1d9\" img_width=\"634\" img_height=\"522\" alt=\"检测假新闻程序诞生,假新闻或将被终结\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E(GMTR会为电脑生成文字和人写的文字附上颜色代码区分。若大部分是绿色的文字,显示那是\"电脑\"写的)\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E程式也将为这些搜寻结果附上颜色代码,以方便使用。\u003C\u002Fp\u003E\u003Cp\u003E那些比较容易预测的字眼,即电脑生成字眼,将被附上绿色。而人们比较自然使用的文字则附上黄色、紫色及红色。\u003C\u002Fp\u003E\u003Cp\u003E因此,真实的文本应该有均衡的黄色、紫色和红色组合。反之,可疑的文字将会是大部分绿色,只有少许的黄色。\u003C\u002Fp\u003E\u003Cp\u003E虽然这GLMTR程式可找出虚假文字,但开发者认为,它明显并不完美。\u003C\u002Fp\u003E\u003Cp\u003E\"其主要限制是规模有限。它无法自动检测出大规模的欺骗,只有独立个案。\"\u003C\u002Fp\u003E\u003Cp\u003E\"此外,它也至少需要对语言有高层次的认识,以确定某个不常用的字眼在某个情况是否合理。\"\u003C\u002Fp\u003E\u003Cp\u003E无论如何,这些专家们预测,这程式将能抛砖引玉,引发更多类似的构想,研发出能更大规模运作的程式。\u003C\u002Fp\u003E\u003Cp\u003E来源:星洲网、每日邮报\u003C\u002Fp\u003E\u003Cp\u003E编辑:杨雨静\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E"'.slice(6, -6), groupId: '6719737709625082371
相关文章