摘要:最后,看看私人媒体相对于非盈利媒体的情况,我们发现置信区间是-0.3%到0.5%:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F9c2a3601a3124a94bee0e8ee23a5385f\" img_width=\"627\" img_height=\"141\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E因此,在这种情况下,我们可以得出结论,在与气候变化相关的文章中,这两个总体的比例没有显著差异,不像我们比较过的其他总体。\u003C\u002Fp\u003E\u003Cp\u003E现在,让我们使用我们的函数创建一个新的布尔字段来指示我们是否找到了相关的单词,然后看看在我们的数据集中的前五篇文章中是否提到了气候变化:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fa8d7ff2eba9b4877b54106e8298be0a8\" img_width=\"690\" img_height=\"240\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们数据集中的前五篇文章没有提到任何关于气候变化的内容,但是我们知道我们的函数在按照我们之前测试的预期运行,所以现在我们可以开始对新闻报道进行一些分析。

"\u003Cdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fa32fead24a444a2cb596d7f495b5eb93\" img_width=\"1040\" img_height=\"520\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E人们经常抱怨新闻中对重要的主题报道得太少。其中一个主题就是气候变化。科学上的共识是,这是一个重要的问题,而且人们有理由认为,越多的人意识到它,我们解决它的机会就越大。但我们如何评估各种媒体对气候变化的报道有多广泛呢?我们可以使用Python进行一些文本分析!\u003C\u002Fp\u003E\u003Cp\u003E具体来说,在这篇文章中,我们将尝试回答哪家新闻媒体对气候变化报道的最多。同时,我们将学习使用Python分析文本数据的一些技巧,并测试与该数据相关的一个假设。\u003C\u002Fp\u003E\u003Cp\u003E本教程假设你非常熟悉Python和流行的数据科学包pandas。如果你想重温一下pandas,请查看这篇文章,如果你需要构建更全面的基础,Dataquest的交互课程将更深入地涵盖所有Python和pandas基础。\u003C\u002Fp\u003E\u003Cdiv class=\"tt-column-card\" data-content='{\"thumb_url\":\"http:\u002F\u002Fp10.pstatp.com\u002Flarge\u002Fpgc-image\u002F15631550041466405be4c5b\",\"title\":\"Matplotlib视频教程\",\"author_description\":\"Python部落\",\"price\":10,\"share_price\":0,\"sold\":8,\"column_id\":\"6713701186265940227\",\"distribution_user_id\":6388007932,\"new_thumb_url\":\"http:\u002F\u002Fsf6-ttcdn-tos.pstatp.com\u002Fimg\u002Fpgc-image\u002F15631550041466405be4c5b\"}'\u003E\u003Cp class=\"column-placeholder\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Ch1\u003E\u003Cstrong\u003E发现&研究我们的数据集\u003C\u002Fstrong\u003E\u003C\u002Fh1\u003E\u003Cp\u003E在这篇文章中,我们将使用Andrew Thompson提供的来自Kaggle的新闻数据集(没有关联)。该数据集包含超过14.2万篇文章,来自15个来源,大部分来自2016年和2017年,并被分成三个不同的csv文件。以下是Andrew在Kaggle 概览页面上展示的文章数量:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F23da6cc956ef44599de64c567e92cc29\" img_width=\"747\" img_height=\"496\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E稍后,我们将复制我们自己的版本。但有一件事或许值得关注,那就是这些新闻媒体的特点与它们发表的与气候变化相关的文章的比例之间的相关性。\u003C\u002Fp\u003E\u003Cp\u003E我们可以看看一些有趣的特征,包括所有权(独立、非盈利或公司)和政治倾向(如果有的话)。下面,我做了一些初步的研究,我是从维基百科和供应商自己的网页上收集的信息。\u003C\u002Fp\u003E\u003Cp\u003E我还发现了两个网站,allsides.com和mediabiasfactcheck.com,它们对出版物的自由派和保守派倾向进行了评分,所以我\u003Cspan\u003E从那里\u003C\u002Fspan\u003E收集了一些有关政治倾向的信息。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E\u003Cbr\u003E\u003C\u002Fp\u003E\u003Cul\u003E\u003Cli class=\"ql-align-justify\"\u003EAtlantic:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EOwner: Atlantic Media; majority stake recently sold to Emerson collective, a non-profit founded by Powell Jobs, widow of Steve Jobs\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ELean Left\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003EBreitbart:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EOwner: Breitbart News Network, LLC\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EFounded by a conservative commentator\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ERight\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003EBusiness Insider:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EOwner: Alex Springer SE (publishing house in Europe)\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ECenter \u002F left-center\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003EBuzzfeed News:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EPrivate, Jonah Peretti CEO & Kenneth Lerer, executive chair (latter also co-founder of Huffington Post)\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ELean left\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003ECNN:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ETurner Broadcasting System, mass media\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ETBS itself is owned by Time Warner\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ELean left\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003EFox News:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EFox entertainment group, mass media\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ELean right \u002F right\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003EGuardian:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EGuardian Media Group (UK), mass media\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EOwned by Scott Trust Limited\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ELean left\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003ENational Review:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ENational Review Institute, a non-profit\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EFounded by William F Buckley Jr\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ERight\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003ENew York Post:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ENews corp, mass media\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ERight \u002F right center\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003ENew York Times:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ENY Times Company\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ELean Left\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003ENPR:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ENon-profit\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ECenter \u002F left-center\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003EReuters:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EThomson Reuters Corporation (Canadian multinational mass media)\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ECenter\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003ETalking points memo:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EJosh Marshall, independent\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ELeft\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003EWashington Post:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ENash Holdings LLC, controlled by J. Bezos\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ELean left\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify\"\u003EVox:\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003EVox Media, multinational\u003C\u002Fli\u003E\u003Cli class=\"ql-align-justify ql-indent-1\"\u003ELean left \u002F left\u003C\u002Fli\u003E\u003C\u002Ful\u003E\u003Cp\u003E仔细研究一下,我们可能会假设右倾的Breitbart与气候相关的文章所占的比例,会比NPR等媒体要低。\u003C\u002Fp\u003E\u003Cp\u003E我们可以把它变成一个正式的假设陈述,我们会在后面做。但首先,让我们更深入地研究数据。一个术语需要注意:在计算语言学和NLP社区中,像这样的文本集合称为语料库,所以在本文中讨论文本数据集时,我们将使用这个术语。\u003C\u002Fp\u003E\u003Cp\u003E探索性数据分析(EDA)是任何数据科学项目的重要组成部分。它通常涉及以各种方式分析和可视化数据,以便在进行更深入的分析之前寻找模式。不过,在本例中,我们使用的是文本数据而不是数字数据,这使得情况有些不同。\u003C\u002Fp\u003E\u003Cp\u003E例如,在数值探索性数据分析中,我们通常希望查看数据特性的平均值。但是在一个文本数据库中是不存在“平均”这个词的,这使得我们的任务更加复杂。然而,我们仍然可以进行定量和定性的研究来检查我们的语料库的一致性。\u003C\u002Fp\u003E\u003Cp\u003E首先,让我们重新生成上面的图表,以确保没有遗漏任何数据,然后按文章数量进行排序。我们将从覆盖所有导入开始,读取数据集,并检查其三个部分的长度。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F68adac0b6d7041bd83b8fe14320390e4\" img_width=\"690\" img_height=\"383\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Ff915f376805f4c79ba021d6baca60e35\" img_width=\"732\" img_height=\"768\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F952198f1e7ba47309f2c7433363810c1\" img_width=\"692\" img_height=\"407\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E不过,使用三个独立的数据集并不方便。我们将把所有三个DataFrame合并成一个,这样我们就可以更容易地使用整个语料库:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002Fb593194c195349e9bf51706db1b58587\" img_width=\"689\" img_height=\"130\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E接下来,我们将确保拥有与原始数据集中相同的发布名称,并检查最早年份和最新年份的文章。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fe69eee4dd4354cf3a0a8932ed8467023\" img_width=\"685\" img_height=\"341\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E像上面看到的那样将日期存储为浮点数是不常见的,但我们的CSV文件中就是按这种方式来存储的。不管怎样,我们并不打算在任何特别重要的地方使用日期,因此出于本教程的目的,我们将它们保留为浮点数。但是,如果我们在进行不同的分析,我们可能会希望将它们转换成不同的格式。\u003C\u002Fp\u003E\u003Cp\u003E我们使用pandas的value_counts()函数来快速查看下我们的文章是什么时候的。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F67924102eb7d4c7dbc5bdfc2e4c38991\" img_width=\"690\" img_height=\"434\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们可以看到大部分是最近几年的文章,但是也包括了一些较老的文章。这很好地达到了我们的目的,因为我们主要关注过去几年的报道。\u003C\u002Fp\u003E\u003Cp\u003E现在,我们按名称对出版物进行排序,以重现Kaggle中的原始图表。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F47d6a4496d304e51be9873b9a86e312a\" img_width=\"619\" img_height=\"109\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F3e087ddd088d4103a16dceb169d39e66\" img_width=\"760\" img_height=\"775\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E如果你想快速找到一个特定的头条,这个图表顺序是有用的,但是按文章计数对其进行排序可能更有用,这样我们就能更好地了解我们的数据的来源。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002F91312b4805e1462ebf6c54ca72c307c3\" img_width=\"615\" img_height=\"115\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002Fadf6c69bb0ac4f94b5ecd47b5314c268\" img_width=\"760\" img_height=\"775\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们想要按单词来检查平均文章长度,但同样重要的是这些单词的多样性。我们来看看两者。\u003C\u002Fp\u003E\u003Cp\u003E我们将从定义一个函数开始,该函数会删除标点符号并将所有文本转换为小写。(我们没有做任何复杂的句法分析,所以我们不需要保留句子结构或大写)。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fe0d4304f94b746d4b5c8fa3255227336\" img_width=\"690\" img_height=\"96\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E现在,我们将在我dataframe中创建一个新列,其中包含已清洗的文本。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F8ac96a3391ef46d19be53fe9ecf0acb3\" img_width=\"689\" img_height=\"309\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E在上面,我们可以看到我们已经成功地从语料库中删除了大写字母和标点符号,这将使我们能更容易地识别和计数独特字。\u003C\u002Fp\u003E\u003Cp\u003E我们来看看每篇文章的平均(平均值)字数,以及我们数据集中最长和最短的文章。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F7e9d1e9e7ec145088ab2286a0d8291e9\" img_width=\"694\" img_height=\"348\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E一篇没有单词的文章对我们没有任何用处,所以让我们看看有多少这样的文章。我们希望从数据集中删除没有单词的文章。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F108dde79911e47d1b48918f7966f03f3\" img_width=\"694\" img_height=\"118\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E让我们去掉这些空文章,然后看看这对我们数据集中每篇文章的平均字数有什么影响,以及新的最小字数是多少。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F9ab54d638cf54ff89a2983c58d6d7638\" img_width=\"690\" img_height=\"187\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E在这一点上,它可能有助于我们可视化文章字数的分布,以了解我们的离群值对平均值的影响有多大。让我们生成另一个图表来看看:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fdbceee6e71b141b7a125a13db5f60139\" img_width=\"691\" img_height=\"111\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fa769bfedbea041d2baf7c49b4fac0bae\" img_width=\"769\" img_height=\"644\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们的Python文本分析的下一步是:探究文章的多样性。我们将以每篇文章中独特字的数量作为开始。要计算这个值,我们需要创建一个文章中单词的集合,而不是列表。我们可以将这个集合看作有点像列表,但是集合会省略重复的条目。\u003C\u002Fp\u003E\u003Cp\u003E在官方文档中有更多关于集合及其工作原理的信息,但我们先看一个关于如何创建一个集合的基本示例。注意,虽然我们是从两个b条目开始的,但在我们创建的集合中只有一个:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fd2ad8aa15664491ab6b8e592e4756cda\" img_width=\"689\" img_height=\"107\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E接下来,我们马上要做几件事:\u003C\u002Fp\u003E\u003Cp\u003E对前面创建的tokenized的列中的系列进行操作,我们将从 string库调用 split函数。然后我们将从我们的系列中获取集合以消除重复的单词,然后使用len()测量集合的大小。\u003C\u002Fp\u003E\u003Cp\u003E最后,我们将把结果添加到一个新列中,其中包含每篇文章中独特字的数量。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F18f16e6b5f924dd3b6cc21c37d3e1a46\" img_width=\"617\" img_height=\"79\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fc357284706e6499a805a096c5198bc1c\" img_width=\"648\" img_height=\"180\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们还想看看每篇文章的独特字的平均字数,以及最小和最大的独特字计数。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002F9a9fad6695cd4da1902c067ea0497384\" img_width=\"688\" img_height=\"196\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E当我们将其绘制成图表时,我们可以看到,尽管独特字的分布仍然是歪斜的,但它看起来更像一个正态分布(高斯分布),而不是基于我们之前生成的单词总数的分布。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fcc8e82601db04920a29dcf447593f01e\" img_width=\"688\" img_height=\"108\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Ffb5670cf540d4bb8a82eb58e90867255\" img_width=\"760\" img_height=\"644\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们也来看看这两个度量文章长度的方法在不同的出版物中是如何变化的。\u003C\u002Fp\u003E\u003Cp\u003E为此,我们将使用pandas的groupby函数。关于这个功能强大的函数的完整文档可以在这里找到,但是对我们这里的目的来说,我们只需要知道它允许我们通过另一列的值以不同的方式不同的度量标准来进行aggregate(合计)或求总和。\u003C\u002Fp\u003E\u003Cp\u003E在本例中,这个列就是publication。第一个图表通过对len进行合计只使用每个组中的对象数量。我们可以在下面的代码中使用除title之外的任何其他列。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F263bf3f6593c48e1bc7163d3637a99e2\" img_width=\"624\" img_height=\"142\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fd3af1e2e24c44d3db1590487d8ace17d\" img_width=\"760\" img_height=\"775\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E现在我们将分别对单词的平均数和独特字数量进行合计。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fc08aeb9fb7444f2b99e6c4e8060ad2b4\" img_width=\"615\" img_height=\"105\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fb39c597f0e804b0fbd3086d17df4f2a3\" img_width=\"751\" img_height=\"775\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fee6282ce9b9246f0bd2bb6e2ce662ac1\" img_width=\"1\" img_height=\"1\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F684f42918382447a827208da934d9458\" img_width=\"742\" img_height=\"775\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E最后,我们来看看整个语料库中最常见的单词。\u003C\u002Fp\u003E\u003Cp\u003E我们将使用一个Python Counter,这是一种特殊的字典,它假定每个键的值为整数类型。在这里,我们将使用文章的标记化版本来遍历所有文章。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F02271e88ad2d4c59b1fe2faa47774f40\" img_width=\"689\" img_height=\"93\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E但是,当我们在计数最常见的单词时,我们并不想把所有的单词都包括在我们的计数中。在书面英语中,有许多单词是如此常见,以至于在任何分析中,它们都很可能是最常见的单词。对它们进行计数并不能告诉我们关于文章内容的任何信息。在NLP和文本处理中,这些单词被称为“stopwords”。常见的英语stopwords停顿词列表包括“and”、“or”和“such”等单词。\u003C\u002Fp\u003E\u003Cp\u003E记得我们在这个项目开始的地方从nltk.corpus导入了stopwords模块,所以现在我们来看看什么单词包含在这个预先制作的stopwords列表中:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fdde7e6523d8b499ab879af562dfef7b4\" img_width=\"687\" img_height=\"48\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fabdd63bc46214d23b993784afe1ab067\" img_width=\"655\" img_height=\"733\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fb63bf8b95e4949d8a019393bbb8c59b2\" img_width=\"651\" img_height=\"838\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F29a355a3f46d437fa97648580b5186e8\" img_width=\"649\" img_height=\"883\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F81bca59742c340b3a332296ab472cde9\" img_width=\"648\" img_height=\"821\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F29121860f1484cc289d03c0bf93a7c46\" img_width=\"656\" img_height=\"540\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E正如我们所见,这是一个很长的列表,没有一个词可以确切告诉我们一个文章的意思。我们使用这个列表来删除Counter中的stopword。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F2f0b808b803a4077b586304b5b540af5\" img_width=\"687\" img_height=\"66\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E为了进一步过滤我们的单词计数来得到有用的信息,Counter有一个方便的most_common方法,我们可以在这里使用它来查看Counter找到的最常用的单词。使用这个函数,我们可以指定想要查看的结果的数量。在这里,我们将要求它列出最常见的20个单词。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F49184812f7bc40fc8ae632f71a61e470\" img_width=\"691\" img_height=\"529\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E在上面,我们可以看到一些非常容易预测到的单词,但也有一点令人惊讶: u显然是最常见的单词之一。这听起来可能有些奇怪,但它就是从文章中经常使用“U.S.”和“U.N.”这样的缩写词这一事实中得出来的。\u003C\u002Fp\u003E\u003Cp\u003E这有点奇怪,但请记住,目前我们只是在研究数据。我们想要检验的实际假设是: 气候变化报道可能与媒体的某些方面有关,比如其所有权或政治倾向。在我们的语料库中,u作为一个单词的存在根本不可能影响这个分析,所以我们可以让它保持原样。\u003C\u002Fp\u003E\u003Cp\u003E我们还可以在其他领域对这个数据集进行更多的清理和细化,但这可能没有必要。相反,让我们进入下一步:测试我们最初的假设是否正确。\u003C\u002Fp\u003E\u003Cp\u003E\u003Cstrong\u003E文本分析: 检验我们的假设\u003C\u002Fstrong\u003E\u003C\u002Fp\u003E\u003Cp\u003E我们如何检验我们的假设?首先,我们必须确定哪些文章是关于气候变化的,然后我们必须通过文章类型来比较这些报道。\u003C\u002Fp\u003E\u003Cp\u003E我们如何判断一篇文章是否在谈论气候变化?有几种方法可以做到这一点。我们可以使用高级文本分析技术(如集群或主题建模)来识别概念。但是对于本文的目的来说,我们保持简单一些:让我们只识别可能与主题相关的关键字,并在文章中搜索它们。只要头脑风暴一些有趣的单词和短语就可以了。\u003C\u002Fp\u003E\u003Cp\u003E当我们列出这些短语时,我们必须小心避免使用诸如“环境”或“可持续性”之类的模糊词汇。这些词汇可能与环保主义有关,但也可能与政治环境或商业可持续性有关。即使是“气候”也可能不是一个有意义的关键词,除非我们能确定它与“变化”密切相关。\u003C\u002Fp\u003E\u003Cp\u003E我们需要做的是创建一个函数来确定一篇文章是否包含我们感兴趣的单词。为此,我们将使用regex,也叫正则表达式。如果你需要复习一下,本文更详细地介绍了Python中的正则表达式。除了这个Regex,我们还将搜索cc_wds参数中定义的其他几个短语的精确匹配。\u003C\u002Fp\u003E\u003Cp\u003E在寻找有关气候变化的话题时,我们必须谨慎一点。我们不能用“change”这个词,因为那样会把“changing”这类相关的词去掉。\u003C\u002Fp\u003E\u003Cp\u003E因此,下面是我们如何过滤它的过程: 我们想要在1到5个单词之内找到后面跟着chang字符串的climate字符串(在正则表达式中,\\w+会匹配一个或多个单词字符,而\\W+会匹配一个或多个非单词字符)。\u003C\u002Fp\u003E\u003Cp\u003E我们可以使用 | 来表示逻辑or,所以我们也可以在1到5个单词之内匹配到后面跟着chang字符串的climate字符串。1到5个单词的部分是正则表达式的一部分,它看起来像这样:(?:\\w+\\ W+){1,5}?。\u003C\u002Fp\u003E\u003Cp\u003E总之,搜索这两个字符串可以帮助我们识别任何提到气候变化、正在变化的气候等的文章。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002F8f29abeeb79b4e43a707e5e38bd1e77a\" img_width=\"629\" img_height=\"333\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E这里详细展示了这个函数部分是如何运行的:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fc80074bc13cb4c3199fe5cb48d509691\" img_width=\"620\" img_height=\"96\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002F11d79c237cff4127aa40f0d91cb7914d\" img_width=\"686\" img_height=\"314\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E正如我们所看到的,这一切都在按计划进行——它与气候变化的真实含义相匹配,而不是因“变化”一词在其他语境中的使用而被抛弃。\u003C\u002Fp\u003E\u003Cp\u003E现在,让我们使用我们的函数创建一个新的布尔字段来指示我们是否找到了相关的单词,然后看看在我们的数据集中的前五篇文章中是否提到了气候变化:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fa8d7ff2eba9b4877b54106e8298be0a8\" img_width=\"690\" img_height=\"240\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们数据集中的前五篇文章没有提到任何关于气候变化的内容,但是我们知道我们的函数在按照我们之前测试的预期运行,所以现在我们可以开始对新闻报道进行一些分析。\u003C\u002Fp\u003E\u003Cp\u003E回到我们最初的目标,即比较不同来源的有关气候变化主题的报道,我们可以考虑计算每个来源发表的气候相关文章的数量,并对不同来源进行比较。但是,当我们这样做时,我们需要考虑文章总数的差异。如果来自一个新闻报道的气候相关的文章数量较大,可能只是因为该新闻报道总体上发表的文章数量更多。\u003C\u002Fp\u003E\u003Cp\u003E我们需要做的是计算气候相关文章的相对比例。我们可以在布尔字段(如cc_wds)上使用sum函数来计算True值的数量,并用它除以已发表文章的总数以得到我们的比例。\u003C\u002Fp\u003E\u003Cp\u003E让我们从查看所有来源的总比例开始,并以此作为一个基线来比较每个新闻报道:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fa08f6686858f4fe1a9dacc9080970075\" img_width=\"691\" img_height=\"118\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们看到有关气候报道的文章在所有文章中的比例为3.1%,这是一个相当低的比例,但从统计学的角度来看这并没有什么问题。\u003C\u002Fp\u003E\u003Cp\u003E接下来我们要计算每组的相对比例。让我们通过查看每个发布源的比例来用图示说明这是如何工作的。我们将再次使用groupby对象和sum,但这次我们想要每个组的文章数量,我们可以通过count函数得到:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002Fdf4aac29bb744ee7bc72b165229e3dfe\" img_width=\"692\" img_height=\"551\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F95c6a6bab4ec4e9181e0697326b29426\" img_width=\"1056\" img_height=\"895\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E现在,让我们将表中数据分解成比例,并对列表进行排序,这样我们就可以快速地看到哪些媒体对气候变化的报道最多:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fab21a1407a174a99b10bf9c22acfa564\" img_width=\"689\" img_height=\"506\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E这一比例从NewYorkPost的0.7%到Vox的8%不等。我们来绘制图表,先按发布名称排序,然后再按值排序。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fc40e630159e74f91a73cda9de7f7d690\" img_width=\"620\" img_height=\"106\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F05fe5161a7bf400998051419f995ec80\" img_width=\"748\" img_height=\"775\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002F734456881e2e4052b7159e8d72c1621e\" img_width=\"620\" img_height=\"130\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F4ce2606815b546119b8f949dfc42f247\" img_width=\"793\" img_height=\"775\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们还可以做其他各种探索性的数据分析,但我们先把这些放在一边,继续我们的目标,即校验一个关于我们的语料库的假设。\u003C\u002Fp\u003E\u003Cp class=\"ql-align-justify\"\u003E\u003Cstrong\u003E检验假设\u003C\u002Fstrong\u003E\u003C\u002Fp\u003E\u003Cp\u003E在这篇文章中,我们不会对假设检验及其细微之处做一个完整的叙述;要了解Python中的概率论,请访问这篇文章,而对于统计假设检验的详细信息,Wikipedia是一个不错的继续学习的地方。\u003C\u002Fp\u003E\u003Cp\u003E我们将在这里演示一种形式的假设检验。\u003C\u002Fp\u003E\u003Cp\u003E回想一下,我们一开始非正式地假设出版特征可能与他们所发表的与气候相关的文章的优势有关。这些特征包括政治倾向和所有权。例如,我们与政治倾向有关的零假设非正式地说明,在比较具有不同政治倾向的文章时,在提及气候变化这一方面它们是没有区别的。我们来更正式一点的说。\u003C\u002Fp\u003E\u003Cp\u003E如果我们看一下出版物的左倾和右倾的政治倾向,我们将左倾的出版物称为“左”,右倾的出版物称为“右”,我们的零假设是,“左”的气候变化文章数量比例等于“右”的气候变化文章数量比例。我们的备择假设是这两个总体的比例是不相等的。我们可以用其他群体分组和相似的假设来代替其他政治倾向比较或其他出版特征。\u003C\u002Fp\u003E\u003Cp\u003E让我们从政治倾向开始。你可以重新浏览这篇文章的顶部来提醒自己我们是如何收集有关媒体的政治倾向的信息的。下面的代码使用一个字典来根据收集到的信息为每个发布名称分配left、right和center值。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F6bfdc79cf8a441a19ce51f3b25ffed22\" img_width=\"629\" img_height=\"176\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F21a05416ba964ca89ee4fcd59d130d91\" img_width=\"1080\" img_height=\"485\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们再次使用groupby()来查找每个政治分组中气候变化文章的比例。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fafb780135a6e4171bd1a8135c38937b1\" img_width=\"690\" img_height=\"67\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E让我们看看每组中有多少篇文章,并对其绘制图表:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F32c10b76ca4b4a7a9569829dffabb371\" img_width=\"688\" img_height=\"219\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F6ceab31e7bd8490fb3ede6031c37a76b\" img_width=\"619\" img_height=\"108\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F9dd6926803fa4441b3a552343af681d2\" img_width=\"747\" img_height=\"675\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E从上面的图表中可以明显看出,不同的政治倾向分组中气候变化相关文章所占的比例是不同的,但是让我们来正式检验一下我们的假设。为此,对于给定的一对文章分组,我们先提出零假设,即假设与气候相关的文章的总体比例没有差异。我们也为我们的校验建立一个95%的置信水平。\u003C\u002Fp\u003E\u003Cp\u003E一旦我们收集了统计数据,我们就可以使用P值或置信区间来确定我们的结果是否具有统计意义。这里我们使用置信区间,因为我们感兴趣的是这个差值在什么范围可能反映总体比例的差异。我们对假设检验感兴趣的统计量是两个样本中气候变化文章所占总体比例的差异。回忆一下,置信区间和显著性检验之间有密切的关系。具体来说,如果一个统计量在0.05水平上显著不同于零,则95%置信区间将不包含0。\u003C\u002Fp\u003E\u003Cp\u003E换句话说,如果0在我们计算的置信区间内,那么我们就不会拒绝零假设。但如果不在,我们就可以说相关文章的比例差异具有统计学意义。我想借此机会指出置信区间中一个常见的误解:95%区间给出了一个区域,如果我们重新采样,那么在95%的情况下,该区间将包含真实的(总体)比例差异。并不是说95%的样本都在该区间内。\u003C\u002Fp\u003E\u003Cp\u003E为了计算该置信区间,我们需要一个点估计和一个误差范围; 后者由临界值乘以标准误差组成。对于比例差异,我们对它的点估计值是p 1- p2,其中p1和p2是我们的两个样本比例。在95% 的CI下,临界值是1.96。接下来,我们的标准误差是:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F217d08c660d1475c9e8a5c922405a818\" img_width=\"248\" img_height=\"82\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E最后,置信区间是 (点估计 ± 临界值 X 标准误差), 或者:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Ff0ce38a005b64a698a0b165f5571b1a8\" img_width=\"435\" img_height=\"88\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们使用一些辅助函数来把我们的数字代入这些公式。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fbae29a2d9beb4c15afedb07fc328c65f\" img_width=\"686\" img_height=\"152\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E最后,calc_ci_range函数会将所有内容整合在一起。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002F4c3b750eb0b44d8694e893872964886a\" img_width=\"688\" img_height=\"112\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E我们来计算一下倾向分组的置信区间,先看看“左”相对于“右”。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F07fe793dbe8646dcb1c94b254d12dd0b\" img_width=\"692\" img_height=\"95\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F1ceb3a2529e440ec92a6ed777eef0b3e\" img_width=\"615\" img_height=\"59\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F2cc98e6ed01b41bdbf7d14b704c616fa\" img_width=\"690\" img_height=\"48\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E查看“左”相对于“右”出版物的比例差异,可以看到,我们的置信区间在1.8%到2.1%之间。这是一个相当窄的范围,并且相对于总体比例差异范围来说,也远远地远离零。拒绝零假设是显而易见的。同样,center对left的范围是1.3%到2.1%:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fc0751c56635e4b1691fbf8ebf9adf954\" img_width=\"617\" img_height=\"63\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002Fa6041af844ac4e31a8d672ae803c9eb4\" img_width=\"688\" img_height=\"48\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003EBecause the assignment of publications to bias slant is somewhat subjective,\u003C\u002Fp\u003E\u003Cp\u003E由于对出版物的分配从偏差偏倚的角度来看是有点主观的,这里有另一种变体,即将BusinessInsider、NYPost和NPR放入center中。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fe5bd3b695da5448e909bbc30955295f7\" img_width=\"628\" img_height=\"174\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F839053e1581745c6a2f1019fc4b3a7f5\" img_width=\"628\" img_height=\"109\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002F9fca1de783d24f609b926def18ee9bc5\" img_width=\"756\" img_height=\"675\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002Fa2993a169fc44d7aa138bcd437766c17\" img_width=\"630\" img_height=\"480\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E接下来,我们可以使用相同的方法查看出版物的所有权。我们将我们的总体样本分为四组,LLC(有限责任公司),corporation(有限公司),非营利组织和私人。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp3.pstatp.com\u002Flarge\u002Fpgc-image\u002F2f600270602d407fb6ed09c305dd8f4f\" img_width=\"625\" img_height=\"236\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E现在让我们来对该数据绘制图表,看看不同类型的公司是否以不同的比例报导气候变化。\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002F9b499b2f9ff24f15bd73e42f7057bc28\" img_width=\"623\" img_height=\"108\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F26357a8ca1ed4c2995982a6f7885c957\" img_width=\"756\" img_height=\"698\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E或许结果一点也不意外,私营媒体和非营利媒体对气候变化的报导似乎比有限公司和有限责任公司要多一些。但我们来更仔细地看看前两个公司,即有限责任公司和有限公司在比例上的差异:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F5495e199ade64e66818bc6cc1a04069f\" img_width=\"625\" img_height=\"234\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E这里,置信区间是0.3%到0.7%,比之前的差异更接近于0,但仍然不包括0。我们可以预计从非盈利媒体到有限责任公司的区间也不包括零:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp9.pstatp.com\u002Flarge\u002Fpgc-image\u002F7085f42a5fc247018beb2ae71f9fba3c\" img_width=\"628\" img_height=\"142\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E非营利媒体到有限责任公司的置信区间为0.6%至1.2%。最后,看看私人媒体相对于非盈利媒体的情况,我们发现置信区间是-0.3%到0.5%:\u003C\u002Fp\u003E\u003Cdiv class=\"pgc-img\"\u003E\u003Cimg src=\"http:\u002F\u002Fp1.pstatp.com\u002Flarge\u002Fpgc-image\u002F9c2a3601a3124a94bee0e8ee23a5385f\" img_width=\"627\" img_height=\"141\" alt=\"使用 Python进行文本分析来检验一个假设\" inline=\"0\"\u003E\u003Cp class=\"pgc-img-caption\"\u003E\u003C\u002Fp\u003E\u003C\u002Fdiv\u003E\u003Cp\u003E因此,在这种情况下,我们可以得出结论,在与气候变化相关的文章中,这两个总体的比例没有显著差异,不像我们比较过的其他总体。\u003C\u002Fp\u003E\u003Cp\u003E\u003Cstrong\u003E总结: 进行文本分析来检验一个假设\u003C\u002Fstrong\u003E\u003C\u002Fp\u003E\u003Cp\u003E在这篇文章中,我们对一个大型的新闻文章语料库进行了一些文本分析,并检验了关于它们内容差异的一些假设。具体来说,使用一个95%的置信区间,我们估计了不同新闻来源之间关于气候变化讨论的差异。\u003C\u002Fp\u003E\u003Cp\u003E我们发现了一些有趣的差异,这些差异是统计显著性的,包括右倾新闻来源对气候变化的报道更少,有限公司和有限责任公司对气候变化的报道比非盈利媒体和私人媒体更少。\u003C\u002Fp\u003E\u003Cp\u003E然而,就处理这个语料库而言,我们接触的只是冰山一角。你可以尝试使用这些数据进行许多有趣的分析,因此你可以自己从Kaggle下载这些数据并开始编写你自己的文本分析项目!\u003C\u002Fp\u003E\u003Cp\u003E\u003Cstrong\u003E延伸阅读\u003C\u002Fstrong\u003E\u003C\u002Fp\u003E\u003Cp\u003EOlteanu, A, et al. “比较在线新闻和社交媒体的事件报道:气候变化的案例”,第九届国际AAAI网络与社交媒体会议论文集(2015)。\u003C\u002Fp\u003E\u003Cblockquote\u003E\u003Cp\u003E英文原文:https:\u002F\u002Fwww.dataquest.io\u002Fblog\u002Ftutorial-text-analysis-python-test-hypothesis\u002F \u003C\u002Fp\u003E\u003Cp\u003E译者:忧郁的红秋裤\u003C\u002Fp\u003E\u003C\u002Fblockquote\u003E\u003C\u002Fdiv\u003E"'.slice(6, -6), groupId: '6714062509994672653
相关文章