Skip to content

线性关系可视化

译者:cancan233

许多数据集包含多定量变量,并且分析的目的通常是将这些变量联系起来。我们之前讨论可以通过显示两个变量相关性的来实现此目的的函数。但是,使用统计模型来估计两组噪声观察量之间的简单关系可能会非常有效。本章讨论的函数将通过线性回归的通用框架实现。

本着图凯(Tukey)精神,seaborn 中的回归图主要用于添加视觉指南,以助于在探索性数据分析中强调存在于数据集的模式。换而言之,seaborn 本身不是为统计分析而生。要获得与回归模型拟合相关定量度量,你应当使用 statsmodels. 然而,seaborn 的目标是通过可视化快速简便地 3 探索数据集,因为这样做,如果说不上更,是与通过统计表探索数据集一样重要。

import numpy as np
import seaborn as sns
import matplotlib.pyplot as plt
sns.set(color_codes=True)
tips = sns.load_dataset("tips")

绘制线性回归模型的函数

seaborn 中两个主要函数主要用于显示回归确定的线性关系。这些函数,regplot()lmplot(), 之间密切关联,并且共享核心功能。但是,了解它们的不同之处非常重要,这样你就可以快速为特定工作选择正确的工具。

在最简单的调用中,两个函数都绘制了两个变量,xy,然后拟合回归模型y~x并绘制得到回归线和该回归的 95%置信区间:

sns.regplot(x="total_bill", y="tip", data=tips);

http://seaborn.pydata.org/_images/regression_7_0.png

sns.lmplot(x="total_bill", y="tip", data=tips);

http://seaborn.pydata.org/_images/regression_8_0.png

你应当注意到,除了图形形状不同,两幅结果图是完全一致的。我们会在后面解释原因。目前,要了解的另一个主要区别是regplot()接受多种格式的xy变量,包括简单的 numpy 数组,pandas Series对象,或者作为对传递给data的 pandas DataFrame对象。相反,lmplot()data作为必须参数,xy变量必须被指定为字符串。这种数据格式被称为"长格式"或"整齐"数据。 除了这种输入的灵活性之外,regplot()拥有lmplot()一个子集的功能,所以我们将使用后者来演示它们。

当其中一个变量采用离散值时,可以拟合线性回归。但是,这种数据集生成的简单散点图通常不是最优的:

sns.lmplot(x="size", y="tip", data=tips);

http://seaborn.pydata.org/_images/regression_10_0.png

一种选择是向离散值添加随机噪声("抖动"),以使这些值分布更清晰。需要注意的是,抖动仅用于散点图数据,而不会影响回归线本身拟合:

sns.lmplot(x="size", y="tip", data=tips, x_jitter=.05);

http://seaborn.pydata.org/_images/regression_12_0.png

第二种选择是综合每个离散箱中的观测值,以绘制集中趋势的估计值和置信区间:

sns.lmplot(x="size", y="tip", data=tips, x_estimator=np.mean);

http://seaborn.pydata.org/_images/regression_14_0.png

拟合不同模型

上面使用的简单线性回归模型非常容易拟合,但是它不适合某些类型的数据集。Anscombe 的四重奏数据集展示了一些实例,其中简单线性回归提供了相同的关系估计,然而简单的视觉检查清楚地显示了差异。例如,在第一种情况下,线性回归是一个很好的模型:

anscombe = sns.load_dataset("anscombe")
sns.lmplot(x="x", y="y", data=anscombe.query("dataset == 'I'"),
           ci=None, scatter_kws={"s": 80});

http://seaborn.pydata.org/_images/regression_17_0.png

第二个数据集的线性关系是相同的,但是图表清楚地表明这并不是一个好的模型:

sns.lmplot(x="x", y="y", data=anscombe.query("dataset == 'II'"),
           ci=None, scatter_kws={"s": 80});

http://seaborn.pydata.org/_images/regression_19_0.png

在这些存在高阶关系的情况下,regplot()lmplot()可以拟合多项式回归模型来探索数据集中的简单非线性趋势:

sns.lmplot(x="x", y="y", data=anscombe.query("dataset == 'II'"),
           order=2, ci=None, scatter_kws={"s": 80});

http://seaborn.pydata.org/_images/regression_21_0.png

"离群值"观察引起的另一个问题是,除了研究中的主要关系之外,由于某种原因导致的偏离:

sns.lmplot(x="x", y="y", data=anscombe.query("dataset == 'III'"),
           ci=None, scatter_kws={"s": 80});

http://seaborn.pydata.org/_images/regression_23_0.png

在存在异常值的情况下,拟合稳健回归可能会很有用,该回归使用了一种不同的损失函数来降低相对较大的残差的权重:

sns.lmplot(x="x", y="y", data=anscombe.query("dataset == 'III'"),
           robust=True, ci=None, scatter_kws={"s": 80});

http://seaborn.pydata.org/_images/regression_25_0.png

y变量是二进制时,简单线性回归也"有效",但提供了难以置信的预测:

tips["big_tip"] = (tips.tip / tips.total_bill) > .15
sns.lmplot(x="total_bill", y="big_tip", data=tips,
           y_jitter=.03);

http://seaborn.pydata.org/_images/regression_27_0.png

在这种情况下的解决方案是拟合逻辑回归,使得回归线对给定值x显示的估计概率y=1

sns.lmplot(x="total_bill", y="big_tip", data=tips,
           logistic=True, y_jitter=.03);

http://seaborn.pydata.org/_images/regression_29_0.png

请注意,逻辑回归估计比简单回归计算密集程度更高(稳健回归也是如此),并且由于回归线周围的置信区间是使用自举程度计算,你可能希望关闭它来达到更快的迭代(使用ci=None)。

一种完全不同的方法是使用lowess smoother拟合非参数回归。尽管它是计算密集型的,这种方法的假设最少,因此目前置信区间根本没有计算:

sns.lmplot(x="total_bill", y="tip", data=tips,
           lowess=True);

http://seaborn.pydata.org/_images/regression_31_0.png

residplot() 函数可以用作检查简单回归模型是否适合数据集的有效工具。它拟合并删除简单的线性回归,然后绘制每个观察值的残差值。理想情况下,这些值应随机散步在y=0周围:

sns.residplot(x="x", y="y", data=anscombe.query("dataset == 'I'"),
              scatter_kws={"s": 80});

http://seaborn.pydata.org/_images/regression_33_0.png

如果残差中存在结构形状,则表明简单的线性回归不合适:

sns.residplot(x="x", y="y", data=anscombe.query("dataset == 'II'"),
              scatter_kws={"s": 80});

http://seaborn.pydata.org/_images/regression_35_0.png

其他变量关系

上面的图显示了探索一对变量之间关系的许多方法。然而,通常,一个更有趣的问题是"这两个变量之间的关系如何随第三个变量的变化而变化?"这就是regplot()lmplot()的区别所在。regplot()总是表现单一关系, lmplot()regplot()FacetGrid结合,以提供一个简单的界面,显示"facet"图的线性回归,使你可以探索与最多三个其他分类变量的交互。

分离关系的最佳方法是在同一轴上绘制两个级别并使用颜色来区分它们:

sns.lmplot(x="total_bill", y="tip", hue="smoker", data=tips);

http://seaborn.pydata.org/_images/regression_37_0.png

除了颜色之外,还可以使用不同的散点图标记来使绘图更好地再现为黑白。你还可以完全控制使用的颜色:

sns.lmplot(x="total_bill", y="tip", hue="smoker", data=tips,
           markers=["o", "x"], palette="Set1");

http://seaborn.pydata.org/_images/regression_39_0.png

要添加另一个变量,你可以绘制多个"facet",其中每个级别的变量出现在网络的行或列中:

sns.lmplot(x="total_bill", y="tip", hue="smoker", col="time", data=tips);

http://seaborn.pydata.org/_images/regression_41_0.png

sns.lmplot(x="total_bill", y="tip", hue="smoker",
           col="time", row="sex", data=tips);

http://seaborn.pydata.org/_images/regression_42_0.png

控制绘图的大小和形状

在之前,我们注意到regplot()lmplot()生成的默认图看起来相同,但却具有不同的大小和形状。这是因为regplot()是一个"轴级"函数,它绘制在特定的轴上。这意味着你可以自己制作多面板图形并精确控制回归图的位置。如果没有明确提供轴对象,它只使用"当前活动"轴,这就是默认绘图与大多数其他 matplotlib 函数具有相同大小和形状的原因。要控制大小,你需要自己创建一个图形对象。

f, ax = plt.subplots(figsize=(5, 6))
sns.regplot(x="total_bill", y="tip", data=tips, ax=ax);

http://seaborn.pydata.org/_images/regression_44_0.png

相比之下,lmplot()图的大小和形状是通过lmplot()接口,使用sizeaspect参数控制,这些参数适用于绘图中的每个facet,而不是整个图形本身:

sns.lmplot(x="total_bill", y="tip", col="day", data=tips,
           col_wrap=2, height=3);

http://seaborn.pydata.org/_images/regression_46_0.png

sns.lmplot(x="total_bill", y="tip", col="day", data=tips,
           aspect=.5);

http://seaborn.pydata.org/_images/regression_47_0.png

在其他情境中绘制回归

其他一些 seaborn 函数在更大,更复杂的图中使用regplot()。第一个是我们在发行教程中引入的jointplot()。除了前面讨论的绘制风格,jointplot() 可以使用regplot()通过传递kind="reg"来显示轴上的线性回归拟合:

sns.jointplot(x="total_bill", y="tip", data=tips, kind="reg");

http://seaborn.pydata.org/_images/regression_49_0.png

使用pairplot()函数与kind="reg"regplot()PairGrid 结合起来,来显示数据集中变量的线性关系。请注意这与lmplot()的不同之处。在下图中,两个轴在第三变量上的两个级别上没有显示相同的关系;相反,PairGrid()用于显示数据集中变量的不同配对之间的多个关系。

sns.pairplot(tips, x_vars=["total_bill", "size"], y_vars=["tip"],
             height=5, aspect=.8, kind="reg");

http://seaborn.pydata.org/_images/regression_51_0.png

lmplot(),但不像jointplot(),额外的分类变量调节是通过hue参数内置在函数pairplot()中:

sns.pairplot(tips, x_vars=["total_bill", "size"], y_vars=["tip"],
             hue="smoker", height=5, aspect=.8, kind="reg");

http://seaborn.pydata.org/_images/regression_53_0.png



回到顶部