回归统计 | ||||||||
Multiple R | 0.997563158 | |||||||
R Square | 0.995132254 | |||||||
Adjusted R Square | 0.994436862 | |||||||
标准误差 | 275188.6815 | |||||||
观测值 | 9 | |||||||
方差分析 | ||||||||
df | SS | MS | F | Significance F | ||||
回归分析 | 1 | 1.08371E+14 | 1.08371E+14 | 1431.037243 | 2.3464E-09 | |||
残差 | 7 | 5.30102E+11 | 75728810399 | |||||
总计 | 8 | 1.08901E+14 | ||||||
Coefficients | 标准误差 | t Stat | P-value | Lower 95% | Upper 95% | 下限 95.0% | 上限 95.0% | |
Intercept | 1618992.327 | 191570.505 | 8.451156541 | 6.4108E-05 | 1166000.06 | 2071984.6 | 1166000.1 | 2071984.6 |
X Variable 1 | 0.034695645 | 0.000917169 | 37.8290529 | 2.34641E-09 | 0.03252688 | 0.0368644 | 0.0325269 | 0.0368644 |
回归统计 帮我分析一下 并列出回归方程 谢了~
答案:4 悬赏:0 手机版
解决时间 2021-04-28 08:41
- 提问者网友:练爱
- 2021-04-27 10:20
最佳答案
- 五星知识达人网友:天凉才是好个秋
- 2021-04-27 11:31
季前赛奇才不敌猛龙 阿里纳斯14分
全部回答
- 1楼网友:掌灯师
- 2021-04-27 14:42
线性回归的讲解,课本上很清楚的,绝不比别人讲的差。。。
处理的具体方法书上很明白的,
r=(求和号(Xi-x平均值)(Yi-y平均值)/根号(求和号(Xi-x平均值)^2求和号(Yi-y平均值)^2)(求和都是从1到n) r 一般用来度量线性相关性的程度。
检举- 2楼网友:第幾種人
- 2021-04-27 13:03
首先看R square或者adj R square,它们越接近1,表明回归方程越好。
从这题的结果看来,R square=0.995,表明回归方程好。
其次看方差分析的F值和临界值(或者叫F检验的P值),p值<0.05的时候,表示回归方程显著有效。
这题的结果是:F=1431.037,signifance=2.3648*10^(-9)<0.05,表示该回归方程显著有效。
最后看回归方程(系数),Coefficients
可得y=1618992.327+0.034695645*x.
- 3楼网友:低音帝王
- 2021-04-27 12:13
你这个能不能给明确点啊.
回归分析 regression analysis 回归分析是处理多变量间相关关系的一种数学方法。相关关系不同于函数关系,后者反映变量间的严格依存性,而前者则表现出一定程度的波动性或随机性,对自变量的每一取值,因变量可以有多个数值与之相对应。在统计上研究相关关系可以运用回归分析和相关分析(correlation analysis)。当自变量为非随机变量、因变量为随机变量时,分析它们的关系称回归分析;当两者都是随机变量时,称为相关分析。回归分析和相关分析往往不加区分。广义上说,相关分析包括回归分析,但严格地说。两者是有区别的。具有相关关系的两个变量ξ和η,它们之间既存在着密切的关系,又不能由一个变量的数值精确地求出另一变量的值。通常选定ξ=x时η的数学期望作为对应ξ=x时η的代表值,因为它反映ξ=x条件下η取值的平均水平。这样的对应关系称为回归关系。根据回归分析可以建立变量间的数学表达式,称为回归方程。回归方程反映自变量在固定条件下因变量的平均状态变化情况。相关分析是以某一指标来度量回归方程所描述的各个变量间关系的密切程度。相关分析常用回归分析来补充,两者相辅相成。若通过相关分析显示出变量间关系非常密切,则通过所建立的回归方程可获得相当准确的取值。通过日归分析可以解决以下问题: 1.可建立交量间的数学表达式――通常称为经验公式。 2.利用概率统计基础知识进行分析,从而可以判断所建立的经验公式的有效性。 3.进行因素分析,确定影响某一变量的若干变量(因素)中,何者为主要,何者为次要,以及它们之间的关系。 具有相关关系的变量之间虽然具有某种不确定性,但是,通过对现象的不断观察可以探索出它们之间的统计规律,这类统计规律称为回归关系。有关回归关系的理论、计算和分析称为回归分析。 回归分析方法被广泛地用于解释市场占有率、销售额、品牌偏好及市场营销效果。把两个或两个以上定距或定比例的数量关系用函数形势表示出来,就是回归分析要解决的问题。回归分析是一种非常有用且灵活的分析方法,其作用主要表现在以下几个方面: (1) 判别自变量是否能解释因变量的显著变化----关系是否存在; (2) 判别自变量能够在多大程度上解释因变量----关系的强度; (3) 判别关系的结构或形式----反映因变量和自变量之间相关的数学表达式; (4) 预测自变量的值; (5) 当评价一个特殊变量或一组变量对因变量的贡献时,对其自变量进行控制。 回归分析可以分为简单线性回归分析和多元线性回归分析。 (一) 简单线性回归分析 如果发现因变量Y和自变量X之间存在高度的正相关,可以确定一条直线的方程,使得所有的数据点尽可能接近这条拟合的直线。简单回归分析的模型可以用以下方程表示: Y = a + bx 其中:Y为因变量,a为截距,b为相关系数,x为自变量。 (二) 多元线性回归分析 多元线性回归是简单线性回归的推广,指的是多个因变量对多个自变量的回归。其中最常用的是只限于一个因变量但有多个自变量的情况,也叫多重回归。多重回归的一般形式如下: Y = a + b1X1 + b2X2 + b3X3 +……+ bkXk a代表截距, b1,b2,b3,……,bk为回归系数。我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯