回归分析怎么做预测

2024-05-18 02:03

1. 回归分析怎么做预测

回归分析怎么做预测:
1、选定预测的变量及主要的原因变量;
2、收集历史数据(或通过市场调查) ;
3、分析变量间的关系建立回归模型;
4、参数估计:最小二乘法;
5、回归方程的显著性检验; 
6、利用回归方程进行预测。

回归的现代解释:
回归分析是关于研究一个应(因)变量对另一个或几个解释变量(自变量)的)依赖关系,其用意在于通过后者的己知或设定值,去估计和(或)预测前者的( 总体)均值。

回归的基本思想:
具有相关关系的变量,虽然不能用函数式准确表达其关系,但可以通过大量的实验数据(或调查数据等)的统计分析,找出各相关因素的内在规律,可用某一函数式近似地描述其依存关系。

回归分析怎么做预测

2. 市场学问题,涉及回归分析预测

回归分析法的公式如下:
y=a+bx
b=∑xy-n·∑x∑y/[∑x²-n·(∑x)²];
a=∑y-b·∑x/n

使用已知条件数值带入即可

3. 多元线性回归分析预测法的公式

多元线性回归预测模型一般公式为: 多元线性回归模型中最简单的是只有两个自变量(n=2)的二元线性回归模型,其一般形式为:下面以二元线性回归分析预测法为例,说明多元线性回归分析预测法的应用。二元线性回归分析预测法,是根据两个自变量与一个因变量相关关系进行预测的方法。二元线性回归方程的公式为:式中::因变量;x1,x2:两个不同自变量,即与因变量有紧密联系的影响因素。a,b1,b2:是线性回归方程的参数。a,b1,b2是通过解下列的方程组来得到。二元线性回归预测法基本原理和步骤同一元线性回归预测法没有原则的区别,大体相同。

多元线性回归分析预测法的公式

4. 线性回归分析实战有什么用

线性回归是利用数理统计中的回归分析,来确定两种或两种以上变数间相互依赖的定量关系的一种统计分析方法之一,运用十分广泛。
分析按照自变量和因变量之间的关系类型,可分为线性回归分析和非线性回归分析。
如果在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。
我们以一简单数据组来说明什么是线性回归。假设有一组数据型态为 y=y(x),其中 
x={0, 1, 2, 3, 4, 5}, y={0, 20, 60, 68, 77, 110} 
如果我们要以一个最简单的方程式来近似这组数据,则非一阶的线性方程式莫属。先将这组数据绘图如下 
图中的斜线是我们随意假设一阶线性方程式 y=20x,用以代表这些数据的一个方程式。以下将上述绘图的 MATLAB 指令列出,并计算这个线性方程式的 y 值与原数据 y 值间误差平方的总合。 
>> x=[0 1 2 3 4 5]; 
>> y=[0 20 60 68 77 110]; 
>> y1=20*x; % 一阶线性方程式的 y1 值 
>> sum_sq = sum((y-y1).^2); % 误差平方总合为 573 
>> axis([-1,6,-20,120]) 
>> plot(x,y1,x,y,'o'), title('Linear estimate'), grid 
如此任意的假设一个线性方程式并无根据,如果换成其它人来设定就可能采用不同的线性方程式;所以我们 须要有比较精确方式决定理想的线性方程式。我们可以要求误差平方的总合为最小,做为决定理想的线性方 程式的准则,这样的方法就称为最小平方误差(least squares error)或是线性回归。MATLAB的polyfit函数提供了 从一阶到高阶多项式的回归法,其语法为polyfit(x,y,n),其中x,y为输入数据组n为多项式的阶数,n=1就是一阶 的线性回归法。polyfit函数所建立的多项式可以写成
从polyfit函数得到的输出值就是上述的各项系数,以一阶线性回归为例n=1,所以只有 二个输出值。如果指令为coef=polyfit(x,y,n),则coef(1)= , coef(2)=,,coef(n+1)= 。注意上式对n 阶的多 项式会有 n+1 项的系数。我们来看以下的线性回归的示范: 
>> x=[0 1 2 3 4 5]; 
>> y=[0 20 60 68 77 110]; 
>> coef=polyfit(x,y,1); % coef 代表线性回归的二个输出值 
>> a0=coef(1); a1=coef(2); 
>> ybest=a0*x+a1; % 由线性回归产生的一阶方程式 
>> sum_sq=sum(y-ybest).^2); % 误差平方总合为 356.82 
>> axis([-1,6,-20,120]) 
>> plot(x,ybest,x,y,'o'), title('Linear regression estimate'), grid [编辑本段]线性回归拟合方程  一般来说,线性回归都可以通过最小二乘法求出其方程,可以计算出对于y=bx+a的直线,其经验拟合方程如下:

其相关系数(即通常说的拟合的好坏)可以用以下公式来计算:

理解回归分析的结果
虽然不同的统计可能会用不同的格式给出回归的结果,但是它们的基本内容是一致的。我们以STATA的输出为例来说明如何理解回归分析的结果。在这个例子中,我们测试读者的性别(gender),年龄(age),知识程度(know)与文档的次序(noofdoc)对他们所觉得的文档质量(relevance)的影响。
输出: 
Source | SS df MS Number of obs = 242
-------------+------------------------------------------ F ( 4, 237) = 2.76
Model | 14. 4 3. Prob > F = 0.0283
Residual | 300. 237 1. R-squared = 0.0446
------------- +------------------------------------------- Adj R-squared = 0.0284
Total | 314. 241 1. Root MSE = 1.1256
------------------------------------------------------------------------------------------------
relevance | Coef. Std. Err. t P>|t| Beta
---------------+--------------------------------------------------------------------------------
gender | -. . -1.30 0.196 -.
age | -. . -2.10 0.037 -.
know | . . 0.04 0.966 .
noofdoc | -. . -2.38 0.018 -.
_cons | 7. 1. 6.84 0.000 .
-------------------------------------------------------------------------------------------
这个输出包括一下及部分。左上角给出方差分析表,右上角是模型拟合综合参数。下方的表给出了具体变量的回归系数。方差分析表对大部分的行为研究者来讲不是很重要,我们不做讨论。在拟合综合参数中, R-squared 表示因变量中多大的一部分信息可以被自变量解释。在这里是4.46%,相当小。一般地,我们要求这个值大于5%。对大部分的行为研究者来讲,最重要的是回归系数。我们看到,年龄增加1个单位,文档的质量就下降 -.个单位,表明年长的人对文档质量的评价会更低。这个变量相应的t值是 -2.10,绝对值大于2,p值也<0.05,所以是显著的。我们的结论是,年长的人对文档质量的评价会更低,这个影响不是显著的。相反,领域知识越丰富的人,对文档的质量评估会更高,但是这个影响不是显著的。这种对回归系数的理解就是使用回归分析进行假设检验的过程。

5. 多元线性回归分析预测法的介绍

在市场的经济活动中,经常会遇到某一市场现象的发展和变化取决于几个影响因素的情况,也就是一个因变量和几个自变量有依存关系的情况。而且有时几个影响因素主次难以区分,或者有的因素虽属次要,但也不能略去其作用。例如,某一商品的销售量既与人口的增长变化有关,也与商品价格变化有关。这时采用一元回归分析预测法进行预测是难以奏效的,需要采用多元回归分析预测法。

多元线性回归分析预测法的介绍

6. 回归分析预测法的概念

回归分析预测法(Regression Analysis Prediction Method)回归分析预测法,是在分析市场现象自变量和因变量之间相关关系的基础上,建立变量之间的回归方程,并将回归方程作为预测模型,根据自变量在预测期的数量变化来预测因变量关系大多表现为相关关系,因此,回归分析预测法是一种重要的市场预测方法,当我们在对市场现象未来发展状况和水平进行预测时,如果能将影响市场预测对象的主要因素找到,并且能够取得其数量资料,就可以采用回归分析预测法进行预测。它是一种具体的、行之有效的、实用价值很高的常用市场预测方法,常用于中短期预测。

7. 趋势预测法和回归预测法区别与联系

趋势预测法和回归预测法区别:趋势预测法与回归预测法的区别在于回归预测法考虑到了人力资源需求的外部影响因素。
趋势预测法和回归预测法联系:二者都是预测因变量发展变动趋势和水平的一种方法。
回归预测法是税务预测常用的一种数学预测方法。它是运用一定的数学模型,以一个或几个自变量作为依据,来预测因变量发展变动趋势和水平的一种方法。
趋势分析法是通过对有关指标的各期对基期的变化趋势的分析,从中发现问题,为追索和检查账目提供线索的一种分析方法。例如通过对应收账款的趋势分析,就可对坏账的可能与应催收的货款作出一般评价。趋势分析法可用相对数也可用绝对数。

以下是趋势分析法应用方法的相关介绍:
1、定基动态比率:即用某一时期的数值作为固定的基期指标数值,将其他的各期数值与其对比来分析。其计算公式为:定基动态比率=分析期数值÷固定基期数值。
2、环比动态比率:它是以每一分析期的前期数值为基期数值而计算出来的动态比率,其计算公式为:环比动态比率=分析期数值÷前期数值。
以上资料参考百度百科——趋势分析法

趋势预测法和回归预测法区别与联系

8. 回归分析预测法的分类

回归分析预测法有多种类型。依据相关关系中自变量的个数不同分类,可分为一元回归分析预测法和多元回归分析预测法。在一元回归分析预测法中,自变量只有一个,而在多元回归分析预测法中,自变量有两个以上。依据自变量和因变量之间的相关关系不同,可分为线性回归预测和非线性回归预测。