回归分析参数模型
回归分析(Regresion)是通过分析数据拟合因变量与自变量之间的关系式,来检验影响变量的显著程度。例如,利用多元线性回归,建立满意度模型方程“总体满意度=a+b1*产品满意度+b2*服务满意度+b3*价格满意度”。一般情况下,通过上述方程就可以分析各环节满意度对总体满意度的影响,相类似的,我们也可以分析一些细项对各环节满意度的影响。
因此,回归分析可以算得上是一种有效且易用的方法。但是,在使用回归分析方法时,一定要注意其技术本身所存在的一些局限性:
回归分析的局限性
首先,回归分析无法解决多重共线的问题。
多重共线指的是多个变量之间存在相关甚至高度相关,这种现象在实际调研中是经常出现的,但回归分析无法解决这一问题。例如,在一项关于乘客对乘车环境的满意度研究中,得到这样一个回归方程,Y=0.276+0.073*站内环境+0.053*乘车方便性-0.042*站内安全感+0.033*车内环境-0.023*乘车方便性+0.022*广播质量+……。这个方程有个很奇怪的地方,站内安全感和乘车方便性对总体满意度的影响是负向的,这是有悖于常理的结果,也可以说是不正确的结果。出现这样结果的主要原因是自变量之间存在高度相关,也就是所谓的多重共线性的问题。
其次,回归方法使用的前提假设条件是各观测变量不存在测量误差,即各观测变量都已被百分之百真实测量出来,而这一假设在测量理论和实际操作中都是不可能满足的。经典测量理论认为:测验分数=真分数+误差分数,误差分数是无法避免的。同样,在实际操作过程中,系统误差和随机误差也是人力和主观愿望所无法控制的,但回归方法由于其方法本身的局限无法解决这一问题。所以,如果测量误差越大,回归分析所得结果的误差也越大。