Большая Советская Энциклопедия (РЕ)
Шрифт:
Е(Y ^eх) = u(х).
Уравнение у = u(х), в котором х играет роль «независимой» переменной, называется уравнением регрессии, а соответствующий график — линией регрессии величины Y по X. Точность, с которой уравнение Р. Y по Х отражает изменение Y в среднем при изменении х, измеряется условной дисперсией величины Y, вычисленной для каждого значения Х = х:
D(Y ^eх) = s2(x).
Если s2(х) = 0
Линии Р. обладают следующим замечательным свойством: среди всех действительных функций f (х) минимум математического ожидания Е[Y — f(X)]2 достигается для функции f(x) = u(х), т. е. Р. Y по Х даёт наилучшее, в указанном смысле, представление величины Y по величине X. Это свойство используется для прогноза Y по X: если значение Y непосредственно не наблюдается и эксперимент позволяет регистрировать лишь компоненту Х вектора (X, Y), то в качестве прогнозируемого значения Y используют величину u (X).
Наиболее простым является случай, когда Р. Y по Х линейна:
Е(Y"ix) = b + b1x.
Коэффициенты b и b1, называются коэффициентами регрессии, определяются равенствами
где mХ и mY — математические ожидания Х и Y,
В случае, когда совместное распределение Х и Y нормально, обе линии Р. у = u(х) и х = u(у) являются прямыми.
Если Р. Y по Х отлична от линейной, то последнее уравнение есть линейная аппроксимация истинного уравнения Р.: математическое ожидание Е[Y — b— b1X]2 достигает минимума b и b1 при b = b и b1 = b1. Особенно часто встречается случай уравнения Р., выражающегося линейной комбинацией тех или иных заданных функций:
у = u(Х) = bj(x) + b1j1(x) + ... + bmjm(x).
Наиболее важное значение имеет параболическая (полиномиальная) Р., при которой j(x) = 1 , j1(x) = x, ..., jm(x) = xm.
Понятие Р. применимо не только к случайным величинам, но и к случайным векторам. В частности, если Y — случайная величина, а Х = (X1, ..., Xk) — случайный вектор, имеющие совместное распределение вероятностей, то Р. Y по X определяется уравнением
y = u ( x1, ..., xk),
где u( x1, ..., xk) = E{Y"iX = x1, ... , Xk = xk}.
Если
u ( x1, ..., xk) = b + b1x1 + ... + bkxk,
то Р. называется линейной. Эта форма уравнения Р. включает в себя многие типы Р. с одной независимой переменной, в частности полиномиальная Р. Y по Х порядка k сводится к линейной Р. Y по X1, ..., Xk, если положить Xk = Xk.
Простым примером Р. Y по Х является зависимость между Y и X, которая выражается соотношением: Y = u(X) + d, где u(x) = Е(Y IX = х), а случайные величины Х и d независимы. Это представление полезно, когда планируется эксперимент для изучения функциональной связи у = u(х) между неслучайными величинами у и х.
На практике обычно коэффициенты Р. в уравнении у = u(х) неизвестны и их оценивают по экспериментальным данным (см. Регрессионный анализ).
Первоначально термин «Р.» был употреблен английским статистиком Ф. Гальтоном (1886) в теории наследственности в следующем специальном смысле: «возвратом к среднему состоянию» (regression to mediocrity) было названо явление, состоящее в том, что дети тех родителей, рост которых превышает среднее значение на а единиц, имеют в среднем рост, превышающий среднее значение меньше чем на а единиц.
Лит.: Крамер Г., Математические методы статистики, пер. с англ., М., 1948; Кендалл М. Дж., Стьюарт А., Статистические выводы и связи, пер. с англ., М., 1973.
А. В. Прохоров.
Регрессия моря
Регре'ссия моря (от лат. regressio — обратное движение, отход), отступание моря от берегов. Происходит в результате поднятия суши, опускания дна океана или уменьшения объёма воды в океанических бассейнах (например, во время ледниковых эпох). Р. происходили многократно в различных районах Земли на протяжении всей её истории. См. также Трансгрессия.