Виды безработицы
Введение
Существующие
между явлениями формы и виды связей весьма разнообразны по своей классификации.
Предметом статистики
<#"826097.files/image001.gif">
где - параметры
модели; - объясняющие
переменные;
- случайный
член.
Случайный член е удовлетворяет тем же предпосылкам (условия
Гаусса-Маркова), что и в модели с парной регрессией, но на объясняющие
переменные наложено условие: случайные члены в любом наблюдении должны быть
статистически независимы от объясняющих переменных.
При выполнении условий Гаусса-Маркова модель называется классической
нормальной линейной регрессионной моделью.
Кроме того, предполагается, что объясняющие переменные некорелированы
друг с другом. На основе п наблюдений оценивается выборочное уравнение
регрессии:
где оценки
параметров
Для оценки параметров регрессии используется метод наименьших квадратов,
в соответствии с которым минимизируется сумма квадратов остатков:
Необходимым условием ее минимума является равенство нулю всех ее частных
производных по .
В результате приходим к системе из (к + 1) линейных уравнений с (к + 1)
неизвестными, называемой системой нормальных уравнений. Ее решение в явном виде
обычно записывается в матричной форме, иначе оно становится слишком громоздким.
Оценки параметров модели и их теоретические дисперсии в матричной форме
определяются выражениями:
где b -вектор с компонентами
Х - матрица значений объясняющих переменных.
Y-вектор
значений зависимой переменной,
- дисперсия
случайного члена.
Несмещенной оценкой является величина (остаточная дисперсия)
Величина S называется стандартной ошибкой регрессии. Заменяя в
теоретических дисперсиях неизвестную дисперсию ее оценкой и извлекая квадратный корень, получим стандартные
ошибки коэффициентов регрессии:
Если предпосылки относительно случайного члена е выполняются, оценки
параметров множественной регрессии являются несмещенными, состоятельными и
эффективными. В дальнейшем определение коэффициентов регрессии и их стандартных
ошибок производится без использования матричной алгебры другие показатели
вычисляются автоматически и одновременно. При этом интерпретация получаемых
показателей так же, как в парной регрессии с учетом числа степеней свободы.
Мультиколлинеарность - это коррелированность двух или не- сколько
объясняющих переменных в уравнении регрессии. При наличии мультиколлинеарности
МНК-оценки формально существуют, но обладают рядом недостатков:
• небольшое изменение исходных данных приводит к существенному изменению
оценок коэффициентов регрессии;
• оценки коэффициентов регрессии имеют большие стандартные ошибки, малую
значимость, в то время как модель в целом является значимой (высокое значение
)
Если при оценке уравнения регрессии несколько факторов оказались
незначимы, то нужно выяснить, нет ли среди них сильно коррелированных между
собой. Для отбора факторов в модель регрессии и оценки их мультиколлинеарности
анализируют корреляционную матрицу. Общий вид корреляционной матрицы,
составленной из переменных y, приведен в следующей таблице:
При наличии корреляции один из пары связанных между собой факторов
исключается. Если статистически незначим лишь один фактор, то он должен быть
исключен. В модель регрессии включаются те факторы, которые более сильно
связаны с зависимой переменной, но слабо связаны с другими факторами.
Корреляционный анализ занимается степенью связи между двумя переменными, x
и y.
Сначала предполагается, что как x, так и y количественные,
например рост и масса тела.
Обычно на графике переменную x располагают на горизонтальной оси,
а у - на вертикальной.