Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


Нелинейные модели парной регрессии и корреляции



 

Когда между экономическими явлениями существуют нелинейные соотношения, то их выражают с помощью соответствующих нелинейных функций. Принято различать два класса нелинейных регрессий:

1. Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам:

– полиномы различных степеней: ,

;

– равносторонняя гипербола: ;

– полулогарифмическая функция: .

2. Регрессии, нелинейные по оцениваемым параметрам:

– степенная: ;

– показательная: ;

– экспоненциальная: .

Регрессии, нелинейные по включенным переменным, приводятся к линейному виду простой заменой переменных (метод выравнивания). Дальнейшую оценку параметров производят с помощью метода наименьших квадратов.

Следует рассмотреть некоторые из функций.

Параболу второй степени приводят к линейному виду с помощью замены: . В результате приходят к двухфакторному уравнению вида , оценку параметров которого приводят при помощи МНК к системе следующих нормальных уравнений:

 

 

После обратной замены переменных получают:

 

(1.72)

 

Параболу второй степени часто применяют в случаях, когда для определенного интервала значений фактора меняется характер связи рассматриваемых признаков: прямая связь меняется на обратную или наоборот.

Равностороннюю гиперболу используют для характеристики связи удельных расходов ресурсов от объема выпускаемой продукции. Гиперболу приводят к линейному уравнению простой заменой: . Система линейных уравнений при применении МНК выглядит следующим образом:

 

(1.73)

 

Аналогичным образом приводят к линейному виду зависимости , и другие.

Несколько иначе обстоит дело с регрессиями нелинейными по оцениваемым параметрам, которые делятся на два типа: нелинейные моделивнутренне линейные (приводятся к линейному виду с помощью логарифмирования) и нелинейные модели внутренне нелинейные (к линейному виду не приводятся).

К внутренне линейным моделям относятся, например, степенная функция – , показательная – , экспоненциальная – , логистическая – , обратная – .

К внутренне нелинейным моделям можно отнести модели вида: , .

Среди нелинейных моделей наиболее часто используют степенную функцию , которую приводят к линейному виду логарифмированием.

;

;

,

 

где , т.е. МНК применяют для преобразованных данных:

 

а затем потенцированием находят искомое уравнение.

Широкое применение степенной функции связано с тем, что параметр в ней имеет четкое экономическое истолкование – он является коэффициентом эластичности, показывающим на сколько процентов изменится в среднем результат, если фактор изменится на 1%. Формула для расчета коэффициента эластичности имеет вид:

 

. (1.74)

 

Средний коэффициент эластичности:

. (1.75)

Формулы расчета средних коэффициентов эластичности для наиболее часто используемых типов уравнений регрессии представлены в табл. 1.13.

 

Таблица 1.13

Вид функции, Первая производная, Средний коэффициент эластичности,

Для некоторых элементарных функций линеаризующие преобразования приведены в табл. 1.14.

Таблица 1.14

Регрессия Метод выравнивания (линеаризация данных - приведения к линейной зависимости Y = AX + B) Необходимые условия
Y X A B
линейная y = a x + b y x a b
степенная ln y ln x, ln a b
экспоненциальная ln y x ln a ln b
гиперболическая xy x a b
гиперболическая 1/y x a b
логарифмическая y = alnx + b y ln x a b

 

Выбор эмпирической формулы сделан правильно, если выровненные точки хорошо ложатся на прямую.

Если характер исследуемой зависимости неизвестен и в корреляционном поле около построенных точек предполагается проведение разных по типу линий, при этом никаких теоретических соображений по этому поводу сделать нельзя. В таких случаях для выбора одной из них, характеризующей наилучшим образом зависимость между признаками и , кроме описанного выше метода выравнивания (линеаризации данных) производят либо проверку необходимых условий, либо применяют метод конечных разностей.

Проверку необходимых условий для выбора одной из предполагаемых нелинейных зависимостей проводят, пользуясь табл. 1.14. Если выполняется одно из условий последнего столбца таблицы, то выбирают в качестве предполагаемой формулы соответствующую формулу, стоящую в первом столбце таблицы рассматриваемой строки.

Если в таблице опытных данных отсутствуют значения функции, вычисленные в последнем столбце таблицы при выбранных значениях аргумента, то их находят линейным интерполированием по формуле:

 

, (1.76)

 

где и – два рядом стоящих значения признака в таблице опытных данных, между которыми находится значение , вычисленное по табл. 1.14 последнего столбца.

 

Для всех предполагаемых формул по результатам последнего столбца табл. 1.14 вычисляют отклонения правой части от левой необходимого условия. Вычисленные отклонения сравнивают и по наименьшему из них выбирают окончательно одну из формул.

Метод конечных разностей заключается в том, что для обоснования выбора зависимости, первоначально, предполагаемую формулу сводят к линейной по табл. 1.14, затем вычисляют конечные разности первого порядка , и отношения . Аналитическим критерием выбора формулы по этому методу служит тот факт, что отношения мало отличаются друг от друга для выбранной формулы.

Конечные разности находят, пользуясь табл. 1.15.

 

Таблица 1.15

x x0 x1 x2 x3 xn-1 xn
y y0 y1 y2 y3 yn-1 yn
∆ y ∆ y0 ∆ y1 ∆ y2 ∆ y3 ∆ yn-1
2y 2y0 2y1 2y2 2y3 2yn-2
                             

 

Уравнение нелинейной регрессии дополняют расчетом показателя тесноты связи - индекса корреляции:

, (1.77)

 

где – общая дисперсия результативного признака ;

– остаточная дисперсия.

 

Величина данного показателя находится в пределах: . Чем ближе значение индекса корреляции к единице, тем теснее связь между рассматриваемыми признаками, тем более надежно уравнение регрессии.

Квадрат индекса корреляции носит название индекса детерминации и характеризует долю дисперсии результативного признака , объясняемую регрессией, в общей дисперсии результативного признака .

 

Индекс детерминации используют для проверки существенности в целом уравнения регрессии по -критерию Фишера:

 

, (1.78)

 

где – индекс детерминации,

– число наблюдений,

– число параметров при переменной .

 

Фактическое значение -критерия (1.78) сравнивают с табличным при уровне значимости и числе степеней свободы (для остаточной суммы квадратов) и (для факторной суммы квадратов).

О качестве нелинейного уравнения регрессии можно также судить и по средней ошибке аппроксимации, которая, так же как и в линейном случае, вычисляется на основании формулы (1.63).

 

Контрольные вопросы

 

1. Дать определение корреляционной зависимости между двумя признаками и .

2. Дать определение условной средней признака и записать формулу для ее нахождения.

3. Записать уравнения регрессий y на x и x на y, используя коэффициент линейной корреляции r.

4. Дать определение коэффициента линейной корреляции, сформулировать его свойства.

5. Как определяется значимость коэффициента линейной корреляции?

6. Записать доверительные интервалы для оценки коэффициента линейной корреляции.

7. Записать формулу для нахождения коэффициента детерминации в случае парной линейной корреляции и рассказать о его назначении.

8. Как производится оценка коэффициентов и уравнения линейной регрессии ?

9. Записать систему нормальных уравнений для нахождения коэффициентов , , уравнения регрессии .

10. Рассказать о применении необходимых условий выбора одной из предполагаемых нелинейных зависимостей.

11. Рассказать об установлении тесноты связи между признаками в случае нелинейной зависимости с помощью корреляционного отношения и индекса корреляции.

12. Как осуществляется проверка адекватности нелинейной регрессионной модели?


Поделиться:



Популярное:

Последнее изменение этой страницы: 2016-04-10; Просмотров: 1001; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.027 с.)
Главная | Случайная страница | Обратная связь