Что означает низкое значение коэффициента множественной корреляции. Расчёт множественных коэффициентов корреляции
Коэффициент множественной корреляции
Если частные коэффициенты корреляции модели множественной регрессии оказались значимыми, т. е. между результативной переменной и факторными модельными переменными действительно существует корреляционная взаимосвязь, то в этом случае построение множественного коэффициента корреляции считается целесообразным.
С помощью множественного коэффициента корреляции характеризуется совокупное влияние всех факторных переменных на результативную переменную в модели множественной регрессии.
Формула для определения коэффициента корреляции уравнения множественной регрессии через матрицу парных коэффициентов корреляции:
где - определитель матрицы парных коэффициентов корреляции;
Определитель матрицы межфакторной корреляции.
Как видно из формул, величина множественного коэффициента корреляции зависит не только от корреляции результата с каждым из факторов, но и от межфакторной корреляции. Рассмотренная формула позволяет определять совокупный коэффициент корреляции, не обращаясь при этом к уравнению множественной регрессии, а используя лишь парные коэффициенты корреляции.
Таблица 17 - Результаты расчетов множественного коэффициента корреляции
Оценка качества построенной модели
Коэффициентом множественной детерминации R 2 называется квадрат множественного коэффициента корреляции.
Коэффициент множественной детерминации характеризует, на сколько процентов построенная модель регрессии объясняет вариацию значений результативной переменной относительно своего среднего уровня, т. е. показывает долю общей дисперсии результативной переменной, объяснённой вариацией факторных переменных, включённых в модель регрессии. Чем больше значение коэффициента множественной детерминации, тем лучше построенная модель регрессии характеризует взаимосвязь между переменными.
Для коэффициента множественной детерминации всегда выполняется неравенство вида:
Следовательно, включение в линейную модель регрессии дополнительной факторной переменной не снижает значения коэффициента множественной детерминации.
Таблица 18 - Рассчитанные коэффициенты детерминации
Для того чтобы не допустить преувеличения тесноты связи, применяется скорректированный индекс множественной детерминации, который содержит поправку на число степеней свободы и рассчитывается по формуле:
где n - объем выборки, m - число переменных в уравнении множественной регрессии. При небольшом числе наблюдений нескорректированная величина коэффициента множественной детерминации R 2 имеет тенденцию переоценивать долю вариации результативного признака, связанную с влиянием факторов, включенных в регрессионную модель.
Таблица 19 - Скорректированный индекс множественной детерминации
Высокие величины коэффициентов детерминации R 2 указывают на то, что модели регрессии хорошо аппроксимируют исходные данные и такими регрессионными моделями можно воспользоваться для прогноза значений результативного показателя.
Проверить значимость (качество) уравнения регрессии - значит установить, соответствует ли математическая модель, выражающая зависимость между переменными, экспериментальным данным, достаточно ли включенных в уравнение объясняющих переменных для описания зависимой переменной. Чтобы иметь общее суждение о качестве модели, по каждому наблюдению из относительных отклонений определяют среднюю ошибку аппроксимации. Проверка адекватности уравнения регрессии (модели) осуществляется с помощью средней ошибки аппроксимации, величина которой не должна превышать 12-15% (максимально допустимое значение).
Формула для расчета средней ошибки аппроксимации:
где n - число переменных в уравнении множественной регрессии; f(x i1 , x i2 , …, x in) - i-е расчетное значение переменной y; - i-е опытное значение переменной y.
Таблица 20 - Средняя ошибка аппроксимации
Как видно из результата расчетов, средние ошибки аппроксимации не превышают допустимые значения в 12-15%, что говорит об адекватности полученных моделей.
Проверка значимости коэффициентов линейного уравнения множественной регрессии.
Проверка значимости отдельных коэффициентов уравнения означает, что если коэффициент при некоторой переменной незначим, то доверять влиянию этой переменной на значения результирующей функции y нельзя. Незначимый коэффициент следует положить равным нулю, т.е. соответствующую переменную следует исключить из дальнейшего рассмотрения.
Для проверки значимости каждого из коэффициентов a 0 , a 1 ,…, a n используется t-статистика Стьюдента, опытное значение которой вычисляется по формуле:
, (i=0,1,…,n), (18)
где a i - коэффициент при переменной x i , - среднеквадратическая ошибка этого коэффициента,
где - среднее квадратичное отклонение для значений переменной y; - среднее квадратичное отклонение для значений x i ; - коэффициент множественной детерминации для уравнения регрессии в целом; - коэффициент множественной детерминации, характеризующий зависимость между фактором x i и остальными факторами (x 1 , x 2 ,…, x i-1 , x i+1 ,…, x n)уравнения регрессии.
Каждое из опытных значений статистики сравнивают с критическим значением (i=1,2,…,n), которое ищется по таблице распределения Стьюдента при заданном уровне значимости б и числе степеней свободы k, равном k=m-n-1. В данном случае при уровне значимости б=0,05 и k=13-3-1=9 =2,26.
Таблица 21 - Рассчитанные опытные значения t - статистики Стьюдента
Если > , то гипотеза о значимости коэффициента a i не отвергается, и соответствующая переменная x i остается в уравнении. В противном случае коэффициент a i считается незначимым и соответствующую ему переменную следует исключить из уравнения регрессии. Таким образом, сравнив полученные опытные значения с критическим, можно сделать вывод, что незначимых коэффициентов во всех четырех уравнениях нет.
Проверка значимости линейного уравнения множественной регрессии в целом
Если окажется, что при заданном уровне значимости б уравнение незначимо, то пользоваться им нельзя, а найденной зависимостью следует пренебречь.
Для проверки значимости уравнения регрессии используется опытная F-статистика Фишера:
где m - объем выборки; n - число переменных в уравнении множественной регрессии; f(x i1 , x i2 , …, x in) - i-е расчетное значение переменной y; - среднее опытных значений случайной величины Y.
Полученные опытные значения критерия Фишера сравниваются с критическими значениями =F(б;k 1 ;k 2) при выбранном уровне значимости б. Число степеней свободы k 1 = m - n - 1, k 2 = n.
При выбранном уровне значимости б=0,05 и числе степеней свободы k 1 = 13 - 3 - 1= 9, k 2 = 3 =8,81
Таблица 22 - Рассчитанные опытные значения критерия Фишера
При сравнении опытных значений критериев Фишера с критическим (при уровне значимости б=0,05 F кр =8,81), все они удовлетворяют неравенству F оп > F кр и делается вывод, что с вероятностью p=1-б=0,95 все уравнения значимы, и мы получаем определенные основания доверять построенным уравнениям регрессии.
Оценка точности линейного уравнения множественной регрессии
Заключительная статистическая процедура - оценка точности построенных уравнений регрессии.
Оценка близости опытных значений y i случайной величины Y и ее расчетных значений f(x i), получаемых с помощью уравнения линейной регрессии, выполняется с помощью среднеквадратической погрешности по следующей формуле:
Таблица 23 - Результаты расчета среднеквадратичной погрешности уравнений
При изучении сложных явлений необходимо учитывать более двух случайных факторов. Правильное представление о природе связи между этими факторами можно получить только в том случае, если подвергнуть исследованию сразу все рассматриваемые случайные факторы. Совместное изучение трех и более случайных факторов позволит исследователю установить более или менее обоснованные предположения о причинных зависимостях между изучаемыми явлениями. Простой формой множественной связи является линейная зависимость между тремя признаками. Случайные факторы обозначаются как X 1 , X 2 и X 3 . Парный коэффициенты корреляции между X 1 и X 2 обозначается как r 12 , соответственно между X 1 и X 3 - r 12 , между X 2 и X 3 - r 23 . В качестве меры тесноты линейной связи трех признаков используют множественные коэф-фициенты корреляции, обозначаемые R 1 ּ 23 , R 2 ּ 13 , R 3 ּ 12 и частные коэффициенты корреляции, обозначаемые r 12.3 , r 13.2 , r 23.1 .
Множественный коэффициент корреляции R 1.23 трех факторов - это показатель тесноты линейной связи между одним из факторов (индекс перед точкой) и совокупностью двух других факторов (индексы после точки).
Значения коэффициента R всегда находятся в пределах от 0 до 1. При приближении R к единице степень линейной связи трех признаков увеличивается.
Между коэффициентом множественной корреляции, например R 2 ּ 13 , и двумя коэффициентами парной корреляции r 12 и r 23 существует соотношение: каждый из парных коэффициентов не может превышать по абсолютной величине R 2 ּ 13 .
Формулы для вычисления множественных коэффициентов корреляции при известных значениях коэффициентов парной корреляции r 12 , r 13 и r 23 имеют вид:
Квадрат коэффициента множественной корреляции R 2 называется коэффициентом множественной детерминации. Он показывает долю вариации зависимой переменной под воздействием изучаемых факторов.
Значимость множественной корреляции оценивается по F -критерию:
n – объем выборки; k – число факторов. В нашем случае k = 3.
нулевая гипотеза о равенстве множественного коэффициента корреляции в совокупности нулю (h o
:r
=0)принимается, если f
ф <f t
, и отвергается, если
f
ф ³ f
т.
теоретическое значение f -критерия определяется для v 1 = k - 1 и v 2 = n - k степеней свободы и принятого уровня значимости a (приложение 1).
Пример вычисления коэффициента множественной корреляции . При изучении взаимосвязи между факторами были получены коэффициенты парной корреляции (n =15): r 12 ==0,6; г 13 = 0,3; r 23 = - 0,2.
Необходимо выяснить зависимость признака X 2 от признака X 1 и X 3 , т. е. рассчитать коэффициент множественной корреляции:
Табличное значение F -критерия при n 1 = 2 и n 2 = 15 – 3 = 12 степенях свободы при a = 0,05 F 0,05 = 3,89 и при a = 0,01 F 0,01 = 6,93.
Таким образом, взаимосвязь между признаками R
2.13 = 0,74 значима на
1%-ном уровне значимости F
ф > F
0,01 .
Судя по коэффициенту множественной детерминации R 2 = (0,74) 2 = 0,55, вариация признака X 2 на 55% связана с действием изучаемых факторов, а 45% вариации (1-R 2) не может быть объяснено влиянием этих переменных.
Частная линейная корреляция
Частный коэффициент корреляции - это показатель, измеряющий степень сопряженности двух признаков.
Математическая статистика позволяет установить корреляцию между двумя признаками при постоянном значении третьего, не ставя специального эксперимента, а используя парные коэффициенты корреляции r 12 , r 13 , r 23 .
Частные коэффициенты корреляции рассчитывают по формулам:
Цифры перед точкой указывают, между какими признаками изучается зависимость, а цифра после точки - влияние какого признака исключается (элиминируется). Ошибку и критерий значимости частной корреляции определяют по тем же формулам, что и парной корреляции:
.
Теоретическое значение t- критерия определяется для v = n – 2 степеней свободы и принятого уровня значимости a (приложение 1).
Нулевая гипотеза о равенстве частного коэффициента корреляции в совокупности нулю (H o
: r
= 0)принимается, если t
ф < t
т, и отвергается, если
t
ф ³ t
т.
Частные коэффициенты могут принимать значения, заключенные между -1 и+1. Частные коэффициенты детерминации находят путем возведения в квадрат частных коэффициентов корреляции:
D 12.3 = r 2 12ּ3 ; d 13.2 = r 2 13ּ2 ; d 23ּ1 = r 2 23ּ1 .
Определение степени частного воздействия отдельных факторов на результативный признак при исключении (элиминировании) связи его с другими признаками, искажающими эту корреляцию, часто представляет большой интерес. Иногда бывает, что при постоянном значении элиминируемого признака нельзя подметить его статистического влияния на изменчивость других признаков. Чтобы уяснить технику расчета частного коэффициента корреляции, рассмотрим пример. Имеются три параметра X , Y и Z . Для объема выборки n = 180 определены парные коэффициенты корреляции
r xy = 0,799; r xz = 0,57; r yz = 0,507.
Определим частные коэффициенты корреляции:
Частный коэффициент корреляции между параметром X и Y Z (r хуּz = 0,720) показывает, что лишь незначительная часть взаимосвязи этих признаков в общей корреляции (r xy = 0,799) обусловлена влиянием третьего признака (Z ). Аналогичное заключение необходимо сделать и в отношении частного коэффициента корреляции между параметром X и параметром Z с постоянным значением параметраY (r х z ּу = 0,318 и r xz = 0,57). Напротив, частный коэффициент корреляции между параметрами Y и Z с постоянным значением параметра X r yz ּx = 0,105 значительно отличается от общего коэффициента корреляции r у z = 0,507. Из этого видно, что если подобрать объекты с одинаковым значением параметра X , то связь между признаками Y и Z у них будет очень слабой, так как значительная часть в этой взаимосвязи обусловлена варьированием параметра X .
При некоторых обстоятельствах частный коэффициент корреляции может оказаться противоположным по знаку парному.
Например, при изучении взаимосвязи между признаками X, У
и Z
- были получены парные коэффициенты корреляции (при n
= 100): r
ху = 0,6; r
х z
= 0,9;
r у z
= 0,4.
Частные коэффициенты корреляции при исключении влияния третьего признака:
Из примера видно, что значения парного коэффициента и частного коэффициента корреляции разнятся в знаке.
Метод частной корреляции дает возможность вычислить частный коэффициент корреляции второго порядка. Этот коэффициент указывает на взаимосвязь между первым и вторым признаком при постоянном значении третьего и четвертого. Определение частного коэффициента второго порядка ведут на основе частных коэффициентов первого порядка по формуле:
где r 12 . 4 , r 13 ּ4 , r 23 ּ4 - частные коэффициенты, значение которых определяют по формуле частного коэффициента, используя коэффициенты парной корреляции r 12 , r 13 , r 14 , r 23 , r 24 , r 34 .
Для определения степени зависимости между несколькими показателями применяется множественные коэффициенты корреляции. Их затем сводят в отдельную таблицу, которая имеет название корреляционной матрицы. Наименованиями строк и столбцов такой матрицы являются названия параметров, зависимость которых друг от друга устанавливается. На пересечении строк и столбцов располагаются соответствующие коэффициенты корреляции. Давайте выясним, как можно провести подобный расчет с помощью инструментов Excel.
Принято следующим образом определять уровень взаимосвязи между различными показателями, в зависимости от коэффициента корреляции:
- 0 – 0,3 – связь отсутствует;
- 0,3 – 0,5 – связь слабая;
- 0,5 – 0,7 – средняя связь;
- 0,7 – 0,9 – высокая;
- 0,9 – 1 – очень сильная.
Если корреляционный коэффициент отрицательный, то это значит, что связь параметров обратная.
Для того, чтобы составить корреляционную матрицу в Экселе, используется один инструмент, входящий в пакет «Анализ данных» . Он так и называется – «Корреляция» . Давайте узнаем, как с помощью него можно вычислить показатели множественной корреляции.
Этап 1: активация пакета анализа
Сразу нужно сказать, что по умолчанию пакет «Анализ данных» отключен. Поэтому, прежде чем приступить к процедуре непосредственного вычисления коэффициентов корреляции, нужно его активировать. К сожалению, далеко не каждый пользователь знает, как это делать. Поэтому мы остановимся на данном вопросе.
После указанного действия пакет инструментов «Анализ данных» будет активирован.
Этап 2: расчет коэффициента
Теперь можно переходить непосредственно к расчету множественного коэффициента корреляции. Давайте на примере представленной ниже таблицы показателей производительности труда, фондовооруженности и энерговооруженности на различных предприятиях рассчитаем множественный коэффициент корреляции указанных факторов.
Этап 3: анализ полученного результата
Теперь давайте разберемся, как понимать тот результат, который мы получили в процессе обработки данных инструментом «Корреляция» в программе Excel.
Как видим из таблицы, коэффициент корреляции фондовооруженности (Столбец 2 ) и энерговооруженности (Столбец 1 ) составляет 0,92, что соответствует очень сильной взаимосвязи. Между производительностью труда (Столбец 3 ) и энерговооруженностью (Столбец 1 ) данный показатель равен 0,72, что является высокой степенью зависимости. Коэффициент корреляции между производительностью труда (Столбец 3 ) и фондовооруженностью (Столбец 2 ) равен 0,88, что тоже соответствует высокой степени зависимости. Таким образом, можно сказать, что зависимость между всеми изучаемыми факторами прослеживается довольно сильная.
Как видим, пакет «Анализ данных» в Экселе представляет собой очень удобный и довольно легкий в обращении инструмент для определения множественного коэффициента корреляции. С его же помощью можно производить расчет и обычной корреляции между двумя факторами.
Практическая значимость уравнения множественной регрессии оценивается с помощью показателя множественной корреляции и его квадрата – коэффициента детерминации.
Коэффициент детерминации показывает долю вариации результативного признака, находящегося под воздействием факторных признаков, т.е. определяет, какая доля вариации признака у учтена в модели и обусловлена влиянием на него факторов, включенных в модель:
Множественный коэффициент корреляции может быть найден как корень квадратный из коэффициента детерминации. Чем ближе коэффициент корреляции к единице, тем теснее связь между результатом и всеми факторами и уравнение регрессии лучше описывает фактические данные. Если множественный коэффициент корреляции близок к нулю, то уравнение регрессии плохо описывает фактические данные, и факторы оказывают слабое влияние на результат. Этот коэффициент в отличие от парного коэффициента корреляции не может быть использован для интерпретации направления связи.
Значение коэффициента множественной корреляции больше или равно величине максимально коэффициента парной корреляции:
Для линейной множественной регрессии коэффициент множественной корреляции может быть рассчитан по следующей формуле:
Соответственно множественный коэффициент детерминации:
Существует еще одна формула для расчета множественного коэффициента корреляции для линейной регрессии:
где - определитель полной матрицы линейных парных коэффициентов корреляции (т.е. включающей парные линейные коэффициенты корреляции факторов с результатом и между собой):
Определитель матрицы линейных парных коэффициентов корреляции факторов между собой:
Рассчитывается также скорректированный коэффициент детерминации:
где n – число наблюдений;
m – число параметров уравнения регрессии без учета свободного члена (для линейной регрессии, например, это число равно числу факторов, включенных в модель).
Скорректированный коэффициент детерминации применяется для решения двух задач: оценки реальной тесноты связи между результатом и факторами и сравнения моделей с разным числом параметров. В первом случае обращают внимание на близость скорректированного и нескорректированного коэффициентов детерминации. Если эти показатели велики и различаются незначительно, модель считается хорошей.
При сравнении разных моделей предпочтение при прочих равных условиях отдается той, у которой больше скорректированный коэффициент детерминации.
Следует отметить, что область применения скорректированного коэффициента детерминации ограничивается только этими задачами. Его нельзя использовать в формулах, где применяется обычный коэффициент детерминации. Скорректированный коэффициент детерминации нельзя интерпретировать как долю вариации результата, объясненную вариацией факторов, включенных в модель регрессии.
Для проверки существенности коэффициента множественной корреляции используют F -критерий Фишера, который определяется по формуле:
где R 2 – множественный коэффициент детерминации;
m – число параметров при факторах х в уравнении множественной регрессии (в парной регрессии m =1).
Полученное значение F-критерия сравнивается с табличным при определенном уровне значимости и m и n-m-1 степенях свободы. Если расчетное значение F -критерия больше табличного, уравнение множественной регрессии признается значимым.
Коэффициент корреляции - это степень связи между двумя переменными. Его расчет дает представление о том, есть ли зависимость между двумя массивами данных. В отличие от регрессии, корреляция не позволяет предсказывать значения величин. Однако расчет коэффициента является важным этапом предварительного статистического анализа. Например, мы установили, что коэффициент корреляции между уровнем прямых иностранных инвестиций и темпом роста ВВП является высоким. Это дает нам представление о том, что для обеспечения благосостояния нужно создать благоприятный климат именно для зарубежных предпринимателей. Не такой уж и очевидный вывод на первый взгляд!
Корреляция и причинность
Пожалуй, нет ни одной сферы статистики, которая бы так прочно вошла в нашу жизнь. Коэффициент корреляции используется во всех областях общественных знаний. Основная его опасность заключается в том, что зачастую его высокими значениями спекулируют для того, чтобы убедить людей и заставить их поверить в какие-то выводы. Однако на самом деле сильная корреляция отнюдь не свидетельствует о причинно-следственной зависимости между величинами.
Коэффициент корреляции: формула Пирсона и Спирмана
Существует несколько основных показателей, которые характеризуют связь между двумя переменными. Исторически первым является коэффициент линейной корреляции Пирсона. Его проходят еще в школе. Он был разработан К. Пирсоном и Дж. Юлом на основе работ Фр. Гальтона. Этот коэффициент позволяет увидеть взаимосвязь между рациональными числами, которые изменяются рационально. Он всегда больше -1 и меньше 1. Отрицательно число свидетельствует об обратно пропорциональной зависимости. Если коэффициент равен нулю, то связи между переменными нет. Равен положительному числу - имеет место прямо пропорциональная зависимость между исследуемыми величинами. Коэффициент ранговой корреляции Спирмана позволяет упростить расчеты за счет построения иерархии значений переменных.
Отношения между переменными
Корреляция помогает найти ответ на два вопроса. Во-первых, является ли связь между переменными положительной или отрицательной. Во-вторых, насколько сильна зависимость. Корреляционный анализ является мощным инструментом, с помощью которого можно получить эту важную информацию. Легко увидеть, что семейные доходы и расходы падают и растут пропорционально. Такая связь считается положительной. Напротив, при росте цены на товар, спрос на него падает. Такую связь называют отрицательной. Значения коэффициента корреляции находятся в пределах между -1 и 1. Нуль означает, что зависимости между исследуемыми величинами нет. Чем ближе полученный показатель к крайним значениям, тем сильнее связь (отрицательная или положительная). Об отсутствии зависимости свидетельствует коэффициент от -0,1 до 0,1. Нужно понимать, что такое значение свидетельствует только об отсутствии линейной связи.
Особенности применения
Использование обоих показателей сопряжено с определенными допущениями. Во-первых, наличие сильной связи, не обуславливает того факта, что одна величина определяет другую. Вполне может существовать третья величина, которая определяет каждую из них. Во-вторых, высокий коэффициент корреляции Пирсона не свидетельствует о причинно-следственной связи между исследуемыми переменными. В-третьих, он показывает исключительно линейную зависимость. Корреляция может использоваться для оценки значимых количественных данных (например, атмосферного давления, температуры воздуха), а не таких категорий, как пол или любимый цвет.
Множественный коэффициент корреляции
Пирсон и Спирман исследовали связь между двумя переменными. Но как действовать в том случае, если их три или даже больше. Здесь на помощь приходит множественный коэффициент корреляции. Например, на валовый национальный продукт влияют не только прямые иностранные инвестиции, но и монетарная и фискальная политика государства, а также уровень экспорта. Темп роста и объем ВВП - это результат взаимодействия целого ряда факторов. Однако нужно понимать, что модель множественной корреляции основывается на целом ряде упрощений и допущений. Во-первых, исключается мультиколлинеарность между величинами. Во-вторых, связь между зависимой и оказывающими на нее влияние переменными считается линейной.
Области использования корреляционно-регрессионного анализа
Данный метод нахождения взаимосвязи между величинами широко применяется в статистике. К нему чаще всего прибегают в трех основных случаях:
- Для тестирования причинно-следственных связей между значениями двух переменных. В результате исследователь надеется обнаружить линейную зависимость и вывести формулу, которая описывает эти отношения между величинами. Единицы их измерения могут быть различными.
- Для проверки наличия связи между величинами. В этом случае никто не определяет, какая переменная является зависимой. Может оказаться, что значение обеих величин обуславливает какой-то другой фактор.
- Для вывода уравнения. В этом случае можно просто подставить в него числа и узнать значения неизвестной переменной.
Человек в поисках причинно-следственной связи
Сознание устроено таким образом, что нам обязательно нужно объяснить события, которые происходят вокруг. Человек всегда ищет связь между картиной мира, в котором он живет, и получаемой информацией. Часто мозг создает порядок из хаоса. Он запросто может увидеть причинно-следственную связь там, где ее нет. Ученым приходится специально учиться преодолевать эту тенденцию. Способность оценивать связи между данными объективно необходима в академической карьере.
Предвзятость средств массовой информации
Рассмотрим, как наличие корреляционной связи может быть неправильно истолковано. Группу британских студентов, отличающихся плохим поведением, опросили относительно того, курят ли их родители. Потом тест опубликовали в газете. Результат показал сильную корреляцию между курением родителей и правонарушениями их детей. Профессор, который проводил это исследование, даже предложил поместить на пачки сигарет предупреждение об этом. Однако существует целый ряд проблем с таким выводом. Во-первых, корреляция не показывает, какая из величин является независимой. Поэтому вполне можно предположить, что пагубная привычка родителей вызвана непослушанием детей. Во-вторых, нельзя с уверенностью сказать, что обе проблемы не появились из-за какого-то третьего фактора. Например, низкого дохода семей. Следует отметить эмоциональный аспект первоначальных выводов профессора, который проводил исследование. Он был ярым противником курения. Поэтому нет ничего удивительного в том, что он интерпретировал результаты своего исследования именно так.
Выводы
Неправильное толкование корреляции как причинно-следственной связи между двумя переменными может стать причиной позорных ошибок в исследованиях. Проблема состоит в том, что оно лежит в самой основе человеческого сознания. Многие маркетинговые трюки построены именно на этой особенности. Понимание различия между причинно-следственной связью и корреляцией позволяет рационально анализировать информацию как в повседневной жизни, так и в профессиональной карьере.