4.6.3.4. Меры связи

Учебное пособие. Спб.: Издательство «Речь», 2003. 480 с. Ббк88

4.6.3.4. Меры связи

Вторичная обработка завершает анализ данных и подготавливает их к синтезированию знаний на стадиях объяснения и выводов. Даже если эти последние этапы по каким-либо причинам не могут быть выполнены, исследование может считаться состоявшимся, поскольку завершилось получением результатов.

В основном вторичная обработка заключается в статистическом анализе итогов первичной обработки.

Как специфический вид вторичной обработки, по нашему мнению, выступает шкалирование, совмещающее математический, логический и эмпирический анализы данных, но в этом параграфе остановимся лишь на статистической обработке данных.

Уже табулирование и построение графиков, строго говоря, тоже есть статистическая обработка, которая в совокупности с вычислением мер центральной тенденции и разброса включается в один из разделов статистики, а именно в описательную статистику.

Другой раздел статистики – индуктивная статистика – осуществляет проверку соответствия данных выборки всей популяции, т. е. решает проблему репрезентативности результатов и возможности перехода от частного знания к общему [44, 158, 179, 187]. Третий большой раздел – корреляционная статистика – выявляет связи между явлениями.

Статистика имеет мощный и подчас труднодоступный для неподготовленного исследователя аппарат. Поэтому надо сделать два замечания. Первое – статистическая обработка является неотъемлемой частью современного психологического исследования. Избежать ее практически невозможно (особенно в эмпирических исследованиях).

Отсюда вытекает необходимость специалисту-психологу хорошо знать основы математики и статистики и важнейшие методы математико-статистического анализа психологической информации. Неизбежность статистики в психологии обусловлена массовостью психологического материала, поскольку все время приходится один и тот же эффект регистрировать по многу раз.

Причина же необходимости многократных замеров кроется в самой природе психических явлений, устойчивость которых относительна, а изменчивость абсолютна. Классическим примером тому может служить непрерывная флуктуация сенсорных порогов, породившая знаменитую «пороговую проблему». Поэтому вероятностный подход неизбежный путь к познанию психического.

А статистические методы способ реализации этого подхода.

Кстати, надо заметить, что формирующаяся с начала XX столетия новая картина мира, постепенно вытесняющая ньютонов-ско-картезианскую модель мироздания, одним из своих важнейших компонентов имеет как раз представление о преобладании статистико-вероятностных закономерностей над причинно-следственными.

По крайней мере, это достаточно убедительно продемонстрировано для микроскопического (субатомного) и мегаскопического (космического) уровней организации мира [43,101, 233,260,302,409]. Логично предположить, что это в какой-то степени справедливо и для среднего (макроскопического) уровня, в границах которого и возможно, по-видимому, говорить о психике, личности и тому подобных категориях.

Надо полагать, что именно в этом ключе следует понимать замечание Б. Г. Ананьева о вероятностном характере психической деятельности и о необходимости единства детерминистического и вероятностного подходов к исследованию психических явлений [10, с. 283].

В связи с этим вызывает, по меньшей мере, недоумение бытующее в психологических кругах мнение, что соединение психологической проблематики с ее математическим анализом – это «брак по принуждению или недоразумению», где психология – «невеста без приданого».

Вынуждена же психология вступить в этот «брак» якобы потому, что «не смогла пока еще доказать, что строится на принципиально иных основах», нежели точные науки [344, с. 5–6]. Эти же «принципиально иные основы» вроде бы обусловлены тем, что предмет исследования психологии несопоставим по своей сложности с предметами других наук.

Нам кажется, что подобный снобизм не только не уместен с точки зрения научной этики, но и не имеет оснований. Мир – един в своем бесконечном многообразии. А наука лишь попытка человечества репрезентировать этот мир в моделях (в том числе в образах), доступных пониманию человека. Причем эти модели отражают лишь отдельные фрагменты мира.

Но любой из этих фрагментов так же сложен, как и мир в целом. Так что математические формулы, статистические выкладки, описания натуралиста или психологические представления – все суть более или менее адекватные формы отражения одной и той же реальности.

И математика в психологии – это не инородное вкрапление, которое психологи вынуждены терпеть за отсутствием собственных точных формальных (а по возможности и «объективных») способов описания и репрезентации психологической реальности. Это – естественный код организации мира и, соответственно, естественный язык описания этой организации.

Надежды некоторых психологов на временный характер зависимости психологии от математики – утопия. Психология использует математику не потому, что «за неимением гербовой пишет на простой», т. е. «пока» не имеет своих точных и объективных приемов анализа и объяснения психических феноменов, а потому, что математический язык – это общенаучный язык отражения реальности.

И в этом смысле математику действительно можно признать «царицей наук». Психологии этот язык присущ так же, как любой другой отрасли научного знания. Вопрос лишь в том, насколько психология этот язык освоила. Таким образом, психологии вовсе не требуется доказывать, что она «может существовать независимо от математики» и эмансипироваться вплоть до «развода» с нею.

Симптоматично в этом отношении формирование в последние годы новой психологической дисциплины – математической психологии [363].Итак, утверждения о временном мезальянсе психологии с математикой, на наш взгляд, не состоятельны, сколь бы образны и метафоричны они ни были. Это – естественное единство.

Второе замечание касательно применения статистики в психологии заключается в предостережении: нельзя позволить втянуть себя в так называемую «статистическую мясорубку», когда полагают, что, пропустив через математическую обработку любой материал, можно получить какие-то зависимости, выявить какие-нибудь закономерности и факты.

Без гипотезы и без продуманного подбора исходных данных научного результата ожидать только за счет применения статистики нельзя. Необходимо знать, что мы хотим получить от применения статистики и какие методы обработки подходят к условиям и задачам исследования.

К тому же надо заметить, что психологу не всегда по силам понять, что происходит с исходным психологическим материалом в процессе его статистического «прокручивания». Для уяснения некоторых операций внутри того или иного статистического метода (например, «варимакс-вращений» в факторном анализе) требуется специальная углубленная подготовка.

Некоторые из этих операций базируются на тех или иных постулатах, не всегда подходящих к рабочей гипотезе пользователя. Поэтому для оценки адекватности, валидности намеченного метода иногда требуются весьма специфические знания. Апелляция к частоте и привычности использования в психологической практике таких матметодов не всегда спасает дело.

И тогда эти приемы обработки данных становятся действительно «черным ящиком» и «статистической мясорубкой». Поэтому не следует стремиться к излишне сложным методам в погоне за модой или с сомнительной целью повысить уровень «научности» своей работы. Непродуманная стрельба «из пушки по воробьям» только ведет к неоправданным затратам и запутыванию психологической идеи исследования.

Следует согласиться с выводом Е. В. Сидоренко, что «чем проще методы математической обработки, чем ближе они к реально полученным эмпирическим данным, тем более надежными и осмысленными получаются результаты» [344, с. 7].

Кроме того, нельзя забывать, что статистические методы – это вспомогательное оружие психолога, призванное лишь усилить исследовательскую мысль. Это лишь «деревья», за которыми должен быть виден «лес» – основная психологическая идея. Тем более что, как только что было сказано, всеобщность детерминации (по крайней мере, причинной) вызывает большие сомнения. Следовательно, поиск с помощью лишь математической обработки психологических зависимостей, тем более зависимостей функциональных, дело не очевидное и чреватое заблуждениями. Психологам хорошо известно, что в реальности невозможно найти ни «чистых», ни «среднестатистических» психологических типов. Это заставляет даже некоторых исследователей отказаться от рассмотрения каждого отдельного психического явления как эманации какой-то общей закономерности и тем паче «отказаться от того, чтобы считать отдельную личность случайной величиной, случайным проявлением более закономерного среднегруп-пового индивида» [345, с. 40].

После этих замечаний с удовольствием повторим вслед за Мак-Коннелом: «Статистика – это не математика, а прежде всего способ мышления, и для ее применения нужно лишь иметь немного здравого смысла и знать основы математики» [89, т. 2, с. 277].

В дальнейшем изложении ограничимся освещением необходимого Minimum minimori в этой области, а именно важнейших элементов описательной и корреляционной статистики.

Более подробные сведения по этим разделам статистической науки и о приемах индуктивной статистики применительно к психологической специфике можно почерпнуть из работ [87,127, 344, 364].

Всю совокупность полученных данных можно охарактеризовать в сжатом виде, если удается ответить на три главных вопроса: 1) какое значение наиболее характерно для выборки?; 2) велик ли разброс данных относительно этого характерного значения, т. е.

какова «размытость» данных?; 3) существует ли взаимосвязь между отдельными данными в имеющейся совокупности и каковы характер и сила этих связей? Ответами на эти вопросы служат некоторые статистические показатели исследуемой выборки.

Для решения первого вопроса вычисляются меры центральной тенденции (или локализации), второго – меры изменчивости (или рассеивания), третьего – меры связи (или корреляции). Эти статистические показатели приложимы к количественным данным (порядковым, интервальным, пропорциональным).

Данные качественные (номинативные) поддаются математическому анализу с помощью дополнительных ухищрений, которые позволяют использовать элементы корреляционной статистики.

Меры центральной тенденции (м. ц. т.) – это величины, вокруг которых группируются остальные данные. Эти величины являются как бы обобщающими всю выборку показателями, что, во-первых, позволяет по ним судить о всей выборке, а во-вторых, дает возможность сравнивать разные выборки, разные серии между собой. К мерам центральной тенденции относятся: среднее арифметическое, медиана, мода, среднее геометрическое, среднее гармоническое. В психологии обычно используются первые три.

– это частное от деления всех значений (X) на их количество (N): М = SX / N.

Медиана (Me) – это значение, выше и ниже которого количество отличающихся значений одинаково, т. е. это центральное значение в последовательном ряду данных.

Примеры: 3, 5, 7, 9, 11, 13, 15 Me = 9.3,5,7,9,11,13,15,17 Me =10.Из примеров ясно, что медиана не обязательно должна совпадать с имеющимся замером, это точка на шкале. Совпадение происходит в случае нечетного числа значений (ответов) на шкале, несовпадение – при четном их числе.

Мода (Мо) – это значение, наиболее часто встречающееся в выборке, т. е. значение с наибольшей частотой.Пример: 2, 6, 6, 8, 9, 9, 9, 10 Мо = 9.

Если все значения в группе встречаются одинаково часто, то считается, что моды нет (например: 1, 1, 5, 5, 8, 8).

Если два соседних значения имеют одинаковую частоту и они больше частоты любого другого значения, мода есть среднее этих двух значений (например: 1,2,2,2,4,4,4, 5,5,7 Мо = 3).

Если то же самое относится к двум несмежным значениям, то существует две моды, а группа оценок является бимодальной (например: 0,1,1,1,2,3,4, 4, 4, 7 Мо = 1 и 4).

При выборе м. ц. т. следует учесть, что:1) в малых группах мода может быть нестабильна.Пример: 1,1,1,3,5,7,7,8 Мо = 1.Но стоит одной единице превратиться в нуль, а другой – в двойку, и Мо = 7;

  1. на медиану не влияют величины «больших» и «малых» значений;
  2. на среднее влияет каждое значение.

Обычно среднее применяется при стремлении к наибольшей точности и когда впоследствии нужно будет вычислять стандартное отклонение. Медиана – когда в серии есть «нетипичные» данные, резко влияющие на среднее (например: 1, 3, 5, 7, 9, 26, 13). Мода – когда не нужна высокая точность, но важна быстрота определения м. ц. т.

Это статистические показатели, характеризующие различия между отдельными значениями выборки. Они позволяют судить о степени однородности полученного множества, о его компактности, а косвенно – и о надежности полученных данных и вытекающих из них результатов.

Наиболее используемые в психологических исследованиях показатели: размах, среднее отклонение, дисперсия, стандартное отклонение, полуквартильное отклонение. Размах (Р) – это интервал между максимальным и минимальным значениями признака. Определяется легко и быстро, но чувствителен к случайностям, особенно при малом числе данных.

Примеры: 0, 2, 3, 5, 8 (Р = 8-0 = 8);-0.2, 1.0, 1.4, 2.0 (Р = 2,0-(-0,2) = 2,2);0,2,3,5,67 (Р = 67-0 = 67).Среднее отклонение (МД) – это среднеарифметическое разницы (по абсолютной величине) между каждым значением в выборке и ее средним:МД = ∑d / N,где d = |Х– M|; М – среднее выборки; X – конкретное значение; N – число значений.

Множество всех конкретных отклонений от среднего характеризует изменчивость данных, но если их не взять по абсолютной величине, то их сумма будет равна нулю. И вся информация пропадает. МД показывает степень скученности данных вокруг среднего.

Кстати, иногда при определении этой характеристики выборки вместо среднего (М) берут иные меры центральной тенденции – моду или медиану.

Дисперсия (Д) (от лат. dispersus – рассыпанный). Другой путь измерения степени скученности данных – это избегание нулевой суммы конкретных разниц (d = Х-М) не через их абсолютные величины, а через их возведение в квадрат, и тогда получают дисперсию:

Д = ∑d2 / N – для больших выборок (N > 30); Д = ∑d2/ (N-1) – для малых выборок (N < 30).

Стандартное отклонение (а). Из-за возведения в квадрат отдельных отклонений d при вычислении дисперсии получается очень не наглядная величина, далекая от самих отклонений.

Чтобы этого избежать и получить характеристику, сопоставимую со средним отклонением, проделывают обратную математическую операцию – из дисперсии извлекают квадратный корень.

Его положительное значение и принимается за меру изменчивости, именуемую среднеквадратическим или стандартным отклонением:МД, Д и  применимы для интервальных и пропорциональных данных.

Для порядковых данных обычно в качестве меры изменчивости берут полуквартилыше отклонение (Q), именуемое еще полукваргттьным коэффициентом или полумеждуквартильным размахом. Вычисляется этот показатель следующим образом. Вся область распределения данных делится на четыре равные части.

Если отсчитывать наблюдения начиная от минимальной величины на измерительной шкале (на графиках, полигонах, гистограммах отсчет обычно ведется слева направо), то первая четверть шкалы называется первым квартилем, а точка, отделяющая его от остальной части шкалы, обозначается символом Q1. Вторые 25% распределения – второй квартиль, а соответствующая точка на шкале – Q2. Между третьей и четвертой четвертями распределения расположена точка Q3. Полуквартильный коэффициент определяется как половина интервала между первым и третьим квартилями:

Q = (Q3 – Q1)/2.

Понятно, что при симметричном распределении точка Q2 совпадет с медианой (а следовательно, и со средним), и тогда можно вычислить коэффициент Q для характеристики разброса данных относительно середины распределения. При несимметричном распределении этого недостаточно. И тогда дополнительно вычисляют еще два коэффициента Q – для правого и левого участков:

Qлев. = (Q2-Q1)/2; Qправ.= (Q3-Q2)/2

Предыдущие показатели, именуемые статистиками, характеризуют совокупность данных по одному какому-либо признаку. Этот изменяющийся признак называют переменной величиной или просто «переменной». Меры связи же выявляют соотношения между двумя переменными или между двумя выборками.

Например, нужно установить, существует ли связь между ростом и весом человека, между типом темперамента и успешностью решения интеллектуальных задач и т. д. Или, скажем, надо выяснить, принадлежат ли две выборки к одной популяции или к разным. Эти связи, или корреляции (от лат.

correlatio – соотношение, взаимосвязь), и выявляют через вычисление коэффициентов корреляции (R), если переменные находятся в линейной зависимости между собой.

Считается, что большинство психических явлений подчинено именно линейным зависимостям, что и предопределило широкое использование методов корреляционного анализа. Но наличие корреляции не означает, что между переменными существует причинная (или функциональная) связь.

Функциональная зависимость [у = f(x)] – это частный случай корреляции. Даже если связь причинна, корреляционные показатели не могут указать, какая из двух переменных причина, а какая – следствие.

Кроме того, любая обнаруженная в психологии связь, как правило, существует благодаря и другим переменным, а не только двум рассматриваемым. К тому же взаимосвязи психологических признаков столь сложны, что их обусловленность одной причиной вряд ли состоятельна, они детерминированы множеством причин.

I. По тесноте связи:

1) Полная (совершенная) – R=l. Констатируется обязательная взаимозависимость между переменными. Здесь уже можно говорить о функциональной зависимости. Например: связь между стороной квадрата и его площадью, между весом и объемом и т. п.

  1. Отсутствие связи – R = 0. Например: между скоростью реакции и цветом глаз, длиной ступни и объемом памяти.
  2. Частичная – 0

Источник: https://userdocs.ru/psihologiya/37047/index.html?page=11

Связи меры — это… что такое связи меры?

4.6.3.4. Меры связи
— количественные показатели тесноты и направления связи. С.М. конструируются таким образом, чтобы их значения изменялись в интервале [0; 1] или [-1; 1]. Значение коэффициента, равное нулю, может свидетельствовать как об отсутствии связи между переменными, так и о том, что выбранная модель не соответствует характеру изучаемой связи.

Положительные значения коэффициента свидетельствует о прямой (положительной) либо о ненаправленной связи между переменными; отрицательные значения — об обратной (отрицательной) связи ( Анализ корреляционный). Чем ближе значение коэффициента к 1 или -1, тем теснее связь.

Значение, равное 1 или -1, свидетельствует о полной связи, позволяющей по значению одной переменной точно предсказывать значение другой переменной.

Для связей между номинальными переменными, анализируемыми посредством таблицы сопряженности , наиболее общей является модель «хи-квадрат».

Коэффициенты тесноты связи, основанные на критерии «хи-квадрат» , могут принимать значения в интервале от 0 до 1 ( Корреляция качественных переменных). Значение коэффициента, равное нулю, означает полное отсутствие связи между переменными.

Главными недостатками модели являются отсутствие каких-либо представлений о характере связи, а также конструктивные особенности коэффициентов, которые даже при полной связи не всегда достигают значения 1. Для номинальных переменных (за исключением дихотомических) принципиально невозможно исследовать направление связи. Поэтому предназначенные для них коэффициенты, основанные на критерии «хи-квадрат», не могут принимать отрицательных значений.

Для таблиц сопряженности, образованных двумя дихотомическими переменными, используются специальные коэффициенты связи ( Корреляция дихотомических переменных), которые могут принимать значения от -1 до 1.

Значение, равное 1, означает полную прямую связь, заключающуюся в том, что признаки появляются или не появляются одновременно; значение, равное -1, — полную обратную связь, при которой признаки появляются только врозь; значение, равное 0, — отсутствие связи, состоящее в том, что признаки появляются совместно и порознь с одинаковой частотой.

Для ранжированных переменных применяются коэффициенты ранговой корреляции. Эти же коэффициенты с поправкой на связность рангов ( Корреляция ранговых переменных) могут с успехом применяться для любых порядковых признаков. Существуют также способы расчета ранговых коэффициентов по таблицам сопряженности, образованным двумя порядковыми признаками.

Значения ранговых мер связи изменяются в интервале от -1 до 1. Значение, равное нулю, соответствует отсутствию связи между переменными. Значение, равное 1, свидетельствует о полной прямой связи, то есть о фактическом совпадении рангов измеряемых объектов по двум переменным; значение, равное -1, — о полной обратной связи, т.е.

строго обратном порядке ранжирования.

Для количественных переменных наиболее распространенной моделью связи является модель статистической связи линейной y = bx a, а наиболее популярной мерой связи — коэффициент линейной корреляции Пирсона . Значение коэффициента, равное нулю, свидетельствует об отсутствии линейной связи между двумя переменными, что не исключает нелинейной связи между ними.

Значение, равное 1, говорит о полной прямой линейной связи между переменными, заключающейся в том, что все измеряемые объекты «лежат» на прямой y = bx a, т.е. любая пара измеренных значений (xi, yi) удовлетворяет условию yi = bxi a, где b > 0.

Значение, равное -1, соответствует полной обратной линейной связи, при которой любая пара измеренных значений (xi, yi) удовлетворяет условию yi = bxi a, где b < 0.

Если связь между двумя количественными переменными имеет причинный характер и может быть описана некоторой математической функцией ( Анализ регрессионный), ее можно измерить с помощью дисперсии объясненной . Доля объясненной дисперсии изменяется в интервале от 0 до 1 и измеряет только тесноту связи, но не ее направление.

Значение, равное 0, интерпретируется как отсутствие влияния независимой переменной на зависимую. Значение, равное 1, означает, что все различия в значениях зависимой переменной объясняются исключительно изменениями независимой переменной.

Если регрессионная связь является линейной, коэффициент детерминации   равен квадрату коэффициента линейной корреляции Пирсона.

Если причинная связь  не является линейной или если независимая переменная  является номинальной или порядковой, для измерения тесноты связи можно использовать аналог коэффициента детерминации — корреляционное отношение .

Если причинная связь является множественной, т.е.

на зависимую переменную одновременно влияют несколько независимых переменных (предикторов), теснота связи зависимой переменной с набором предикторов измеряется с помощью коэффициента множественной корреляции R или квадрата коэффициента множественной корреляции R2. Последний интерпретируется аналогично коэффициенту детерминации для парной регрессионной связи, он не измеряет направление связи и изменяется в пределах от 0 до 1.

Теснота связи зависимой переменной с каждым из предикторов в рамках модели множественной линейной регрессии измеряется посредством коэффициентов корреляции частной .

Коэффициенты частной корреляции измеряют тесноту и направление частных («очищенных» от влияния других переменных) связей между зависимой переменной и отдельными предикторами и принимают значения в интервале от -1 до 1.

Они интерпретируются аналогично коэффициенту корреляции Пирсона.

О.В. Терещенко

Социология: Энциклопедия. — Минск: Интерпрессервис; Книжный Дом. А.А. Грицанов, В.Л. Абушенко, Г.М. Евелькин, Г.Н. Соколова, О.В. Терещенко. 2003.

Источник: https://sociology_encyclopedy.academic.ru/932/%D0%A1%D0%92%D0%AF%D0%97%D0%98_%D0%9C%D0%95%D0%A0%D0%AB

Гост 27049-86 (ст сэв 5251-85) защита оборудования проводной связи и обслуживающего персонала от атмосферных разрядов, гост от 28 октября 1986 года №27049-86

4.6.3.4. Меры связи

ГОСТ 27049-86(СТ СЭВ 5251-85)

Группа Э50

ОКСТУ 6650

Дата введения 1987-07-01

ВНЕСЕН Министерством связи СССР

Постановлением Государственного комитета СССР по стандартам от 28 октября 1986 г.

N 3242 стандарт Совета Экономической Взаимопомощи СТ СЭВ 5251-85 «Защита оборудования проводной связи и обслуживающего персонала от атмосферных разрядов» введен в действие непосредственно в качестве государственного стандарта СССР с 1 июля 1987 г.

Настоящий стандарт устанавливает основные положения по выбору средств и мер защиты оборудования проводной связи и обслуживающего персонала от атмосферных разрядов.

Настоящий стандарт не распространяется на защиту систем сигнализации и блокировки на железных дорогах и защиту оборудования проводной связи энергетических систем.

1. ОБЩИЕ ПОЛОЖЕНИЯ

1.1. Защита линий и установок связи от ударов молнии производится, если ожидаемая плотность повреждений линий связи от гроз превышает величину 0,1 повреждения на 100 км в год, а местные условия (например отсутствие развитой сети подземных или надземных коммуникаций) не облегчают защиту линии связи.

1.2. Требования к защите могут быть изменены с учетом взаимного расположения линий связи и других коммуникаций, таких как проходящие вблизи трубопровод, линия электропередачи, рельсы железной дороги.

1.3. Допускаемая плотность повреждений для отдельных линий может быть изменена с учетом их важности и экономических соображений.

2. ТРЕБОВАНИЯ К ОБОРУДОВАНИЮ ЭЛЕКТРОСВЯЗИ

2.1. Импульсная электрическая прочность оборудования

2.1.1. Электрическая прочность кабеля и подключаемого к нему оборудования должна быть согласована в зависимости oт применяемой схемы защиты.

2.1.2. Импульсная электрическая прочность оборудования, подключаемого к воздушным линиям связи и жилам кабелей со сплошной полиэтиленовой изоляцией, может быть меньше импульсной электрической прочности линии связи, при этом целесообразно применение мер защиты.

2.1.3. Защита оборудования от поперечных напряжений (жила-жила) осуществляется методом последовательного ступенчатого снижения напряжений (каскадный принцип) с помощью элементов защиты, включаемых в различных точках тракта.

2.2. Оборудование с дистанционным питанием снабжается автоматом повторного включения дистанционного питания.

2.3. Аппаратура, подключаемая к кабельным и воздушным линиям, должна быть защищена со стороны входа и выхода, а также со стороны цепей дистанционного питания.

2.4. Меры защиты аппаратуры

2.4.1. Включение на входе в аппаратуру разрядников, динамическое напряжение срабатывания которых должно быть меньше электрической прочности аппаратуры по отношению к земле.

2.4.2. Включение схемы защиты, состоящей из нескольких каскадов (разрядчиков* с малым напряжением срабатывания, диодов, ограничителей напряжения и т.п.)._____________

* Текст соответствует оригиналу. — Примечание «КОДЕКС».

2.4.3. Включение на входе в аппаратуру изолирующих муфт.

2.4.4. Включение оптических преобразователей с высокой продольной электрической прочностью.

3. МЕРЫ ЗАЩИТЫ ВОЗДУШНЫХ ЛИНИЙ СВЯЗИ

3.1. Защита деревянных опор воздушных линий связи осуществляется с помощью молниеотводов, устанавливаемых на опорах линии.

3.2. Железобетонные опоры воздушных линий связи молниеотводами не оборудуются.

3.3. Одной из мер защиты аппаратуры, подключенной к воздушной линии связи, является установка искровых промежутков (каскадная защита) между проводами линии связи и землей на расстоянии от 100 до 1000 м друг от друга.

3.4. Подвеска дополнительных параллельных проводов на опорах воздушной линии связи.

4. МЕРЫ ЗАЩИТЫ ПОДВЕСНЫХ КАБЕЛЕЙ

4.1. Защита подвесных кабелей в металлической оболочке без несущего троса

4.1.1. Заземление металлической оболочки по концам кабеля и периодически.

4.1.2. Применение кабелей с высокой импульсной электрической прочностью изоляции и малым сопротивлением связи в соответствии с п.4.1.1.

4.1.3. Применение малогабаритных разрядников, включаемых между жилами и оболочкой в соответствии с п.4.1.1.

4.1.4. Применение мер, исключающих попадание потенциала земли на жилы кабеля.

4.1.5. Защита с помощью молниеотводов, устанавливаемых на опорах линии.

4.2. Защита подвесных кабелей в металлической оболочке с несущим тросом

Меры, перечисленные в пп.4.1.1-4.1.5, а также заземление несущего троса по концам и периодически.

4.3. Защита подвесных кабелей в пластмассовой оболочке без несущего троса

4.3.1. Подвеска дополнительных параллельных проводов на опорах воздушной линии.

4.3.2. Использование защитного действия воздушной линии связи, оснащенной разрядниками.

4.3.3. Меры, указанные в п.4.1.4.

4.4. Защита подвесных кабелей в пластмассовой оболочке с несущим тросом

4.4.1. Заземление несущего троса по концам и периодически.

4.4.2. Меры, указанные в пп.4.1.4 и 4.3.2.

4.5. Кабельная вставка в воздушные линии связи защищается с помощью искровых или газонаполненных разрядников, включаемых с обеих сторон кабельной вставки.

Кабельная вставка в виде воздушного подвесного кабеля защищается также с помощью периодически включаемых заземлений оболочки или несущего троса одновременно с применением разрядников по концам.

5. МЕРЫ ЗАЩИТЫ ПОДЗЕМНЫХ КАБЕЛЕЙ СВЯЗИ

5.1. Применение кабелей с требуемым качеством (добротностью)

Добротность кабеля () в килоамперах на километр определяется по формуле

,

где — импульсная электрическая прочность изоляции, кВ;

— сопротивление оболочки, Ом/км.

5.2. Прокладка в земле горизонтальных тросов (проводов) параллельно кабелю.

5.3. Включение разрядников между жилами кабеля и металлической оболочкой

Динамическое напряжение срабатывания разрядников должно быть меньше импульсной прочности изоляции защищаемого объекта.

5.4. Использование для защиты кабеля воздушной линии связи, оборудованной искровыми промежутками.

5.5. Прокладка кабелей в металлической трубе.

5.6. Прокладка кабеля и канализации из изолирующего материала

6. ТРЕБОВАНИЯ К ЗАЩИТЕ ОБСЛУЖИВАЮЩЕГО ПЕРСОНАЛА И АБОНЕНТОВ

6.1. Защита от акустических ударов

6.1.1. Для защиты технического персонала и абонентов от акустических ударов должны включаться ограничители.

6.1.2. Для обеспечения одновременного срабатывания разрядников, включенных на проводах одной цепи, следует применять трехэлектродные разрядники с взаимной подсветкой разрядного промежутка или двухэлектродные разрядники с дренажной катушкой.

6.2. Защита от волн напряжения и тока

Воздушные вводы на станции и к абонентам должны быть защищены с помощью разрядников, подключенных между проводами линии и землей, а также с помощью заземления оболочки подвесного кабеля.

6.3. Проведение работ на линии

6.3.1. При работах на линии эта линия должна быть заземлена в месте проведения работ. Порядок проведения работ и принимаемые меры безопасности определяют по месту проведения работ.

6.3.2. Во время грозы в данном районе или при возникновении грозовой ситуации работы как на подземных, так и на наземных сооружениях связи (т.е. кабелях и воздушных линиях), находящихся вне технических помещений, не разрешаются.

6.3.3. При работах, связанных с разрывом металлической оболочки и брони кабелей связи (например соединение кабельных жил), оболочка и броня кабелей, подходящих к месту работы с разных сторон, должны быть соединены металлическим проводником.

6.3.4. Не допускается разрыв грозозащитного троса без заземления рассоединенных концов.

6.3.5. По месту проведения работ должны быть определены нормы поведения обслуживающего персонала во время грозовой ситуации, индивидуальные средства защиты (изолирующие перчатки, одежда, обувь, специальные инструменты, заземляющие штанги).

Текст документа сверен по:официальное издание

М.: Издательство стандартов, 1987

Источник: http://docs.cntd.ru/document/464633908

Психология развития: методы исследования

4.6.3.4. Меры связи

До этого момента основное внимание уделялось процедуре выявления различий между группами. Однако это не единственная область применения статистических процедур. Возьмем, к примеру, исследование, в котором были получены данные, представленные в табл. 7.3. Нас интересует вопрос, есть ли связь между IQ и успешностью выполнения стандартного теста достижения. Что нам нужно сделать?

Для данных из табл. 7.3 подходит корреляционный статистический показатель. Корреляция — это мера связи между двумя переменными. Как мы узнали из главы 3, значение корреляционного показателя находится в пределах от +1 до -1.

Коэффициент корреляции равный +1 свидетельствует о наличии абсолютно положительной связи между переменными, коэффициент корреляции равный 0 свидетельствует о полном отсутствии связи, а коэффициент корреляции равный -1 указывает на наличие абсолютно отрицательной связи. Эти варианты иллюстрируют графические изображения на рис. 7.3.

Корреляционный показатель отличный от нуля свидетельствует о положительной или отрицательной связи, при этом сила связи увеличивается с приближением значения к + 1 или -1.

О чем же говорят данные, представленные в табл. 7.3? Для определения меры связи мы должны сначала выбрать соответствующий корреляционный показатель, поскольку для вычисления корреляции существует множество разных методов.

Как и в случае с логическими критериями, выбор метода зависит от наших предположений относительно характера данных. Чаще всего используются два показателя: коэффициент корреляции произведения моментов Пирсона и коэффициент корреляции рангов Спирмена.

Статистический показатель Пирсона — это параметрический критерий, использование которого основано на тех же допущениях, что и использование остальных параметрических критериев — а именно на допущении, что измерение происходило по шкале интервалов или отношений, а данные распределены по закону нормального распределения1.

Корреляционный показатель Спирмена — непараметрический критерий, основанный исключительно на порядковых характеристиках данных, и поэтому применяется чаще, чем критерий Пирсона. Оба показателя, надо заметить, зависят от другого важного предположения: что связь между переменными линейная.

Если связь иного рода (к примеру, криволинейная, то есть при изменении значения одной переменной значение другой переменной сначала увеличивается, а затем уменьшается), стандартный корреляционный критерий неприменим.

В действительности гсам по себе, как дескриптивный показатель, является непараметрическим, нако определение его статистической значимости зависит от параметрических предположений.

Порядок рангов
IQТест достиженийIQТест достижений
12915
21108
310119
461211
53135
641414
7121513
8716\6

Поскольку использование критерия Спирмена проиллюстрировать легче, применим его для данных табл. 7.3. Формула коэффициента Спирмена, а также применение ее к нашим данным представлены на рис. 7.4.

Проанализировав формулу, можно заметить, что коэффициент Спирмена — это мера общности рангового порядка пар показателей двух распределений. Если согласованность рангов полная, тогда, при отсутствии показателей отклонения, вычитаемое будет равно нулю, а коэффициент корреляции +1.

Чем чаще и сильнее показатели отличаются по рангу, тем дальше от единицы будет корреляционный показатель. В нашей выборке данных коэффициент корреляции между IQ и результатами теста достижений равен 0,7, что свидетельствует о достаточно тесной, но не абсолютной связи.

Стоит отметить, что применение к этим данным корреляционного анализа Пирсона даст очень близкое значение: 0,71. Фактически для большинства данных значения коэффициентов Спирмена и Пирсона очень близки.

О чем говорит наличие корреляции между двумя переменными? Корреляция, как и среднее арифметическое или медиана, — дескриптивный статистический показатель, характеризующий, однако, не центральную тенденцию, а связь между переменными.

Прежде чем интерпретировать значение коэффициента корреляции, необходимо проверить его статистическую значимость. Нуль-гипотеза при такой проверке заключается в том, что коэффициент корреляции между двумя переменными равен нулю; вопрос состоит тогда в том, есть ли значимое отклонение полученного коэффициента корреляции от нуля.

Ответить на этот вопрос достаточно просто, поскольку в учебниках по статистике содержатся таблицы, по

которым непосредственно можно установить уровень вероятности для любых коэффициентов корреляции (многие компьютерные программы также осуществляют подсчет уровня вероятности).

На значимость влияют и величина коэффициента корреляции, и объем выборки; с их повышением растет вероятность значимости.

Из таблицы явствует, что коэффициент корреляции равный 0,7 в выборке объемом 16 (то есть при наличии 16 пар показателей) значим на уровне 0,01; таким образом, между IQ и уровнем достижений действительно имеется связь.

Значимость важна, но это лишь половина дела. Вспомним, что нас интересует не только существование связи, но и ее сила.

Как правило, силу корреляционной связи интерпретируют с точки зрения точности прогноза; зная результаты испытуемого по одной переменной, насколько точно мы сможем предугадать его результаты по другой переменной? При корреляционном показателе, равном пулю, отношения между переменными носят случайный характер, и знание одного показателя не дает нам возможности предсказать другой показатель. По мере отклонения коэффициента корреляции от нуля его прогностическая способность возрастает, достигая максимума при коэффициенте корреляции равном ±1.

Другой (равноценный) способ рассмотрения корреляции — с точки зрения доли объясняемой дисперсии. Используя показатели по одной переменной для прогноза показателей по второй переменной, мы «объясняем», в статистически-прогностическом смысле, определенную долю дисперсии значения второй переменной.

Чем выше коэффициент корреляции, тем большая доля дисперсии получает объяснение. Эту закономерность можно определить точнее. Если коэффициент корреляции — пйреоновский г, доля объясняемой дисперсии составляет/3.

Таким образом, коэффициент корреляции между IQ и уровнем достижений равный 0,71 означает, что вариации одного показателя объясняют 50 % вариаций другого.

Последнее из утверждений ограничивает нас в наших интерпретациях. Коэффициент корреляции равный 0,71 довольно высок, однако даже при таком значении половина дисперсии все еще не получает объяснения.

С приближением коэффициента корреляции к нулю доля объясняемой корреляции уменьшается, и довольно стремительно.

Коэффициент корреляции равный 0,5 объясняет 25% дисперсии, а коэффициент корреляции равный 0,3 — лишь 9% дисперсии.

Сказанное выше напоминает нам о разнице между значимостью и ценностью. Коэффициент корреляции может быть статистически значим, но в то же время столь мал, что его теоретическая или практическая ценность будет минимальна.

Вероятность таких статистически значимых, но в действительности незначительных статистических показателей особенно велика при изучении больших выборок. В выборке объемом 50 коэффициент корреляции 0,27 достигает значимости на уровне 0,05.

В выборке объемом 100 единиц значимостью обладает уже коэффициент корреляции 0,19.

Помимо объема выборки при оценке коэффициента корреляции важно учитывать диапазон значения переменных. Здесь могут возникнуть две проблемы.

Чаще всего, это проблема, о которой говорилось в главе 46, сужение диапазона, которое происходит тогда, когда значения одной переменной так близки друг к другу, что разница между ними не связана с дисперсией значений других переменных. Предположим, сравнивая IQ и уровень достижений, мы решили ограничить выборку

детьми из классов для «одаренных». Как правило, отбор в эти классы производится по критерию IQ, в нашем случае он соответствует, скажем, 130 пунктам и выше.

Решение сосредоточиться исключительно на очень высоких IQ означает, что мы резко сужаем диапазон дисперсии значений одной из наших переменных; вместо 60-70 пунктов диапазон IQ будет составлять лишь около 20.

При такой скученности показателей IQ разница между ними вряд ли обнаружит существенную связь с любым параметром, включая разницу в уровне достижений.

Возможно также, что диапазон значений переменной будет слишком широк. Допустим, от одного испытуемого к другому IQ изменяется на 20 пунктов: начиная с ребенка, имеющего IQ = 40, следующего ребенка с показателем IQ = 60 и т. д.

до восьмого ребенка, обладающего IQ= 180. При столь большом разбросе велика вероятность того, что IQ будет значимо и существенно коррелировать практически со всеми показателями, которые мы измерим в нашей выборке.

Сомнительно, однако, что величина таких коэффициентов корреляции будет иметь для нас большой смысл.

Слишком узок или слишком широк диапазон значений, в основе проблемы лежит недостаточная внешняя валидность. Для того чтобы коэффициент корреляции был для нас интересен, он должен характеризовать не только выборку, для которой был подсчитан, но и всю популяцию, которую представляет эта выборка.

Поэтому выборка должна быть репрезентативна — как по параметрам центральной тенденции, так и по параметру диапазона дисперсии — в отношении популяции, частью которой она является, Если выборка будет нерепрезентативна, полученные при ее изучении коэффициенты корреляции не будут обладать достаточной внешней валидностью.

Источник: https://bookap.info/razvit/miller_psihologiya_razvitiya_metody_issledovaniya/gl84.shtm

Титкова Л.С. Математические методы в психологии — файл n1.doc

4.6.3.4. Меры связи
приобрести
Титкова Л.С. Математические методы в психологии
скачать (621.5 kb.)Доступные файлы (1):

n1.doc622kb.07.07.2012 01:24скачать

Раздел 4. Меры связи между признаками

Корреляционныйанализ.В разделе дается понятие корреляционного анализа;

корреляционной связи и корреляционной зависимости; методы для расчета коэффициента корреляции: метод ранговой корреляции Спирмена; метод Браве-Пирсона. Интерпретация корреляции. Изучение раздела 4 заканчивается выполнением лабораторной работы №3. Задание к лабораторной работе №3, варианты лабораторных работ и таблица критических значений коэффициента корреляции даны в Приложениях 5.1, 5.2 и 5.3 в конце раздела.

4.1. Общие положения

Анализ связей между признаками – главный вид задач, встречающийся практически в любом эмпирическом исследовании. Изучение связей между переменными, интересует исследователя не само по себе, а как отражение соответствующих причинно-следственых отношений.

При изучении корреляцийстараются установить, существует ли какая-то связь между

двумя показателями в одной выборке (например, между ростом и весом детей или между уровнем

IQи школьной успеваемостью) либо между двумя различными выборками (например, при

сравнении пар близнецов), и если эта связь существует, то сопровождается ли увеличение одного показателя возрастанием (положительная корреляция) или уменьшением (отрицательная корреляция) другого. Иными словами, корреляционный анализ помогает установить, можно ли предсказывать возможные значения одного показателя, зная величину другого. Первоначальное значение термина «корреляции» – взаимная связь (Oxford Advanced Learner's Dictionary of Current English, 1982). Когда говорят о корреляции, используют термины «корреляционная связь» и «корреляционная зависимость».

Корреляционнаясвязьэтосогласованныеизменениядвухпризнаковилибольшего

количествапризнаков(множественнаякорреляционнаясвязь).Корреляционная связь отражает

тот факт, что изменчивость одного признака находится в некотором соответствии с изменчивостью другого «Стохастическая» связь имеется тогда, когда каждому из значений одной случайной величины соответствует специфическое (условное) распределение вероятностей значений другой величины, и наоборот, каждому из значений этой другой величины соответствует специфическое (условное) распределение вероятностей значений первой случайной величины».

Корреляционная зависимость – это изменения, которые вносят значения одного признака

ввероятностьпоявленияразныхзначенийдругогопризнака.

Стохастическая означает вероятностная. Связи между случайными явлениями называют вероятностными или стохастическими связями. Этот термин подчеркивает их отличие от детерминированных или функциональных связей в физике или математике (связь площади треугольника с его высотой и основанием, связь длины окружности с ее радиусом и т.п.). В функциональных связях каждому значению первого признака всегда соответствует (в идеальных условиях) совершенно определенное значение другого признака. В корреляционных связях каждому значению одного признака может соответствовать определенное распределение значений другого признака, но не определенное его значение. Оба термина – корреляционная связь и корреляционная зависимость – часто используются как синонимы. Между тем, согласованные изменения признаков и отражающая это корреляционная связь между ними может свидетельствовать не о зависимости этих признаков между собой, а зависимости обоих этих признаков от какого-то третьего признака или сочетания признаков, не рассматриваемых в исследовании. Зависимость подразумевает влияние, связь – любые согласованные изменения, которые

могут объясняться сотнями причин. Корреляционныесвязинемогутрассматриватьсякак

свидетельство причинно-следственной связи, они свидетельствуют лишь о том, что изменениям

одного признака, как правило, сопутствуют определенные изменения другого, но находится ли

причина изменений в одном из признаков или она оказывается за пределами исследуемой пары

признаков,намнеизвестно.

Говорить в строгом смысле о зависимости мы можем только в тех случаях, когда сами оказываем какое-то контролируемое воздействие на испытуемых или так организуем исследование, что оказывается возможным точно определить интенсивность не зависящих от нас воздействий. Воздействия, которые мы можем качественно определить или даже измерить, могут рассматриваться как независимые переменные. Признаки, которые мы измеряем и которые, по нашему предположению, могут изменяться под влиянием независимых переменных, считаются зависимыми переменными. Согласованные изменения независимой и зависимой переменной действительно могут рассматриваться как зависимость. Если в исследование включены независимые переменные, которые мы можем, по крайней мере, учитывать, например, возраст, то можно считать выявляемые между возрастом и психологическими признаками корреляционные связи корреляционными зависимостями. В большинстве же случаев нам трудно определить, что в рассматриваемой паре признаков является независимой, а что – зависимой переменной.

Корреляционные связи различаются по форме,направлениюистепени(силе).

Поформекорреляционная связь может быть прямолинейной или криволинейной.

Прямолинейнойможет быть, например, связь между количеством тренировок на тренажере и

количеством правильно решаемых задач в контрольной сессии. Криволинейнойможет быть,

например, связь между уровнем мотивации и эффективностью выполнения задачи (см. Рис. 4.1). При повышении мотивации эффективность выполнения задачи сначала возрастает, затем достигается оптимальный уровень мотивации, которому соответствует максимальная эффективность выполнения задачи; дальнейшему повышению мотивации сопутствует уже снижение эффективности. Рисунок 4.1. Связь между эффективностью решения задачи и силой мотивационной тенденции

Понаправлениюкорреляционная связь может быть положительной («прямой») и

отрицательной («обратной»). При положительнойпрямолинейной корреляции более высоким

значениям одного признака соответствуют более высокие значения другого, а более низким

значениям одного признака – низкие значения другого (см. Рис. 4.2). При отрицательной

корреляции соотношения обратные. При положительной корреляции коэффициент корреляции имеет положительный знак, например r=+0,207, при отрицательной корреляции – отрицательный знак, например r=-0,207. Рисунок 4.2. Схема прямолинейных корреляционных связей: а) положительная (прямая) связь, б) отрицательная (обратная) связь Степень, сила или теснота корреляционной связи определяется по величине коэффициента корреляции.

Силасвязине зависит от ее направленности и определяется по абсолютному значению

коэффициента корреляции. Коэффициент корреляции – это величина, которая может варьировать в пределах от +1 до –1. В случае полной положительной корреляции этот коэффициент равен плюс 1, а при полной отрицательной – минус 1. На графике этому соответствует прямая линия, проходящая через точки пересечения значений каждой пары данных: В случае же если эти точки не выстраиваются по прямой линии, а образуют «облако», коэффициент корреляции по абсолютной величине становится меньше единицы и по мере округления этого облака приближается к нулю: В случае если коэффициент корреляции равен 0, обе переменные полностью независимы друг от друга. Используется две системы классификации корреляционных связей по их силе: общая и частная.

Общая классификация корреляционных связей:

1) сильная, или тесная при коэффициенте корреляции r>0,70;

2) средняя при 0,50

Источник: https://nashaucheba.ru/v14306/%D1%82%D0%B8%D1%82%D0%BA%D0%BE%D0%B2%D0%B0_%D0%BB.%D1%81._%D0%BC%D0%B0%D1%82%D0%B5%D0%BC%D0%B0%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B5_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%D1%8B_%D0%B2_%D0%BF%D1%81%D0%B8%D1%85%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D0%B8?page=3

Book for ucheba
Добавить комментарий