Комплексные случайные величины
СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
Часто результаты опыта (эксперимента) описываются не одной случайной величиной, а двумя или более случайными величинами, образующими комплекс или систему. Например:
1) Активная и реактивная мощности потребителя образуют систему, поскольку они взаимосвязаны между собой.
2) Максимум нагрузки электрической системы и максимумы нагрузки потребителей.
3) Максимум нагрузки системы и температура окружающего воздуха.
4) Выработка эл.энергии ГЭС и высота снежного покрова.
5) Рост человека и вес человека.
В энергетике мы часто имеем дело с n случайными величинами (СВ), образующими систему, например, электрическая система с n узлами нагрузки. Режимы электропотребления в узлах взаимосвязаны с помощью внешних факторов: освещенности, времени года и т.д.
Свойства системы нескольких случайных величин не исчерпываются свойствами отдельных величин, её составляющих, помимо этого они включают также взаимные связи (зависимости) между случайными величинами.
ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
Функцией распределения системы двух случайных величин (X,Y) называется функция F(x, y), определяющая вероятность совместного выполнения двух неравенств X < x и Y < y:
.
Если воспользоваться для геометрической интерпретации системы образом случайной точки (рис. 7.1), то функция распределения F(x, y) есть ни что иное, как вероятность попадания случайной точки (Х, Y) в бесконечный квадрант с вершиной в точке (x, y), лежащей левее и ниже её. Здесь (x, y) – значения СВ Х и Y.
Рис. 7.1 Геометрическая интерпретация системы случайных величин и её функции распределения
Функцией распределения системы n случайных величин (X1, Х2,…, Хn) называется вероятность совместного выполнения n неравенств вида Xi<xi
.
СВОЙСТВА ФУНКЦИИ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
1. Функция распределения F(x, y) или F (х1,х2,…хn) есть неубывающая функция своих аргументов, т.е.
при ;
при .
В этом свойстве функции F(x, y) можно наглядно убедиться, воспользовавшись геометрической интерпретациуй функции распределения, как вероятности попадания в квадрант с вершиной (x, y). Увеличивая x (смещая правую границу квадранта вправо) или увеличивая y (смещая верхнюю границу вверх), мы не можем уменьшить вероятность попадания в этот квадрант.
2. Повсюду на − ∞ функция распределения равна нулю:
.
В этом свойстве наглядно убеждаемся, неограниченно отодвигая влево правую границу квадранта (х→−∞) или вниз его верхнюю границу (у→−∞)или делая это одновременно с обеими границами, при этом вероятность попадания в квадрант стремится к нулю.
3. При одном из аргументов равном +∞, функция распределения системы превращается в функцию распределения системы случайных величин, соответствующей другому аргументу
где F1(x), F2(у)- соответственно, функции распределения случайных величин Х и Y.
В этом свойстве функции распределения можно наглядно убедиться, смещая ту или иную границу квадранта на +∞, при этом в пределе квадрант превращается в полуплоскость, вероятность попадания в которую есть функция распределения одной из величин, входящих в систему.
Для системы, состоящей из n случайных величин
4. Если оба аргумента равны +∞, функция распределения системы равна единице:
При х→+∞, у→+∞ квадрант с вершиной (х,у) в пределе обращается во всю плоскость хОу, попадание в которую есть достоверное событие.
ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ
СЛУЧАЙНЫХ ВЕЛИЧИН
Функция распределения системы любых случайных величин существует как для дискретных, так и для непрерывных случайных величин.
Распределение системы непрерывных случайных величин характеризуют не только функцией распределения, но и плотностью распределения.
Если функция F(x, y) непрерывна и дифференцируема, то вторая смешанная частная производная функции F(x, y) по обоим аргументам х и у
называется плотностью распределения системы.
Геометрически функция может быть изображена некоторой поверхностью. Эта поверхность аналогична кривой распределения для одной случайной величины и называется поверхностью распределения.
Функция распределения системы выражается через плотность распределения формулой
интегрирование производится сначала по y, а потом по х.
СВОЙСТВА ПЛОТНОСТИ РАСПРЕДЕЛЕНИЯ:
1 Плотность распределения системы есть функция неотрицательная
.
2 Двойной интеграл в бесконечных пределах от плотности распределения системы равен единице:
,
как вероятность достоверного события.
Результаты, полученные для двух СВ, легко переносятся на общий случай n СВ.
Для системы n случайных величин
.
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ОТДЕЛЬНЫХ ВЕЛИЧИН, ВХОДЯЩИХ В СИСТЕМУ. УСЛОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
Выразим плотность распределения каждой из величин, входящих в систему, через плотность распределения системы
Дифференцируя по х, получим выражение для плотности распределения случайной величины Х
,
аналогично
- плотность распределения случайной величины Y.
Т.о. для того, чтобы получить плотность распределения одной из величин, входящих в систему, нужно плотность распределения системы проинтегрировать в бесконечных пределах по аргументу, соответствующему другой случайной величине.
Зная закон распределения системы, заданный в виде функции распределения или плотности распределения, можно найти законы распределения отдельных величин, входящих в систему. Однако, зная только законы распределения отдельных величин, входящих в систему, не всегда можно найти закон распределения системы: нужно знать ещё зависимость между величинами, входящими в систему. Эта зависимость может быть найдена с помощью т.н. условных законов распределения.
Условным законом распределения величины Х, входящей в систему (Х,Y), называется её закон распределения, вычисленный при условии, что другая случайная величина Y приняла определенное значение у.
Условная функция распределения обозначается F(x|y) , условная плотность распределения .
Можно доказать, что
Т.е. плотность распределения системы двух величин равна плотности распределения одной из величин, входящей в систему, умноженной на условную плотность распределения другой величины, вычисленную при условии, что первая величина приняла заданное значение.
Эти формулы часто называют теоремой умножения законов распределения. Она аналогична теореме умножения вероятностей в схеме событий.
Разрешая указанные формулы относительно и , получим выражения условных законов распределения через безусловные
,
или, применяя формулы, получим ранее
ЗАВИСИМЫЕ И НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Здесь речь идет не о функциональной зависимости, когда по значению одной из величин, можно точно узнать значение другой, а о вероятностной или стохастической зависимости, когда мы можем указать только закон распределения одной величины, зависящей от того, какое значение приняла другая.
Вероятностная зависимость может быть более или менее тесной, крайние случаи:
1) функциональная зависимость: Y=aХ+b;
2) полная независимость случайных величин.
Между этими полюсами– вероятностная зависимость.
Для независимых СВ
Случайные величины Xи Yназываются независимыми, если закон распределения каждой и з них не зависит от того, какое значение приняла другая. В противном случае величины Xи Yназываются зависимыми.
Для независимости случайных величин необходимо и достаточно, чтобы
Т.е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему. Это необходимое и достаточное условие независимости случайных величин.
Сопоставляя это выражение с рассмотреными выше выражениями для плотности системы зависимых СВ, имеем:
ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН. КОРРЕЛЯЦИОННЫЙ МОМЕНТ. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ.
Для системы случайных величин (Х1,Х2,…Хn) вводятся следующие характеристики:
1) nматематических отчислений:
mx1,mx2,…, mxn
2) nдисперсий
Dх1,Dх2,…,Dхn
или nстандартных (среднеквадратических)отклонений:
.
Для двух случайных величин Х и Y
Для прерывных случайных величин корреляционный момент выражается формулой
где
- вероятность того что система (Х,Y) примет значения (хi,yj).
Суммирование распространяется по всем возможным значениям случайных величин Х,Y.
А для непрерывных
размерность - квадрат случайной величины (как и дисперсии).
Корреляционный момент есть характеристика системы случайных величин, описывающая помимо разбивания величин Х, Y как и связь между ними. Для независимых случайных величин корреляционный момент равен нулю.
Действительно, для независимых случайных величин
где - плотности распределения соответственно величин Х, Y.
Подставим это значение в формулу для Кxy.
Двойной интеграл можно заменить двухрядным.
Т.о., независимые случайные величины всегда некоррелированные.
Т.о., величина корреляционного момента характеризует зависимость между случайными величинами.
КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ ВЕЛИЧИН Х И Y
Корреляционный момент характеризует не только зависимость величин, но и их рассеивание. Если одна из величин (Х, Y) мало отклонена от своего математического ожидания (почти не случайна), то корреляционный момент будет мал, какой бы такой зависимостью ни были связаны величины (Х, Y). Поэтому для характеристики связи между величинами Х, Y в чистом виде переходят от момента Кxy к безразмерной величине
где - среднеквадратические отклонения величин Х, Y.
Коэффициент корреляции характеризует не всякую зависимость, а только т.н. линейную зависимость.
Линейная вероятностная зависимость случайных величин заключается в том, что при возрастании одной случайной величины, другая имеет тенденцию возрастать (или же убывать) по линейному закону.
Коэффициент корреляции характеризует степень линейной зависимости между случайными величинами.
Свойства коэффициента корреляции
1.
для независимых СВ.
2. Если случайные величины Х, Y связаны линейной функциональной зависимостью
то причем +1, если а>0
-, если а<0.
В общем случае, если величины Х, Yпроизвольной вероятностной зависимостью , коэффициент корреляции может иметь значение в пределах и говорят о положительной корреляционной величине.
Говорят об отрицательной корреляции между величинами Х и Y,если
.
КАК УСТАНАВЛИВАЕТСЯ КОРРЕЛЯЦИОННАЯ СВЯЗЬ МЕЖДУ ДВУМЯ ВЕЛИЧИНАМИ
О наличии существенной корреляции между СВ легко судить в первом приближении по графику, на котором изображены в виде точек, полученные из опыта пары значений случайных величин.
Между случайными величинами наблюдается значимая отрицательная корреляция. На практике, перед тем как исследовать корреляцию СВ, всегда полезно предварительно настроить наблюдаемые пары значений на графике для первого качественного суждения о типе корреляции.
Затем специальными приемами находят оценки для числовых характеристик системы mp1, mp2, Др1, Др2 и К – при ограниченном числе опытов.
Для системы n случайных величин все корреляционные моменты и дисперсии удобно расположить в виде матрицы
называемой корреляционной матрицей системы СВ. Заметим, что дисперсия каждой из СВ Хi есть по существу частный случай корреляционного момента, а именно корреляционный момент величины Хi и той же величины Хi
Поэтому на главной диагонали корреляционной матрицы системы располагаются дисперсии каждой СВ, входящей в систему Д1,Д2,Дn.
Кроме того из определения корреляционного момента ясно, что а элементы корреляционной матрицы системы расположены симметрично по отношению к главной диагонали, равны. Поэтому часто заполняется не вся корреляционная матрица, а лишь её половина, считается от главной диагонали.
Для наглядности суждения о корреляционности случайных величин безотносительно к их рассеиванию часто вместо корреляционной матрицы пользуются нормированной корреляционной матрицей , составленной не из корреляционных моментов, а из коэффициентов корреляции
Тогда на главной диагонали такой матрицы всегда стоят единицы.
ДИСПЕРСИЯ СУММЫ СЛУЧАЙНЫХ ВЕЛИЧИН
Рассмотрим систему 2х СВ Х,Y
Учтем, что
Дисперсия суммы 2х СВ равна сумме их дисперсий плюс удвоенный корреляционный момент.
Дисперсия суммы n СВ Х1, Х2 …Хn
Знак i<jпод суммой обозначает, что суммирование распространяется на все возможные попарные сочетания СВ Х1, Х2,… Хn.
Если СВ Х1, Х2,… Хnнекоррелированные, т.е. по всем i, ji≠j, формула принимает вид
Все СВ делятся на: 1) коррелированные, если
2) некоррелированные, если
С другой стороны все СВ делятся на:
1) зависимые;
2) независимые.
Если СВ независимы, то они некоррелированные. Но из некоррелированности не следует их независимость. Но если СВ Х1, Х2,… Хnподчиняются нормальному закону распределения вероятности, то из некорреляционной вытекает их независимость.
Для того, чтобы количественно характеризовать степень линейной попарной зависимости (связи) между СВ, образующими систему, вводится понятие корреляционных моментов Кxixjили СО˅(ХiXj)
Всего их n(n-1), если исключить дисперсии при i=j.
МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ПРОИЗВЕДЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН
По определению для системы (Х, Y) 2х СВ Х, Y
Это выражение используют для вычисления в математ. статистике.
Из этой формулы следует, что
Математическая модель системы СВ используется:
1. В теории электрических нагрузок, при определении расчетной нагрузки, группа электроприемников, связанных вероятностной зависимостью.
Зависимость между индивидуальными графиками нагрузки обусловлена:
1. техническими связями;
2. взаимные влияния через общую сеть. В расчете нагрузок часто взаимным влиянием через сеть пренебрегают.
Рассмотрим пример. От трансформаторной подстанции на промышленном предприятии получают электроэнергию четыре участка цеха. Законы распределения случайных величин – нагрузок участков нормальные с параметрами m1…m4 , s1…s4 .
Корреляционная связь между СВ — нагрузками участков характеризуют матрицей коэффициентов корреляции.
.
Требуется определить максимальную мощность трансформатора, вероятность превышения которой γ, при условии, что закон распределения мощности трансформатора также нормальный.
Для определения максимальной мощности трансформатора P ТРMAX используется приведенный выше алгоритм и формулы, однако предварительно следует определить согласно первому закону Кирхгофа для узла ― шин НН подстанции и свойствам математического ожидания и дисперсии математическое ожидание и стандартное отклонение случайной величины ― активной мощности трансформатора.
Математическое ожидание мощности трансформатора при числе линий, отходящих от шин распределительного устройства, равного четырем
mPтр = mP1 + mP2 +mP3 +mP4.
Дисперсия мощности трансформатора при учете вероятностной зависимости между случайными величинами ― мощностями участков
DPтр = DP1+ DP 2 +DP 3 + DP 4 + 2Σ КPiPj = s2Р1+s2Р2 + s2Р3 +s2Р4 +
+2(r12 sР1s Р2 + r13 sР1s Р3 + r14 sР1s Р4 + r23 sР2s Р3 + r24 sР2s Р4 + r34 sР3s Р4).
∙
Здесь: КPiPj − корреляционный момент случайных величин Pi и Pj; rij − коэффициент корреляции случайных величин Pi и Pj , связанный с корреляционным моментом соотношением , i. j = 1, 2, 3. 4; i ≠ j.
Максимальная мощность трансформатора PТР MAX рассчитывается, как и ранее:
.
При отсутствии вероятностной зависимости между мощностями участков дисперсия мощности трансформатора рассчитывается как
DPтр = DP1+ DP 2 +DP 3 + DP 4 = s2Р1+s2Р2 + s2Р3 +s2Р4 .
Рассмотрим ещё один пример [ ], наглядно свидетельствующий о свойствах групповых нагрузок при их формировании. Примем допущения: 1) нагрузки независимые случайные величины, тогда ;
2) все эл. приемники подключены к шинам 0,38 кВ трансформатора.
3) Вероятность превышения γ=0,0228, тогда согласно таблицам для стандартного нормального закона распределения вероятностей кратность рассеяния β = 2.
4)Все электроприёмники однотипные
Будем придавать n различные значения, вычисляя Pтр.макс , а также коэффициент разновременности максимумов ( коэффициент одновременности )
,
и коэффициент максимума
.
n | |||||||
, кВт | |||||||
, кВт | 7,24 | 13,16 | 57,1 | ||||
К0 | 0,724 | 0,66 | 0,57 | 0,55 | 0,53 | 0,52 | |
КМ | 1,448 | 1,316 | 1,142 | 1,1 | 1,062 | 1,032 |
Если к шинам НН трансформатора подключен только один приемник, максимальная мощность определяется как
.
В практических расчетах эл. нагрузок Рмакс для одного эл.приемника принимается равной его номинальной мощности, но нам полученный выше результат нужен для обобщений.
Если n=5 и 10 максимальная мощность группы рассчитывается как
С увеличением n диапазон изменения нагрузок увеличивается, т.е. Др и группы растет. Однако увеличение средней нагрузки Рсм идет быстрее увеличения стандартного отконния : так, для одинаковых электроприемников средняя мощность пропорциональна n
а стандартное отклонение .
Поэтому происходит относительное уменьшение неравномерности при увеличении абсолютной неравномерности нагрузки.
С увеличением кол-ва электроприёмников происходит относительное выравнивание суммарных графиков, поэтому при больших n расчет можно производить по средним значениям, принимая .
Математическая модель системы СВ используется так же:
2) При решении задачи выравнивания группового графика нагрузки, состоящей в задании сдвигов между моментами включения электроприемников, приводящих к уменьшению величины групповой дисперсии мощности и тока. Эта задача особо важна для эл.приемников большой мощности, как электрически дуговые нити высокой нагрузки.
Для n зависимых эл.приемников дисперсия групповой нагрузки
Подбором сдвигов между индивидуальными графиками нагрузки можно получить отрицательные значения корреляционных моментов и значения групповой дисперсии меньше, чем сумма индивидуальных дисперсий.
Такое выравнивание группового графика нагрузки позволяет:
а) уменьшить максимум мощности группы
где
б) уменьшить потери электроэнергии в сети при сохранении того же расхода электроэнергии на технологический процесс.
Пусть ток группы эл.приемников Iср- средняя величина
Тогда потери акт. мощности в сети тоже сл. величина
Где r – эквив. активное сопротивление сети, Ом.
Её математическое ожидание
и потери электроэнергии
Где - расход активной и реактивной энергии.
КОМПЛЕКСНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
Комплексной случайной величиной (СВ) называется случайная величина вида
,
где Х1, Х2 — действительные случайные величины.
Комплексную случайную величину можно геометрически представить случайной точкой на плоскости х10х2.
Математическим ожиданием комплексной СВ Х называется неслучайное комплексное число
.
Это среднее значение величины Хили геометрически средняя точка , вокруг которой происходит рассеивание случайных точек Х.
Дисперсией комплексной случайной величины называется математическое ожидание квадрата модуля отклонения СВ Х от её математического ожидания
.
Геометрически дисперсия комплексной СВ есть среднее значение квадрата расстояния от СВ Х до её математического ожидания . Эта величина характеризует разброс случайных точек Х около их среднего положения.
Из рисунка видно, что модуль есть расстояние между точками Х и , которое можно выразить через их действительные и мнимые части.
.
Т.е. дисперсия комплексной СВ равна сумме дисперсий её действительной и мнимой частей
.
В электроэнергетике S - кажущаяся или полная мощность
.
Дисперсия кажущейяся или полной мощности равна сумме дисперсий активной и реактивной мощностей.
Дисперсия комплексной случайной величины всегда действительна и положительна.
Рассмотрим две комплексные СВ
Корреляционным моментом двух комплексных СВ Z1 и Z2 называется
В этом выражении используется сопряженная комплексная величина , чтобы при , получить дисперсию, как действительную величину.
Выразим корреляционный момент двух комплексных СВ через корреляционные моменты их действительных и мнимых частей.
Здесь Kx1Y1, Kx2Y2, Kx2Y1, Kx1Y2 — корреляционые моменты систем СВ (X 1, Y1), (X 2, Y2), (X 2, Y1), (X 1 Y2) соответственно, т.е. корреляционные моменты действительных и мнимых частей комплексных случайных величин.