ТЕОРИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ. Курс лекций. М. Л. Сердобольская

Save this PDF as:
 WORD  PNG  TXT  JPG

Размер: px
Начинать показ со страницы:

Download "ТЕОРИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ. Курс лекций. М. Л. Сердобольская"

Транскрипт

1 ТЕОРИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ Курс лекций М. Л. Сердобольская 014

2 1. ПОНЯТИЕ СЛУЧАЙНОГО ПРОЦЕССА Пусть (Ω, F, P) некоторое вероятностное пространство. Пусть T подмножество действительной прямой. Определение 1.1. Случайным процессом называется семейство случайных величин { ξ(ω, t), ω Ω, t T. Как обычно в теории вероятностей, мы будем опускать зависимость от элементарного исхода и писать ξ(t) вместо ξ(ω, t), если эта зависимость не является существенной для наших рассуждений. Как правило, полагают, что T {t 0}, и в этом случае параметру t естественно придать смысл времени. Однако природа множества T может быть и другой. Поскольку конечное множество T {t 1,..., t n } приводит нас к понятию n-мерной случайной величины ξ (ξ 1,..., ξ n ), ξ k ξ(t k ), и тем самым мы возвращаемся в рамки теории вероятностей, в теории случайных процессов множество T считается бесконечным. Если множество T счётно, T {t 1, t,...}, то случайный процесс ξ(t) называется процессом с дискретным временем, или случайной последовательностью. Во многих физических моделях необходимо принять, что множество T лежит не на числовой прямой, а в многомерном пространстве, например в обычном трёхмерном евклидовом пространстве. Определение 1.1 в этом случае остаётся без изменений, а случайный процесс ξ(t) обычно называют случайным полем, или случайной функцией. Поскольку математические основы теории случайных процессов практически не зависят от того, какова размерность множества T, далее мы будем считать, что параметр t действительное число, более того, выбирать в качестве множества T либо счётное множество {t 1, t,...}, либо множество t 0, либо конечный интервал [0, T], 0 < T <. Другим направлением обобщений определения 1.1 является изменение размерности пространства значений функции ξ(, t), заданной на множестве элементарных исходов Ω: мы можем полагать, что ξ(ω, t) точка не на числовой прямой, а в многомерном пространстве. Особенно часто рассматриваются случайные процессы со значениями на комплексной плоскости. В этом случае ξ(t) ξ Re (t) + iξ Im (t) ρ(t)e iϕ(t), (1.1) где ξ Re (t), ξ Im (t), ρ(t), ϕ(t) для каждого фиксированного t T суть случайные величины, заданные на Ω, в их стандартном понимании. Далее, ввиду особой важности комплекснозначных (обычно для краткости говорят просто «комплексных») случайных процессов в физике, при формулировке определений и теорем мы, если это необходимо, будем специально оговаривать, о каком процессе, действительном или комплексном, идёт речь. Введем некоторые термины. Определение 1.. Пусть значение параметра t T фиксировано. Случайная величина ξ t (ω) ξ(t, ω), ω Ω, называется сечением случайного процесса в точке t. Пусть элементарный исход ω Ω фиксирован. Тогда числовая (действительноили комплекснозначная) функция ξ ω (t), t T, есть траектория (говорят также реализация, или выборочная функция) случайного процесса.

3 Обратим внимание на то, что мы обозначаем фиксированные аргументы t T или ω Ω нижними индексами, чтобы отличать соответственно случайные величины или неслучайные числовые функции от случайного процесса. Мы, как обычно, будем далее опускать зависимость от ω в сечении ξ t случайного процесса. Примем ещё одно соглашение об обозначениях. Мы будем часто обозначать как ξ(t) и сечение, и сам случайный процесс, просто оговаривая (если есть риск непонимания природы ξ(t) в каждом конкретном случае), о чём идёт речь; для случайных процессов мы также часто будем указывать, что t не фиксировано, а пробегает некое множество, т. е. писать ξ(t), t T. Пример 1.1. Пусть случайный процесс задан формулами (ниже α случайная величина) ξ(t) t α, P(α 1) P(α 1) 1, t > 0. Определить, как выглядят сечения и траектории данного случайного процесса. Решение. Фиксируем t > 0, получаем дискретную случайную величину ξ t, равновероятно принимающую два значения: P(ξ t t) P(ξ t 1/t) 1. Различные сечения случайного процесса суть случайные величины, имеющие распределения, сосредоточенные в двух точках, эти точки зависят от того, какое значение t > 0 фиксировано. Заметим, что при t 1 данная случайная величина принимает значение 1 с вероятностью единица, т. е. не является случайной. Теперь фиксируем элементарный исход ω, другими словами, фиксируем значение случайной величины α α(ω). Если элементарный исход ω таков, что α(ω) 1, то ξ ω (t) t, и траектория случайного процесса представляет собой прямую линию. Если же α(ω) 1, то ξ ω (t) 1/t, и траектория случайного процесса гипербола (оба варианта траектории заданы при t > 0). Отметим также, что данный случайный процесс по сути не является случайным: если в какой-либо момент времени мы находись на траектории, скажем, ξ(t) t, то мы можем с достоверностью утверждать, что во все последующие и предыдущие моменты времени мы этой траектории не покинем. Случайным является только выбор траектории в начальный момент времени Конечномерные распределения случайного процесса. Определение 1.3. Пусть ξ(t), t T, действительный случайный процесс. Зададим функцию F (n) ξ : (R T) n R равенством F (n) ξ (x 1, t 1 ;...; x n, t n ) P(ξ(t 1 ) < x 1,..., ξ(t n ) < x n ), x 1,..., x n R, t 1,..., t n T, n 1,,.... (1.) Функция F (n) ξ ( ) называется n-мерной функцией распределения случайного процесса ξ(t). 3

4 По сути n-мерная функция распределения случайного процесса ξ(t) это совместная функция распределения n случайных величин ξ t1,..., ξ tn, однако она рассматривается как функция n аргументов: n аргументов x 1,..., x n, каждый из которых произвольно меняется на действительной прямой (эти аргументы по своему смыслу полностью идентичны аргументам обычной совместной функции распределения n случайных величин); n аргументов t 1,..., t n, каждый из которых выбирается произвольно в множестве T (эти аргументы для совместной функции распределения n случайных величин являются параметрами). Значения функции распределения, как и любая другая вероятность, лежат в отрезке [0, 1]. На практике чрезвычайно редко используются n-мерные функции распределения при n >, т. е. рассматриваются исключительно одно- и двумерные функции распределения. Непосредственно из определения (1.) следует, что n-мерная функция распределения должна удовлетворять следующему условию: если {k 1,..., k n } произвольная перестановка множества индексов {1,..., n}, то F(x k1, t k1 ;...; x kn, t kn ) F(x 1, t 1 ;...; x n, t n ); (1.3) например, F(x 1, t 1 ; x, t ) F(x, t ; x 1, t 1 ) для всех x 1, R, t 1, T. Из свойств совместной функции распределения случайных величин вытекают следующие свойства n-мерной функций распределения случайного процесса. Выберем произвольным образом все аргументы x k, кроме одного, например x n (как вытекает из предыдущего свойства, номер выделенного аргумента несуществен), и зафиксируем их. Также выберем произвольно и зафиксируем t 1,...t n T n. Тогда n-мерная функцию распределения F (n) ( ) как функция одной переменной x n R непрерывна слева в каждой точке x n a, не убывает, F (n) (x 1, t 1 ;..., x n, t n ) xn a 0 F (n) (x 1, t 1 ;..., a, t n ); (1.4) F (n) (x 1, t 1 ;..., x n, t n ) F (n) (x 1, t 1 ;..., x n, t n ), x n x n ; (1.5) удовлетворяет двум предельным свойствам (во втором, разумеется, n > 1) F (n) (x 1, t 1 ;..., x n 1, t n 1 ; x n, t n ) xn 0, (1.6) F (n) (x 1, t 1 ;..., x n 1, t n 1 ; x n, t n ) xn + F (n 1) (x 1, t 1 ;..., x n 1, t n 1 ), (1.7) где F (n 1) ( ) (n 1)-мерная функция распределения случайного процесса. Напомним, что свойства (1.4) (1.7) верны при любых фиксированных x 1,..., x n 1 R и t 1,..., t n T. Если же мы «отпустим» все x-переменные и устремим их к +, то F (n) (x 1, t 1 ;..., x n, t n ) x1 + 1, t 1,..., t n T. (1.8) x n + Оказывается, что свойства (1.4) (1.8) не только необходимы, но и достаточны для того, чтобы функции F (n) ( ): (R T) n R, n 1,,..., были конечномерными функциями распределения некоторого случайного процесса (теорема Колмогорова). 4

5 Для комплексных случайных процессов (1.1), заданных как ξ(t) ξ Re (t)+iξ Im (t) или как ξ(t) ρ(t)e iϕ(t), также можно определить n-мерную функцию распределения. Это будет функция, заданная как совместная функция распределения n случайных величин ξ Re (t 1 ),..., ξ Re (t n ), ξ Im (t 1 ),..., ξ Im (t n ) или ρ(t 1 ),...ρ(t n ), ϕ(t 1 ),..., ϕ(t n ) в зависимости от формы представления комплексного случайного процесса. Свойства (1.4) (1.8) сохраняют свою силу за исключением того, что перестановка в (1.3), разумеется, должна производиться согласованно в каждом из n наборов аргументов. Приведем для пояснения этого замечания аналог равенства для процесса ξ(t) ξ Re (t) + iξ Im (t): F(x 1, t 1 ; x, t ) F(x, t ; x 1, t 1 ) F(x 1, y 1, t 1 ; x, y, t ) F(x, y, t ; x 1, y 1, t 1 ), где аргументы функции распределения сгруппированы по три в соответствии с определением F(x 1, y 1, t 1 ; x, y, t ) P(ξ Re (t 1 ) < x 1, ξ Im (t 1 ) < y 1 ; ξ Re (t ) < x, ξ Im (t ) < y ). Далее мы часто будем использовать сокращённые обозначения. Во-первых, вместо x 1,..., x n мы будем писать просто x и аналогично введем многомерную переменную t (размерность этих переменных обязательно равна размерности функции распределения). Во-вторых, мы часто будем опускать нижний индекс ξ в обозначении F (n) ξ ( ), а также, если мы говорим о функции конкретного фиксированного порядка, не будем писать и верхний индекс, используя для всех функций распредедения общее обозначение F( ): F(x, t) P(ξ(t) < x), x R, t T, F(x, t) P(ξ(t 1 ) < x 1, ξ(t ) < x ), x (x 1, x ) R, t (t 1, t ) T. (1.9) Примем ещё одно соглашение. Пусть x (x 1,..., x n ) и t (t 1,..., t n ) многомерные переменные. Неравенство x ξ(t) < x + dx будем понимать как одновременное выполнение неравенств вида x k ξ(t k ) < x 1 + dx k : x ξ(t) < x + dx { x 1 ξ(t 1 ) < x 1 + dx 1,..., x n ξ(t n ) < x n + dx n }. При этом, очевидно, P(x ξ(t) < x + dx) F(x + dx, t) F(x, t) d x F(x, t), где F( ) n-мерная функция распределения случайного процесса, d x F её дифференциал (приращение) по многомерной переменной x. Определение 1.4. Пусть ξ(t), t T, действительный случайный процесс. Если приращение n-мерной функции распределения F (n) ξ ( ) по переменной x при любых x R n и t T n имеет вид F (n) ξ (x + dx, t) F (n) ξ (x, t) p (n) ξ (x, t) dx, x R n, t T n, (1.10) то говорят, что случайный процесс ξ(t), t T, имеет n-мерную плотность распределения p (n) ξ ( ). Напомним, что dx dx 1...dx n. 5

6 Пример 1.. Пусть случайная величина ν имеет нормальное распределение с параметрами µ 0, σ 1, а случайный процесс задан как ξ(t) t + ν, t > 0. Найдем функции распределения данного случайного процесса. Решение. Имеем для n 1 F(x, t) P(ξ(t) < x) P(t + ν < x) P(ν < x t) F ν (x t), где F ν ( ) функция распределения случайной величины ν, имеющей нормальное распределение с параметрами µ 0, σ 1, F ν (z) 1 π z e u / du, < z < +, Поскольку случайная величина ν имеет плотность распределения p ν ( ), мы можем записать d x F(x, t) F ν ((x + dx) t) F ν (x t) p ν (x t) dx, p ν (z) 1 e z /, < z < +. π Мы получили, что наш случайный процесс имеет одномерную плотность распределения: p(x, t) p ν (x t) при всех значениях x R и t > 0. Для n имеем аналогично F(x, t) P(ξ(t 1 ) < x 1, ξ(t ) < x ) P(ν < x 1 t 1, ν < x t ). Понятно, что система неравенств ν < x 1 t 1 и ν < x t эквивалента неравенству ν < x 1 t 1, если x 1 t 1 < x t, и неравенству ν < x t, если x t < x 1 t 1. Другими словами, Аналогично, формула F(x, t) P(ν < x t ), x t min(x 1 t 1, x t ). (1.11) F(x, t) F ν (x t ), x t min(x 1 t 1,..., x n t n ), очевидно, задаёт n-мерную функцию распределения нашего случайного процесса. Вернёмся к n и попробуем найти двумерную плотность распределения: d x F(x, t) P(x 1 ξ(t 1 ) < x 1 + dx 1, x ξ(t ) < x + dx ) P(x 1 t 1 ν < x 1 + dx 1 t 1, x + t ν < x + dx t ) P ( ν [z 1, z 1 + dx 1 ) [z, z + dx 1 ) ), z 1 x 1 t 1, z x t. Поскольку dx 1 и dx бесконечно малы, интервалы [z 1, z 1 +dx 1 ) и [z, z +dx ) имеют непустое пересечение, если и только если z 1 z. В самом деле, если, скажем, мы имеем z 1 < z, то, выбирая достаточно малое dx 1, получим z 1 + dx 1 < z, при этом интервалы пересекаться не будут. Если же z 1 z z, то рассматриваемое пересечение равно [z, z + dz), где через dz мы обозначили (бесконечно малое) приращение min(dx 1, dx ). Отсюда d x F(x, t) P(z ν < z + dx) p ν (z) dz, < z < +, 6

7 где p ν (z) 1 π e z /, z x 1 t 1 x t, dz min(dx 1, dx ). Таким образом, приращение d x F(x, t) как функция, заданная в четырёхмерном пространстве (функция от двух двумерных переменных x (x 1, x ) и t (t 1, t )) отлично от нуля только на трёхмерной гиперплоскости, на которой x 1 t 1 x t. При этом d x F(x, t) имеет (первый) порядок малости dz min(dx 1, dx ) и не пропорционально dx 1 dx, как это предписано формулой (1.10). Таким образом, двумерная плотность распределения нашего случайного процесса не существует. Тем более не существуют и плотности распределения более высоких размерностей. Очевидно, что при n > приращение d x F(x, t) отлично от нуля только на гиперплоскости размерности n (n 1) n + 1: d x F(x, t) P(z ν < z + dx) 1 π e z / dz, z x 1 t 1 x n t n, и dz min(dx 1,..., dx n ). 1.. Моментные функции случайного процесса. Определение 1.5. Пусть ξ(t), t T, действительный случайный процесс. Если при каждом t T существует математическое ожидание случайной величины ξ(t), то функция m( ): T R, заданная равенством m(t) Mξ(t), t T, (1.1) называется математическим ожиданием случайного процесса ξ(t). Используя определение математического ожидания, запишем явную формулу Mξ(t) x df(x, t), если верно, что x df(x, t) <, t T. (1.13) R Здесь F( ) одномерная функция распределения случайного процесса, а интеграл понимается в смысле Лебега Стильтьеса. Неравенство (условие абсолютной сходимости интеграла) задаёт условие существования математического ожидания. Для комплексного случайного процесса математическое ожидание определяется в соответствии со свойством линейности: Mξ(t) M ( Re ξ(t) + i Imξ(t) ) M Re ξ(t) + im Imξ(t), t T, (1.14) при условии, что математические ожидания реальной и мнимой частей случайного процесса существуют. Таким образом определённое математическое ожидание есть функция на T со значениями на комплексной плоскости C. Очевидно, что если ξ(t) Re ξ(t) i Imξ(t) процесс, комплексно-сопряжённый процессу ξ(t), то M ξ(t) Mξ(t). Определение 1.6. Пусть ξ(t), t T, комплексный случайный процесс. Если при каждых t, s T существуют математические ожидания Mξ(t) и Mξ(t) ξ(s), то функция R: T T C, заданная равенством R R(t, s) M ( ξ(t) Mξ(t) )( ξ(s) Mξ(s) ), t, s T, (1.15) 7

8 называется ковариационной функцией случайного процесса ξ(t). Для действительного случайного процесса определение (1.15) принимает вид R(t, s) M ( ξ(t) Mξ(t) )( ξ(s) Mξ(s) ), t, s T. (1.16) Выражения в правых частях равенств (1.15) или (1.16) суть коэффициенты ковариации случайных величин ξ(t) и ξ(s). Также их можно переписать как R(t, s) Mξ(t) ξ(s) Mξ(t)M ξ(s), t, s T, (1.17) в случае действительного процесса ξ(s), разумеется, следует заменить на ξ(s). Положим в предыдущих равенствах t s. Определение 1.7. Функция D: T R +, заданная формулой Dξ(t) M ξ(t) Mξ(t) ξ(t) ξ(t) M ( ξ(t) Mξ(t) ), t T, (1.18) называется дисперсией случайного процесса ξ(t). В последнем определении мы использовали обозначение R + {x 0} для положительной части действительной оси, в правой части первого равенства под знаком математического ожидания стоит модуль комплекснозначной функции, а второе равенство даёт определение дисперсии действительного процесса. Свойства моментных функций случайного процесса вытекают из общих свойств математического ожидания. Мы здесь отметим только несколько из них. Ковариационная функция удовлетворяет равенству R(s, t) R(t, s), в случае действительного процесса R(s, t) R(t, s) для любых t, s T. Для любого набора комплексных чисел z 1,..., z n и любых значений t 1,..., t n T для корреляционной функции (1.15) имеет место неравенство i,j1 R(t i, t j )z i z j 0. (1.19) Положим ξ (t) ξ(t) Mξ(t), тогда ξ (s) ξ(s) M ξ(t) ξ(s) Mξ(s), и мы можем записать ( n ) R(t i, t j )z i z j Mξ (t i ) ξ (t j )z i z j M ξ (t i ) ξ (t j )z i z j i,j1 ( n M z i ξ (t i ) M i1 z i ξ (t i ) i1 i,j1 ) z ξ j (t j ) j1 0. ( n M i1 i,j1 ( n z i ξ (t i ) j1 ) ) z j ξ (t j ) В случае действительного процесса, разумеется, следует заменить комплексные числа z 1,..., z n на действительные, неравенство (1.19) при этом примет вид i,j1 R(t i, t j )z i z j 0, z 1,..., z n R, t 1,..., t n T, 8

9 а его доказательство проводится, как и выше, следует только убрать знаки комплексного сопряжения, а в последнем выражении можно заменить квадрат модуля суммы на просто квадрат суммы. Из неравенства Чебышёва вытекает, что если дисперсия случайного процесса равна нулю в точке t T, то для любого ε > 0 0 P ( ξ(t) Mξ(t) > ε ) M ξ(t) Mξ(t) ε Dξ(t) ε таким образом, P ( ξ(t) Mξ(t) > ε ) 0, другими словами, P ( ξ(t) Mξ(t) ε ) 1 для любого ε > 0, и мы имеем P ( ξ(t) Mξ(t) 0 ) P ( ξ(t) Mξ(t) ) 1, то есть при данном t сечение ξ t случайного процесса по сути не является случайной величиной: оно с вероятностью единица равно константе (величине Mξ(t)). Пример 1.3. Пусть ξ 1 (t) и ξ (t) случайные процессы из примеров 1.1 и 1.. Найти их математические ожидания и ковариационные функции. Решение. Имеем для всех t > 0 0, P(ξ 1 (t) t) P(ξ 1 (t) 1/t) 1, Mξ 1(t) t t 1 t + 1/t ; для процесса из примера 1. Mξ(t) M(t + ν) t + Mν t, поскольку t неслучайный параметр, а случайная величина ν имеет нормальное распределение с параметром µ Mν 0. Для расчёта ковариационной функции воспользуемся формулой (1.17) в её варианте для действительных процессов: R(t, s) Mξ(t)ξ(s) Mξ(t)Mξ(s), t, s > 0, Получаем для процесса ξ 1 (t) следующее: ξ 1 (t)ξ 1 (s) t α s α (ts) α, поэтому В результате Mξ 1 (t)ξ 1 (s) M(ts) α (ts) (ts) 1 1 ts + 1/ts. R(t, s) ts + 1/ts Для процесса ξ (t) имеем t + 1/t s + 1/s ts s/t t/s + 1/ts, t, s > 0. 4 Mξ(t)ξ(s) M(t + ν)(s + ν) ts + (t + s)mν + Mν ts + 1, где мы воспользовались тем, что Mν 0, Mν Dν + (Mν) Dν σ 1. Отсюда R(t, s) ts + 1 ts 1, t, s > 0. 9

10 Таким образом, в данном случае ковариационная функция торжественно равна единице. Положив t s, получим дисперсии: Dξ 1 (t) t + 1/t 4 ( ) t 1/t, Dξ (t) 1, t > 0. Эти выражения, впрочем, можно было получить и непосредственно, рассчитав дисперсии случайных велчин t α и t + ν. Подведём итог. Случайный процесс есть семейство случайных величин, зависящих от параметра t. Как правило, полагают, что этот параметр действительное число, но возможны и другие способы его задания. Также, как правило, рассматриваются случайные процессы со значениями в поле действительных или комплексных чисел. Выбрав одну случайную величину из этого семейства при заданном значении параметра t, мы получим так называемое сечение случайного процесса в точке t. Конечномерные (n-мерные) распределения случайного процесса суть совместные распределения n случайных величин, представляющих собой сечения случайного процесса в любых точках t 1,..., t n T. Математическое ожидание и дисперсия случайного процесса рассчитываются как математическое ожидание и дисперсия сечения случайного процесса в каждой точке t T. Для их расчёта необходимо знать одномерную функцию распределения. Значение ковариационной функции случайного процесса равно коэффициенту ковариации двух сечений случайного процесса в точках t, s T. Для его расчёта необходимо знать двумерную функцию распределения. Свойства функций распределения и моментных функций, а также методы их расчёта и анализа опираются на стандартные утверждения и теоремы теории вероятностей.. ПУАССОНОВ ПОТОК СОБЫТИЙ Рассмотрим некоторые события, каждое из которых может случайным образом произойти или не произойти в любой момент времени t > 0. Будем считать, что само событие имеет нулевую длительность. Иногда мы будем называть эти события элементарными, чтобы отличать от других, более сложных, случайных событий, которые будут возникать ниже. Пусть ξ(t) число событий, произошедших к моменту времени t, т. е. в промежуток времени [0, t), тогда η(t + h, t) ξ(t + h) ξ(t) число событий, произошедших в промежуток [t, t + h). Назовём случайную величину η(t + h, t) приращением случайного процесса ξ(t). Определение.1. Поток случайных событий назовём пуассоновым, если приращения η(t + h, t) как случайные величины удовлетворяют следующим условиям: независимость приращений: для любых t 1,..., t n таких, что 0 < t 1 < < t n, случайные величины η(t, t 1 ),..., η(t n, t n 1 ) независимы; однородность потока во времени: распределение приращения как случайной величины η(t + h, t) ξ(t + h) ξ(t) зависит только от h и не зависит от t, в связи с этим имеет смысл обозначать приращение как η(h) ξ(t + h) ξ(t) независимо от t; 10

11 редкость событий: при h 0 где λ постоянная величина, 0 < λ <. P(h 0) 1 λh + o(h), (.1) P(η(h) 1) λh + o(h), (.) P(η(h) > 1) o(h), (.3) Обсудим последнее условие. Запишем очевидное равенство P(η(h) k) 1, k0 справедливое для любого h > 0. При h 0 имеет смысл положить P(η(0) 0) 1, поскольку в промежуток времени длины ноль скорее всего ни одного элементарного события не случится, поэтому в сумме «выживает» одно слагаемое при k 0. Условия (.1) (.3) означают, что при малых положительных h в сумме, кроме первого, присутствует ещё одно слагаемое, которое отвечает событию η(h) 1, а события η(t + h, t) > 1 чрезвычайно редки (имеют вероятность порядка o(h)). Добавим к определению пуассонова потока событий естественное условие P(ξ(0) 0) 1 (.4) (отсчёт количества случайных событий начинается с нуля). Теорема.1. Пусть поток элементарных случайных событий является пуассоновым, т. е. удовлетворяет условиям независимости приращений, однородности во времени и условиям (.1) (.4). Тогда случайная величина ξ(t) при каждом t > 0 имеет распределение Пуассона с параметром λt: P(ξ(t) m) (λt)m m! e λt, m 0, 1,,.... (.5) Доказательство. Пусть значение t > 0 фиксировано. Выберем произвольное и пока также фиксированное натуральное число n > 1. Разобьем промежуток [0, t) точками t 0, t 1..., t n на n интервалов одинаковой длины: 0 t 0 < t 1 < < t N t, h t j t j 1 t n для всех j 1,..., n. Пусть η j η(t j, t j 1 ) η(t j 1 + h, t j 1 ) случайная величина, равная количеству элементарных событий, произошедших в промежуток [t j 1, t j ), j 1,,..., n. В силу условий независимости приращений и однородности потока все случайные величины η 1,..., η n независимы и одинаково распределены. В каждый из промежутков [t j 1, t j ) может произойти сколь угодно много событий, другими словами, любая из случайных величин η j может принимать значения 0, 1,,.... Кроме того, очевидно, общее количество элементарных событий в интервале [0, t) есть сумма событий, случившихся в каждом из маленьких интервалов [t j 1, t j ), j 1,,..., n: ξ(t) η j. j1 11

12 Рассмотрим следующее (не элементарное) событие: если все η j, j 1,,..., n, не превосходят единицы, то будем говорить, что случилось событие I n. Его дополнение (хотя бы одна из случайных величин η j, j 1,,..., n, приняла значение, большее единицы) обозначим через II n : I n n {η j 0, 1}, II n j1 Запишем формулу полной вероятности n {η j > 1}. P(ξ(t) m) P(ξ(t) m I n )P(I n ) + P(ξ(t) m II n )P(II n ) и найдём входящие в неё вероятности. Имеем в силу (.3) и η j η(t j 1 + h, t j 1 ) ( n ) P(II n ) P {η j > 1} j1 j1 P(η j > 1) n o(h) n o(t/n). j1 Далее, если реализовалось событие I n, то в каждом из интервалов [t j 1, t j ) либо произойдёт (ровно) одно элементарное событие (η j 1), либо не произойдёт ни одного элементарного события (η j 0), j 1,,..., n. При этом, как мы уже отмечали, случайные величины η 1,..., η n независимы и одинаково распределены. Другими словами, имеем схему n независимых испытаний Бернулли с вероятностью успеха p n P(η j 1) λh + o(h) λt/n + o(t/n) (.6) (см. условие (.)). Итак, P(ξ(t) m I n ) C m n p m n (1 p n ) n m, m 0, 1,..., n. (.7) Теперь посмотрим, к чему стремится каждая вероятность при n : P(II n ) n o(t/n) 0, P(ξ(t) m II n )P(II n ) P(II n ) 0, P(I n ) 1 P(II n ) 1, P(ξ(t) m II n ) (λt)m m! e λt, (.8) где в последнем предельном переходе мы применили теорему Пуассона: в формулах (.7) и (.6) C m n p m n (1 p n ) n m (λt)m m! Таким образом, e λt при n, np n λt + n o(t/n) λt. (λt) m P(ξ(t) m) P(ξ(t) m I n )P(I n ) + P(ξ(t) m II n )P(II n ) e λt n m! Поскольку выражение в левой части равенства не зависит от n, мы обязаны записать Теорема доказана. P(ξ(t) m) (λt)m m! e λt, m 0, 1,.... 1

13 Определение.. Случайный процесс ξ(t), t 0, называется процессом Пуассона, если он удовлетворяет требованиям независимости приращений, и каждое его приращение распределено по Пуассону: для t > s > 0 P(ξ(t) ξ(s) m) (λ(t s))m m! e λ(t s), m 0, 1,.... По непрерывности (предельным переходом при t +0) положим P(ξ(0) 0) 1. Непосредственно из определения вытекает, что сечение ξ(t) ξ(t) ξ(0) при любом t > 0 также распределено по Пуассону: P(ξ(t) m) (λt)m m! e λt, m 0, 1,.... Таким образом, пуассонов поток событий есть процесс Пуассона. Свойства процесса Пуассона. Сформулируем и докажем несколько важных следствий из определения.. 1. Нетрудно найти n-мерное распределение процесса Пуассона, т. е. P(ξ(t 1 ) m 1, ξ (t ) m,..., ξ(t n ) m n ). (.9) В силу независимости распределения от порядка событий ξ(t j ) m j, j 1,,..., n, мы без ограничения общности можем считать, что t 1 < t < < t n. Далее, поскольку приращение ξ(t j ) ξ(t j 1 ) распределено по Пуассону, данная случайная величина неотрицательна (т. е. ξ(t j ) ξ j 1 ) с вероятностью единица, следовательно, P(ξ(t 1 ) m 1, ξ (t ) m,..., ξ(t n ) m n ) 0, только если m 1 m m n. В соответствии с этим введём обозначения (при n ) η 1 ξ(t 1 ), k 1 m 1, η j ξ(t j ) ξ(t j 1 ), k j m j m j 1, j, 3,..., n. При этом в силу независимости приращений случайные величины η j, j 1,,..., n, независимы и распределены по Пуассону с параметром λ(t j t j 1 ). Кроме того, событие ξ(t 1 ) m 1, ξ (t ) m,..., ξ(t n ) m n равносильно событию η 1 k 1, η k,..., η n k n. Отсюда P(ξ(t 1 ) m 1, ξ (t ) m,..., ξ(t n ) m n ) P(η 1 k 1, η k,..., η n k n ) n (λ(t j t j 1 )) k j P(η 1 k 1 )P(η k )...P(η n k n ) e λ(t j t j 1 ). k j! Так выглядит n-мерное распределение процесса Пуассона. Можно привести это выражение к более интересному виду: заметим, что j1 k j (m j m j 1 ) m n, j1 j1 (t j t j 1 ) t n, j1 13 n e λ(t j t j 1 ) e λt n j1

14 и, если положить p j λ(t j t j 1 ) λt n, то p j 1, j1 1 (λt n ) m n n n (λ(t j t j 1 )) k j (λ(t j t j 1 )) k j (λt n ) k j j1 j1 n j1 p k j j. Поэтому где n (λ(t j t j 1 )) k j e λ(t j t j 1 ) (λt n) m n e λtn P p1,p k j! m n!,...,p n (k 1, k,..., k n ), (.10) j1 P p1,p,...,p n (k 1, k,..., k n ) k 1!k!...k n! p k 1 1 m n! pk...pk n 1 (.11) есть так называемая полиномиальная вероятность. Она является обобщением биномиальной вероятности C k m pk q m k на случай, когда в каждом из m независимых испытаний мы имеем не два возможных исхода (успех и неудачу), а исход одного из n типов. При этом p 1, p,...p n задают распределение этих возможных исходов в единичном акте эксперимента (p 1 + p + + p n 1). Вероятность P p1,p,...,p n (k 1, k,..., k n ) есть вероятность того, что в m n независимых испытаниях исход первого типа случится k 1 раз, исход второго типа случится k раз и т..д. вплоть до того, что исход n-го типа случится k n раз, при этом k 1 +k + +k n m n, т. е. полное число испытаний. Вероятность P p1,p,...,p n (k 1, k,..., k n ) переходит в биномиальную вероятность при n.. Напрямую из свойств распределения Пуассона получаем, что Mξ(t) λt, Dξ(t) λt. Можно сказать, что λ равно среднему числу элементарных событий в промежутке единичной длительности (при t 1). Параметр λ называется интенсивностью процесса Пуассона. Для расчёта ковариационной функции воспользуемся сначала условием (.4) и запишем для t > s ξ(s) ξ(s) ξ(0), ξ(t) ξ(t) ξ(s) + ξ(s) ξ(0), причём приращения α ξ(s) ξ(0) и β ξ(t) ξ(s) независимы. В результате имеем Mξ(t)ξ(s) Mα(α + β) Mα + Mαβ ( Dα + (Mα) ) + Mα Mβ или, возвращаясь к исходным обозначениям и используя выписанные выше выражения для математического ожидания и дисперсии, Mξ(t)ξ(s) ( Dξ(s) + M ξ(s) ) + Mξ(s) M(ξ(t) ξ(s)) λs + (λs) + λs(λt λs) λs + λs λt. Отсюда R(t, s) Mξ(t)ξ(s) Mξ(t)Mξ(s) λs, t > s. 14

15 Значения ковариационной функции при t < s получаются взаимной заменой t s: R(t, s) λt, t < s. Два последних выражения можно объединить в одно R(t, s) λ min(t, s) так выглядит ковариационная функция процесса Пуассона. Замечание.1. Если (комплекснозначный) случайный процесс ξ(t), t 0, имеет независимые приращения, т. е. для любых 0 < t 1 < < t n случайные величины ξ(t ) ξ(t 1 ),..., ξ(t n ) ξ(t n 1 ) независимы, и случайный процесс начинается в нуле, т. е. P(ξ(0) 0) 1, то R(t, s) Dξ(u) umin(t,s). (.1) В самом деле, если мы положим ξ (t) ξ(t) Mξ(t) при всех t 0, то случайный процесс ξ (t) также будет иметь независимые приращения, Mξ (t) Mξ (t) 0, Dξ (t) M ξ (t) Dξ(t) и P(ξ (0) 0) 1. При 0 < s < t мы имеем аналогично предыдущим рассуждениям R(t, s) M(ξ(t) Mξ(t))( ξ(s) Mξ(s)) Mξ (t)ξ (s) M ( ξ (t) ξ (s) + ξ (s) ξ (0) )( ξ (s) ξ (0) ) M(ξ (t) ξ (s)) M( ξ (s) ξ (0)) + M(ξ (s) ξ (0))( ξ (s) ξ (0)) 0 + M ξ (s) Dξ(s). При t < s мы получаем R(t, s) Dξ(t). Оба случая объединяются в общую формулу (.1), справедливую для любого случайного процесса с независимыми приращениями, начинающегося в нуле. Траектории ξ ω (t), t 0, процесса Пуассона представляют собой кусочно-постоянные функции, выходящие из нуля, ξ ω (0) 0, в случайные моменты времени τ 1, τ,... испытывающие скачок, равный +1: ξ ω (τ k 0) k 1, ξ ω (τ k ) k, k 1,,.... Момент времени t τ k это время наступления k-го элементарного события. Очевидно, что с вероятностью единица 0 < τ 1 < τ < < τ n <. Пример.4. Найти распределение случайной величины τ k. Решение. Если τ k t, то k-e элементарное событие случилось не раньше чем в момент времени t, следовательно, на промежутке [0, t) произошло строго меньше чем k элементарных событий, ξ(t) < k. Наоборот, если ξ(t) < k, то k-e элементарное событие случилось позже чем в любой момент времени t < t, следовательно, τ k t. Таким образом, условие τ k t эквивалентно ξ(t) < k, поэтому P(τ k t) P(ξ(t) < k) 15 k 1 m0 (λt) m e λt. m!

16 Функция распределения случайной величины τ k записывается как F k (t) def P(τ k < t) 1 P(τ k t) 1 P(ξ(t) < k) P(ξ(t) k) или, в явном виде, F k (t) 1 k 1 m0 (λt) m e λt m! mk (λt) m e λt, t > 0. (.13) m! При этом F k (0) P(τ k < 0) 0. Найдём плотность плотность распределения случайной величины τ k : p k (t) df k dt (t) d dt k 1 m0 (λt) m m! e λt. Выделим отдельно первое слагаемое, не содержащее степенной функции, получим p k (t) de λt dt λe λt + λ k 1 m1 k 1 m1 ( ) d (λt) m e λt dt m! (λt) m e λt m! k 1 m1 λ m(λt)m 1 m! Объединяем обратно первый и второй член в правой части, e λt. λe λt + λ k 1 m1 (λt) m e λt λ m! k 1 m0 (λt) m e λt, (.14) m! а в третьем члене делаем тривиальные преобразования и сдвигаем индекс суммирования как m m 1, k 1 m1 λ m(λt)m 1 m! e λt λ k 1 m1 (λt) m 1 (m 1)! e λt λ k m 0 λ (λt)m m! e λt. (.15) Видим что правые части равенств (.14) и (.15) различаются только одним слагаемым (при m k 1 в (.14)), таким образом, p k (t) λ k 1 m0 (λt) m e λt λ m! k m 0 λ (λt)m m! e λt λ (λt)k 1 (k 1)! e λt. (.16) В частности, p 1 (t) λe λt, t > 0, и время ожидания первого из элементарных событий имеет экспоненциальное распределение. Пример.5. Показать, что промежутки времени τ k τ k τ k 1 (считаем, что τ 0 0 с вероятностью единица и, следовательно, τ 1 τ 1 ) между последовательными моментами наступления элементарных событий в процессе Пуассона независимы при всех k 1,,..., n для любого n > 1 и каждая из случайных величин τ k имеет экспоненциальное распределение, т. е. её плотность распределения имеет вид λe λt при t > 0. 16

17 Решение. Для решения задачи достаточно показать, что для любого выбора значений t 1, t,..., t n > 0 P(t 1 τ 1 < t 1 + δt 1, t τ < t + δt,..., t n τ n < t n + δt n ) δt 1 δt...δt n δt +0 n λe λt k λ n e t 1+t + +t n, (.17) δt +0 где δt max{δt 1, δt,..., δt n }. Для простоты рассмотрим сначала случай n. Пусть t 1, t > 0. Введём обозначения T 1 t 1, T t 1 + t. Очевидно, T > T 1. Выберем δt 1 > 0 настолько малым, что бывыполнялось неравенство T 1 +δt 1 < T (чтобы точка t 1 + δt 1 лежала на оси времени между t 1 и t 1 + t ), а δt > 0 выберем произвольно. Тогда событие t 1 τ 1 < t 1 + δt 1, заключающееся в том, что первое из элементарных событий пуассонова потока случилось в интервале [t 1, t 1 +δt 1 ) эквивалентно тому, что в промежуток [0, T 1 ) элементарных событий не было, а в промежуток [T 1, T 1 + δt 1 ) произошло (ровно) одно элементарное событие. Аналогично t τ < t +δt эквивалентно тому, что в промежуток [T 1 +δt 1, T ) элементарных событий не было, а в промежуток [T, T +δt ) произошло (ровно) одно элементарное событие. При этом все упомянутые промежутки не пересекаются. Таким образом, в терминах приращений η(t, t + s) ξ(t + s) ξ(t) процесса Пуассона ξ(t), t > 0, мы имеем P(t 1 τ 1 < t 1 + δt 1, t τ < t + δt ) P { η(t 1 ) 0, η(t 1, T 1 + δt 1 ) 1, η(t 1 + δt 1, T ) 0, η(t, T + δt ) 1 }. Приращения независимы и распределены по Пуассону, поэтому P(t 1 τ 1 < t 1 + δt 1, t τ < t + δt ) P(η(T 1 ) 0) P(η(T 1, T 1 + δt 1 ) 1 1) P(η(T 1 + δt 1, T ) 0) P(η(T, T + δt ) 1) e λt1 (λδt 1 )e λδt1 e λ(t T 1 δt 1) (λδt )e λδt λ e T +δ δt 1 δt. C учётом того, что T t 1 + t, поделив на δt 1 δt, мы получаем при δt 1, δt 0 правую часть формулы (.17) при n. Обобщение на случай произвольного n > 1 очевидно. Пусть t 1, t,..., t n > 0. Введём обозначения T 1 t 1, T t 1 + t,..., T n t 1 + t + + t n. Для каждого k 1,,..., n 1 выберем δt k > 0 настолько малым, чтобы было выполнено неравенство T k + δt k < T k+1, а δt n > 0 выберем произвольно. Положим также T 0 0 и δt 0 0. Тогда P(t 1 τ 1 < t 1 + δt 1, t τ < t + δt,..., t n τ n < t n + δt n ) 17

18 n { P(η(Tk 1 + δt k 1, T k ) 0) P(η(T k, T k + δt k ) 1) } { ( n exp λ (T k T k 1 δt k 1 ) + λ n e T n+δn δt 1 δt...δt n. )} n δt k (λδt k ) C учётом того, что T n t 1 +t + +t n, мы получаем при max{δt 1, δt,..., δt n } 0 формулу (.17). Замечание.. Пусть случайная величина τ имеет экспоненциальное распределение, p τ (t) λe λt, t > 0. Найдём условную вероятность P(t τ < t + s τ t). Имеем при t, s > 0 P(t τ < t + s τ t) P(t τ < t + s, τ t) P(τ t) P(t τ < t + s). P(τ t) Находим вероятности Отсюда P(t τ < t + s) P(τ t) t+s t t λe λu du e λt e λ(t+s), λe λu du e λt. P(t τ < t + s τ t) e λt e λ(t+s) e λt 1 e λs не зависит от t. Другими словами, экспоненциальное распределение не имеет «памяти»: если первое (и, как мы отмечали выше, любое другое) элементарное событие не случилось к моменту времени t, вероятность (условная) того, что оно случится в следующие s единиц времени не зависит от t, т. е. от того, как долго мы ждали наступления этого события. Пример.6. Пусть известно, что в промежутке времени [0, t) произошло ровно n элементарных событий из пуассонова потока, n > 1. Выделим каким-либо образом одно из этих элементарных событий. При условии, что к моменту времени t произошло ровно n элементарных событий, найти вероятность того, что выделенное событие случится в промежуток [0, s) при s < t. Решение. Обозначим через A (s) событие, заключающееся в том, что выделенное элементарное событие случится в промежуток [0, s). Тогда нам требуется найти P(A (s) ξ(t) n) P(A (s) {ξ(t) n}), P(ξ(t) n) (λt)n e λt. P(ξ(t) n) n! Далее, разложим событие A (s) {ξ(t) n} по полной группе событий Sn k (s; t), k 0, 1,..., n, заключающихся в том, что из n элементарных событий, случившихся в интервале [0, t), ровно k событий произойдёт до момента времени s: Sn k (s; t) {ξ(s) k, ξ(t) ξ(s) n k}. 18

19 По формуле полной вероятности Заметим, что P(A (s) {ξ(t) n}) P(A (s) {ξ(t) n} Sn k )P(Sk n ) k0 P(A (s) {ξ(t) n} S k n ) k n, потому что, если ровно k событий из n попадают в интервал [0, s), то вероятность того, что наше выделенное элементарное событие окажется среди них, равна отношению числа благоприятных ситуаций (выделенное событие одно из k) к общему числу возможностей (выделенное событие одно из n). Далее, по формулам (.10), (.11) при n P(Sn k ) P(ξ(s) ξ(0) k, ξ(t) ξ(s) n k) (λt)n n! Таким образом, При этом e λt n! k!(n k)! pk q n k, P(A (s) {ξ(t) n}) 1 n k k0 k0 p λs λt k n (λt)n e λt n! P(ξ(t) n) k0 k n n! k!(n k)! pk q n k p λs λt s t, λ(t s), q 1 p. λt n! k!(n k)! pk q n k n! k!(n k)! pk q n k. поскольку в сумме легко узнать математическое ожидание биномиального распределения, равное np. В результате имеем P(A (s) ξ(t) n) P(A (s) {ξ(t) n}) P(ξ(t) n) s t. Пример.7. Пусть случайные величины α 1, α... независимы и имеют одинаковые математическое ожидание и дисперсию, Mα j a, Dα j d. Положим P(α 0 0) 1. Определим N(t), t 0, как процесс Пуассона с интенсивностью λ, причём любое сечение этого процесса и случайные величины α 1, α,... будем также считать независимыми. Случайный процесс ξ(t) задан формулой ξ(t) N(t) j0 α j, t 0. Найти математическое ожидание и ковариационную функцию процесса ξ(t). 19

20 Решение. Возьмём полную группу событий N(t) n, n 0, 1,,..., и разложим одномерную функцию распределения процесса ξ(t) по этой полной группе: F ξ (x, t) P(ξ(t) < x N(t) n)p(n(t) n) k0 F ξ (x, t N(t) n)p(n(t) n), где через F ξ ( N(t) n) мы обозначили условную (при условии N(t) n) одномерную функцию распределения случайного процесса. Тогда математическое ожидание случайного процесса ξ(t) также разложится в сумму условных математических ожиданий (здесь мы не приводим строгого математического обоснования законности перестановки интеграла и суммы): Mξ(t) x df ξ (x, t) n0 M(ξ(t) N(t) n)p(n(t) n). n0 Далее, по условию и, самое главное, ( N(t) M(ξ(t) N(t) n) M M P(N(t) n) (λt)n n! j0 α j j0 k0 x df ξ (x, t N(t) n)p(n(t) n) e λt ) ( n α j N(t) n M j0 ) α j N(t) n Mα j an, (.18) j1 где при переходе от условного математического ожидания к безусловному (при переходе на вторую строку формулы) мы воспользовались независимостью случайных величин N(t) и α 0, α 1, α...; при этом условная вероятность равна безусловной. Также мы учли, что Mα j a при j > 0 и Mα 0 0. Таким образом, Mξ(t) a n0 n (λt)n n! e λt aλt. (.19) Здесь при вычислении суммы мы использовали тот факт, что она определяет математическое ожидание случайной величины, распределённой по Пуассону с параметром λt. Для расчёта ковариационной функции мы воспользуемся аналогичным приёмом, но теперь полная группа событий будет связана с возможными значениями двух различных сечений случайного процесса. Кроме того, следует учесть, что приращение N(t + s) N(s) при t, s > 0 распределено по Пуассону и принимает неотрицательные целые значения, следовательно, N(t + s) N(t) с вероятностью единица. В соответствии с этим выберем полную группу событий как N(s) m, m 0, 1,,..., N(t + s) n + m, n 0, 1,,.... 0

21 При этом в силу независимости приращений процесса N(t), t 0, P(N(s) m, N(t + s) n + m) P(N(s) N(0) m, N(t + s) N(s) n) P(N(s) N(0) m) P(N(t + s) N(s) n) (λs)m m! e λs (λt)n n! e λt P s (m)p t (n), в правой части для краткости мы ввели обозначения для пуассоновых вероятностей P s (m) P(N(s) m) (λs)m m! e λs, P t (n) P(N(t) n) P(N(t + s) N(s) n) (λt)n n! Итак, имеем по аналогии с (.18) Mξ(s)ξ(t + s) m0 n0 M m0 n0 m0 n0 ( N(s) M j0 m j0 N(t+s) α j n+m α j k0 P s (m)p t (n) k0 e λt. ) α k N(s) m, N(t + s) n + m α k P s (m)p t (n) m Теперь найдём Mα j α k. Очевидно, n+m j0 k0 Mα j α k Mα j α k. P(N(s) m, N(t + s) n + m) { Mα j Mα k, j k Mα k, j k и (поскольку неслучайная величина α 0 0 независима с остальными α k ) { { a, k j, k, j > 0, Mα j Mα k Mα k 0, k j, k j 0, a + d, k > 0, 0, k 0. Таким образом, m j0 n+m k0 Mα j α k m j1 n+m Mα j α k m n+m (a + δ jk d ) j1 a m(m + n) + d m a m + a mn + d m. (.0) Теперь подставляем полученные выражения в разложение по полной группе событий. Имеем mp s (m)p t (n) mp s (m) P t (n) λs, m0 n0 m0 1 n0

22 m0 n0 m P s (m)p t (n) m P s (m) m0 P t (n) λs + (λs), где, суммируя по m, мы нашли математические ожидания случайных величин N(s) и N (s), а суммируя по n, учли условие нормировки распределения случайной величины N(t + s) N(t). Наконец, m0 n0 mnp s (m)p t (n) mp s (m) m0 n0 np t (n) λs λt Собираем все полученные результаты (см. правую часть равенства (.0)): n0 Mξ(s)ξ(t + s) a ( λs + (λs) ) + a λs λt + d λs. Отсюда, принимая во внимание уже найденное математическое ожидание (.19), получаем R(s, t + s) Mξ(s)ξ(t + s) Mξ(s) Mξ(t + s) a ( λs + (λs) ) + a λs λt + d λs aλs aλ(t + s). Приведём подобные слагаемые: R(s, t + s) λs(a + d ). Видно, что значение ковариационной функции определяется значением меньшего из её аргументов, как это бывает у процессов с независимыми приращениями. В заключение рассмотрим процесс, в некотором роде обратный к процессу Пуассона. Пусть в составе некоторой системы имеется устройство, которое работает в течение случайного времени τ, после чего отказывает. Непосредственно после отказа устройство мгновенно заменяют на аналогичное. Таким образом, время работы системы до n-го отказа есть случайная величина S n τ τ n, (.1) где τ k время работы k-го устройства. Мы будем считать, что случайные величины τ 1, τ,..., τ n независимы при любом n и одинаково распределены. Определим случайный процесс ξ(t), t > 0, формулой ξ(t) max{n τ τ n t}, t > 0, (.) таким образом, ξ(t) количество отказов, случившихся вплоть до момента времени t. Процесс ξ(t) называется процессом восстановления. Пример.8. Пусть в случайном процессе (.) случайные величины имеют экспоненциальное распределение с плотностью e x при x > Найти математическое ожидание процесса (.).. Положим S n τ 1 + τ + + τ n, как в (.1), и зададим случайные процессы V (t) и U(t) формулами V (t) S ξ(t)+1 t, U(t) t S ξ(t), t 0. (.3) Найти P(V (t) > v, U(t) > u) для u, v > Найти MU(t).

23 Решение. Очевидно, что ξ(t) 0, 1, Прежде всего отметим, что ξ(t) n тогда и только тогда, когда S n t, S n+1 > t. Кроме того, ξ(t) m эквивалентно S m t, поэтому Mξ(t) mp(ξ(t) m) m0 m { P(ξ(t) m) P(ξ(t) m + 1) } m0 m { P(S m t) P(S m+1 t) } m0 Для краткости формул введём обозначение P m P(S m t), тогда Mξ(t) m(p m P m+1 ) m0 mp m m0 mp m+1. Во второй сумме произведём сдвиг индекса m m + 1 и учтём, что слагаемое при m 0 вклада в суммы не даёт, в результате Mξ(t) mp m m1 (m 1)P m m1 P m m1 m0 P(S m t). Это общая формула, справедливая при любом распределении случайных величин τ k. Далее мы получим явный ответ, считая, что τ k распределены экспоненциально, p τk (x) e x при x > 0. Индукцией по n покажем, что в нашем случае плотность распределения p n ( ) случайной величины S n имеет вид (.16) (в нашем случае при λ 1) p n (x) m1 xn 1 (n 1)! e x, x > 0, при всех n 1,,.... (.4) Пусть x > 0. При n 1 мы имеем S 1 τ 1, следовательно, по условию задачи p 1 (x) e x, и начальное индукционное утверждение выполнено. Пусть для некоторого n плотность распределения случайной величины S n имеет вид (.4). Тогда S n+1 S n +τ n+1, причём (опять же по условию задачи) случайные величины S n τ τ n и τ n+1 независимы. Тогда функцию распределения случайной величины S n+1 можно найти стандартным образом: для x > 0 F n+1 (x) P(S n + τ n+1 < z) p (z)p S n τ n+1 (y) dz dy z+y<x z,y>0 z+y<x z n 1 (n 1)! e z e y dz dy Возьмём только внутренний интеграл, F n+1 (x) x 0 z n 1 x (n 1)! e z (1 e (x z) ) dz 0 3 x 0 z n 1 x z (n 1)! e z dz e y dy. 0 z n 1 x (n 1)! e z dz e x 0 z n 1 (n 1)! dz,

24 и найдём плотность распределения, дифференцируя под знаком интеграла: p n+1 (x) d x dx F n+1(x) xn 1 (n 1)! e x ( e x z n 1 ) xn 1 dz + e x 0 (n 1)! (n 1)! x e x z n 1 (n 1)! dz e x zn x n! xn n! e x, x > 0. 0 Мы видим, что p n+1 ( ) имеет вид (.4). Формула (.4) доказана. Вернёмся к нашей задаче и найдём распределение произвольного сечения случайного процесса ξ(t). По аналогии с формулами, приведёнными выше, запишем P(ξ(t) n) P(S n t, S n+1 > t) P(S n t, S n + τ n+1 > t) p n (z)p τn+1 (y) dz dy z t, z+y>t z t, z+y>t z,y>0 t z n 1 0 z n 1 t (n 1)! e z e y dz dy 0 (n 1)! e z e (t z) zn n! 0 t 0 z n 1 (n 1)! e z dz e y dy t z e t tn n! e t. Таким образом, ξ(t) имеет распределение Пуассона с параметром t, следовательно, Mξ(t) t.. Для решения второй части задачи вновь используем разложение по полной группе событий, в данном случае по ξ(t) n, n 0, 1,.... Если ξ(t) n, то V (t) S ξ(t)+1 t S n+1 t, U(t) t S ξ(t) t S n. Тогда с учётом того, что P(ξ(t) n) P(S n t, S n+1 > t), мы имеем разложение (в данном случае даже без использования условных вероятностей) P(V (t) > v, U(t) > u) P(V (t) > v, U(t) > u, ξ(t) n) n0 P(S n+1 t > v, t S n > u, S n t, S n+1 > t) n0 P(S n t, S n < t u, S n+1 > v + t, S n+1 > t) n0 P(S n < t u, S n+1 > v + t) n0 P(S n < t u, S n + τ n+1 > v + t). Вновь сводя вычисление вероятности к интегрированию, получаем z n 1 P(S n < t u, S n + τ n+1 > v + t) (n 1)! e z e y dz dy n0 z<t u, z+y>v+t z,y>0 4

25 t u 0 Таким образом, e (v+t) t u P(V (t) > v, U(t) > u) z n 1 t u (n 1)! e z dz e y dy v+t z 0 0 z n 1 (n 1)! n0 (t u)n dz e (v+t). n! (v+t) (t u)n e n! z n 1 (n 1)! e z e (v+t z) dz e (v+t) e t u e (u+v) e u e v. Мы получили, что случайные величины V (t) и U(t) независимы. Более того, одномерная плотность распределения случайного процесса U(t) задаётся формулами p U (u, t) dt P(u < U(t) u + du) P(U(t) > u) P(U(t) > u + du) e u e (u+du) e u du, u > 0, другими словами, случайная величина U(t), как и τ 1, τ..., имеет экспоненциальное распределение, p U (u, t) e u при u > Используя последнюю формулу, получим M U(t) КОНЕЧНЫЕ ОДНОРОДНЫЕ ЦЕПИ МАРКОВА Рассмотрим случайный процесс ξ(t) с дискретным временем t {t 1, t,..., t n,...}. Для краткости обозначений положим ξ n ξ(t n ), n 0, 1,... (напомним, случайный процесс с дискретным временем можно понимать и как случайную последовательность). Будем полагать, что любая из случайных величин ξ n, n 1,,..., распределена дискретно и принимает значения из одного и того же множества {x 1,..., x s }; в большинстве случаев мы будем считать, что s < Определение цепи Маркова. Свойства матриц перехода. Определение 3.1. Случайный процесс ξ(t), t {t 1, t,..., t n,...} (или, что эквивалентно, случайная последовательность ξ n ξ(t n ), n 1,,...), со значениями в множестве {x 1,..., x s } называется однородной цепью Маркова 1, если его конечномерные распределения задаются следующим образом: n 1 : P(ξ 1 x i ) a i 0, i 1,..., s, s a i 1; (3.1) n > 1 : P(ξ 1 x i1, ξ x i,..., ξ n 1 x in 1, ξ n x in ) a i1 π i1 i...π in 1 i n, (3.) где π ij некоторые числа, i, j 1,..., s; здесь значения x i1,..., x in выбраны произвольным образом. 1) Смысл термина «однородность» будет раскрыт далее. 5 i1

26 Определение 3.. Значение x i назовём i-м состоянием цепи Маркова. Если произошло событие ξ n x i, то будем говорить, что цепь Маркова на n-м шаге пребывала в i-ом состоянии. Равенства (3.1) задают распределение цепи Маркова на первом шаге, или начальное распределение. Видно, что формула (3.1) никак не ограничивает вид этого (дискретного) распределения. Смысл коэффициентов π ij в (3.) раскрывают следующие рассуждения. Для n, 3 равенства (3.) принимают вид P(ξ 1 x i, ξ x j ) a i π ij, P(ξ 1 x i, ξ x j, ξ 3 x k ) a i π ij π jk, отсюда следует, что π jk P(ξ 1 x i, ξ x j, ξ 3 x k ) P(ξ 1 x i, ξ x j, ξ 3 x k ) a i π ij P(ξ 1 x i, ξ x j ) P(ξ 3 x k ξ x j, ξ 1 x i ). (3.3) C другой стороны, по определению условной вероятности P(ξ 3 x k ξ x j ) P(ξ 3 x k, ξ x j ) P(ξ x j ) s P(ξ 1 x i, ξ x j, ξ 3 x k ) s, P(ξ 1 x i, ξ x j ) i1 i1 где мы разложили события {ξ 3 x k, ξ x j } и {ξ x j } по полной группе попарно несовместных событий {ξ 1 x i }, i 1,..., s. Подставляя определение (3.), получаем s a i π ij π jk i1 P(ξ 3 x k ξ x j ) s π jk. (3.4) a i π ij Сравнивая формулы (3.3) и (3.4), приходим к выводу, что i1 π jk P(ξ 3 x k ξ x j ) P(ξ 3 x k ξ x j, ξ 1 x i ). Аналогично, для общих значений n 3 имеем π in 1 i n P(ξ 1 x i1, ξ x i,..., ξ n x in, ξ n 1 x in 1, ξ n x in ) a i1 π i1 i...π in i n 1 P(ξ 1 x i1, ξ x i,..., ξ n x in, ξ n 1 x in 1, ξ n x in ) P(ξ 1 x i1, ξ x i,..., ξ n x in, ξ n 1 x in 1 ) P(ξ n x in ξ n 1 x in 1,..., ξ 1 x i1 ). C другой стороны, разлагая по состояниям на шагах с номерами 1,..., n, получаем P(ξ n x in ξ n 1 x in 1 ) P(ξ n x in, ξ n 1 x in 1 ) P(ξ n 1 x in 1 ) 6

27 s P(ξ 1 x i1, ξ x i,..., ξ n x in, ξ n 1 x in 1, ξ n x in ) (i)1 s s P(ξ 1 x i1, ξ x i,..., ξ n x in, ξ n 1 x in 1 ) (i)1 (i)1 a i1 π i1 i...π in i n 1 π in 1 i n s π in 1 i n, a i1 π i1 i...π in i n 1 (i)1 где суммирование по (i) означает (n )-кратное суммирование по всем индексам i 1,..., i n, изменяющимся от 1 до s. Таким образом, P(ξ n x in ξ n 1 x in 1,..., ξ 1 x i1 ) P(ξ n x in ξ n 1 x in 1 ) (3.5) и π ij P(ξ n x j ξ n 1 x i ), i, j 1,..., s, n 1,,.... (3.6) Условные вероятности (3.6) образуют матрицу π размера s s, которая называется матрицей перехода за один шаг. Равенство (3.5) часто принимают вместо (3.) за определение цепи Маркова. Нетрудно доказать, что из (3.5) следует (3.): в самом деле, из определения условной вероятности следует, что а из (3.5) мы имеем P(ξ 1 x i1, ξ x i,..., ξ n 1 x in 1, ξ n x in ) P(ξ n x in ξ n 1 x in 1,..., ξ x i, ξ 1 x i1 ) P(ξ n 1 x in 1,..., ξ x i, ξ 1 x i1 ), P(ξ n x in ξ n 1 x in 1,..., ξ x i, ξ 1 x i1 ) P(ξ n x in ξ n 1 x in 1 ) π in 1 i. Таким образом, мы получаем P(ξ 1 x i1, ξ x i,..., ξ n 1 x in 1, ξ n x in ) π in 1 ip(ξ n 1 x in 1,..., ξ x i, ξ 1 x i1 ). Применяя аналогичные рассуждения к P(ξ n 1 x in 1,..., ξ x i, ξ 1 x i1 ), получаем P(ξ 1 x i1, ξ x i,..., ξ n 1 x in 1 ) π in i n 1 P(ξ n x in,..., ξ x i, ξ 1 x i1 ) и, объединяя две последние формулы, имеем P(ξ 1 x i1, ξ x i,..., ξ n 1 x in 1, ξ n x in ) π in 1 i π in i n 1 P(ξ n x in,..., ξ x i, ξ 1 x i1 ). 7

28 Продолжая эту процедуру до P(ξ 1 x i1, ξ x i ) P(ξ x i ξ 1 x i1 )P(ξ 1 x i1 ) π i1 i a i1, в конечном итоге приходим к (3.). Отметим, что в (3.6) условные вероятности P(ξ n x j ξ n 1 x i ) определяются только индексами i, j и не зависят от n, т. е. по сути от момента времени t n. Такое свойство называется однородностью цепи Маркова. Итак, мы рассматриваем однородные цепи Маркова с конечным числом состояний s. Замечание 3.3. Если случайные ξ 1,..., ξ n независимы при любом n, 3,..., то условие (3.5), очевидно, выполнено, причём π ij P(ξ n x j ξ n 1 x i ) P(ξ n x j ), i, j 1,,..., s, (3.7) и мы видим, что в этом случае элементы матрицы перехода не зависят от первого индекса, т. е. в матрице перехода за один шаг все строки одинаковы (как обычно, считаем, что первый индекс элемента матрицы отвечает номеру строки, а второй номеру столбца). Замечание 3.4. Условие (3.5) означает, что если фиксированы состояния на первых n 1 шагах, то вероятность на n-м шаге находиться в определённом состоянии зависит (как функция от своих аргументов) только от состояния на предыдущем (n 1)-м шаге и не зависит от более ранних состояний. При этом данное условие не влечёт статистическую независимость случайной величины ξ n от случайных величин ξ 1,..., ξ n все шаги цепи Маркова статистически зависимы. По аналогии с (3.6) определим вероятность перехода за m > 1 шагов π (m) ij P(ξ n+m x j ξ n 1 x i ), i, j 1,,..., s, (3.8) и соответствующую матрицу π (m) перехода за m шагов размера s s с элементами (3.8). Тогда последнее замечание можно переформулировать так: в общем случае матрица перехода за m шагов не обязана иметь одинаковые строки. Докажем несколько утверждений, вытекающих непосредственно из определения цепи Маркова. 1. Очевидно, что, как и любая вероятность, условная вероятность лежит в интервале [0, 1], поэтому 0 π (n) ij 1, n 1,,..., i, j 1,..., s.. Для любого m 1,,... и всех i 1,..., s s j1 π (m) ij s P(ξ m+n x j ξ n x i ) j1 1 P(ξ n x i ) s j1 s j1 P(ξ m+n x j, ξ n x i ) P(ξ n x i ) P(ξ m+n x j, ξ n x i ) P(ξ n x i ) P(ξ n x i ) 1 8

, (1.2) где π ij некоторые числа, i, j = 1,..., s; здесь значения x i1,..., x in выбраны произвольным

, (1.2) где π ij некоторые числа, i, j = 1,..., s; здесь значения x i1,..., x in выбраны произвольным 1. КОНЕЧНЫЕ ОДНОРОДНЫЕ ЦЕПИ МАРКОВА Рассмотрим последовательность случайных величин ξ n, n 0, 1,..., каждая из коорых распределена дискретно и принимает значения из одного и того же множества {x 1,...,

Подробнее

Лекция 1. Понятие случайного процесса и его конечномерные распределения

Лекция 1. Понятие случайного процесса и его конечномерные распределения Лекция 1 Понятие случайного процесса и его конечномерные распределения Теория случайных процессов является частью теории вероятностей. Специфика теории случайных процессов состоит в том, что в ней рассматриваются

Подробнее

2. СЛУЧАЙНЫЕ БЛУЖДАНИЯ ПО ПРЯМОЙ

2. СЛУЧАЙНЫЕ БЛУЖДАНИЯ ПО ПРЯМОЙ . СЛУЧАЙНЫЕ БЛУЖДАНИЯ ПО ПРЯМОЙ Рассмотрим простейшую математическую модель случайного блуждания. Пусть точечная частица может совершать только один тип движений: в дискретные моменты времени t 0, t 1,...

Подробнее

Лекция 4. Доверительные интервалы

Лекция 4. Доверительные интервалы Лекция 4. Доверительные интервалы Буре В.М., Грауэр Л.В. ШАД Санкт-Петербург, 2013 Буре В.М., Грауэр Л.В. (ШАД) Лекция 4. Доверительные интервалы Санкт-Петербург, 2013 1 / 49 Cодержание Содержание 1 Доверительные

Подробнее

2. СЛУЧАЙНЫЕ БЛУЖДАНИЯ ПО ПРЯМОЙ

2. СЛУЧАЙНЫЕ БЛУЖДАНИЯ ПО ПРЯМОЙ . СЛУЧАЙНЫЕ БЛУЖДАНИЯ ПО ПРЯМОЙ Рассмотрим простейшую математическую модель случайного блуждания. Пусть точечная частица может совершать только один тип движений: в дискретные моменты времени t 1, t,...

Подробнее

Примеры распределений дискретных случайных величин

Примеры распределений дискретных случайных величин Примеры распределений дискретных случайных величин 1 Биномиальное распределение = μ ( ) Рассмотрим случайную величину равную числу появлений события A в серии n независимых испытаний. Распределение вероятностей

Подробнее

Предварительный письменный опрос. Список вопросов.

Предварительный письменный опрос. Список вопросов. ТЕОРИЯ ВЕРОЯТНОСТЕЙ. ВЕСНА 2016 г. Предварительный письменный опрос. Список вопросов. Основы теории множеств, аксиоматические свойства вероятности и следствия из них. 1. Записать свойства ассоциативности

Подробнее

Лекция 3. Условные распределения и условные математические ожидания. Достаточные статистики

Лекция 3. Условные распределения и условные математические ожидания. Достаточные статистики Лекция 3. Условные распределения и условные математические ожидания. Достаточные статистики Буре В.М., Грауэр Л.В. ШАД Санкт-Петербург, 2013 Буре В.М., Грауэр Л.В. (ШАД) Лекция 3. Условные распределения

Подробнее

ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ. Лекция 13

ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ. Лекция 13 ЧАСТЬ 7 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Лекция 3 ЗАКОН БОЛЬШИХ ЧИСЕЛ И ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА ЦЕЛЬ ЛЕКЦИИ: доказать неравенство Чебышева; сформулировать и доказать закон больших чисел и

Подробнее

ГЛАВА 5. СЛУЧАЙНЫЕ ПРОЦЕССЫ. 1. Случайный анализ

ГЛАВА 5. СЛУЧАЙНЫЕ ПРОЦЕССЫ. 1. Случайный анализ ГЛАВА 5. СЛУЧАЙНЫЕ ПРОЦЕССЫ. Случайный анализ Часто при исследовании различных явлений природы, экономических и технических процессов приходится иметь дело со случайными величинами, изменяющимися во времени.

Подробнее

Лекция 10 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН.

Лекция 10 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН. Лекция ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН -МЕРНЫЙ СЛУЧАЙНЫЙ ВЕКТОР ЦЕЛЬ ЛЕКЦИИ: определить числовые характеристики системы двух случайных величин: начальные и центральные моменты ковариацию

Подробнее

Глава 4. Основные законы распределения непрерывной случайной величины Равномерный закон распределения

Глава 4. Основные законы распределения непрерывной случайной величины Равномерный закон распределения 53 Глава 4. Основные законы распределения непрерывной случайной величины. 4.. Равномерный закон распределения Определение. Непрерывная случайная величина Х имеет равномерное распределение на промежутке

Подробнее

Тема 11. Неравенство Чебышева. Теорема Чебышева. Теорема Бернулли. Центральная предельная теорема. Интегральная теорема Муавра-Лапласа

Тема 11. Неравенство Чебышева. Теорема Чебышева. Теорема Бернулли. Центральная предельная теорема. Интегральная теорема Муавра-Лапласа Тема. Неравенство Чебышева. Теорема Чебышева. Теорема Бернулли. Центральная предельная теорема. Интегральная теорема Муавра-Лапласа Содержание Предельные теоремы теории вероятности 2 Неравенство Чебышева

Подробнее

Курс лекций. Министерство образования и науки Российской Федерации

Курс лекций. Министерство образования и науки Российской Федерации Министерство образования и науки Российской Федерации ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ "САРАТОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ИМЕНИ

Подробнее

Комментарии к теме «Характеристические функции»

Комментарии к теме «Характеристические функции» Комментарии к теме «Характеристические функции» Практические занятия по теории вероятностей, 322 гр., СМ, 2013 г. В. В. Некруткин 1 Определение и основные свойства Сначала сделаем следующее замечание.

Подробнее

Спектральные характеристики линейных функционалов и их приложения к анализу и синтезу стохастических систем управления

Спектральные характеристики линейных функционалов и их приложения к анализу и синтезу стохастических систем управления УДК 6-5 Спектральные характеристики линейных функционалов и их приложения к анализу и синтезу стохастических систем управления К.А. Рыбаков В статье вводится понятие спектральных характеристик линейных

Подробнее

Лекция 3. Интеграл Лебега. Пространства Лебега

Лекция 3. Интеграл Лебега. Пространства Лебега Лекция 3. Интеграл Лебега. Пространства Лебега Корпусов Максим Олегович, Панин Александр Анатольевич Курс лекций по линейному функциональному анализу 29 сентября 2011 г. Измеримые функции Интеграл Лебега,

Подробнее

6.1 Определения, предварительные сведения

6.1 Определения, предварительные сведения 6. Неявные функции 6.1 Определения, предварительные сведения Зависимость одной переменной от другой (или от других) не обязательно может быть выражена при помощи так называемого явного представления, когда

Подробнее

ГЛАВА 4. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ. 1. Неравенства Чебышева

ГЛАВА 4. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ. 1. Неравенства Чебышева ГЛАВА 4 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ Неравенства Чебышева Доказательство теоремы Чебышева основывается на неравенстве Чебышева Докажем это неравенство Неравенство Чебышева Вероятность того что отклонение (СВ) ξ

Подробнее

2 модуль Тема 13 Функциональные последовательности и ряды. Свойства равномерной сходимости последовательностей и рядов. Степенные ряды Лекция 11

2 модуль Тема 13 Функциональные последовательности и ряды. Свойства равномерной сходимости последовательностей и рядов. Степенные ряды Лекция 11 модуль Тема Функциональные последовательности и ряды Свойства равномерной сходимости последовательностей и рядов Степенные ряды Лекция Определения функциональных последовательностей и рядов Равномерно

Подробнее

МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ

МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 1 Многомерная случайная величина X = (X 1,X 2,,X n ) это совокупность случайных величин X i (i =1,2,,n), заданных на одном и том же вероятностном пространстве Ω. Закон распределения

Подробнее

ТЕОРИЯ ВЕРОЯТНОСТЕЙ: СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН И ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН

ТЕОРИЯ ВЕРОЯТНОСТЕЙ: СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН И ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН Т А Матвеева В Б Светличная С А Зотова ТЕОРИЯ ВЕРОЯТНОСТЕЙ: СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН И ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ ВОЛГОГРАДСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ

Подробнее

Лекция 1 ИНТЕГРАЛ ЛЕБЕГА И ПРОСТРАНСТВА ЛЕБЕГА. 1. Измеримые по Лебегу функции.

Лекция 1 ИНТЕГРАЛ ЛЕБЕГА И ПРОСТРАНСТВА ЛЕБЕГА. 1. Измеримые по Лебегу функции. Лекция 1 ИНТЕГРАЛ ЛЕБЕГА И ПРОСТРАНСТВА ЛЕБЕГА. Интеграл Лебега, конечно, строиться не для всех функций, а только для так называемых измеримых. В дальнейшем для удобства вместо тройки (, µ,µ ) мы будем

Подробнее

4. Понятие числового ряда. Критерий Коши сходимости числового ряда.

4. Понятие числового ряда. Критерий Коши сходимости числового ряда. 4. Понятие числового ряда. Критерий Коши сходимости числового ряда. Под словом "ряд"в математическом анализе понимают сумму бесконечного числа слагаемых. Рассмотрим произвольную числовую последовательность

Подробнее

2 Два вектора x, y R n будем считать равными тогда и только тогда, когда x k = y k для всех k = 1,..., n.

2 Два вектора x, y R n будем считать равными тогда и только тогда, когда x k = y k для всех k = 1,..., n. ГЛАВА 6. ЛИНЕЙНЫЕ ПРОСТРАНСТВА 1 1. Пространства R n и C n. Пространство R n это множество всех упорядоченных наборов x = (x 1, x 2,..., x n ) вещественных чисел, n 1 фиксированное целое число. Элементы

Подробнее

и ряды» Р. М. Гаврилова, Г. С. Костецкая Методические указания по теме «Функциональные последовательности

и ряды» Р. М. Гаврилова, Г. С. Костецкая Методические указания по теме «Функциональные последовательности Федеральное агентство по образованию Федеральное государственное образовательное учреждение высшего профессионального образования ЮЖНЫЙ ФЕДЕРАЛЬНЫЙ УНИВЕРСИТЕТ Р. М. Гаврилова, Г. С. Костецкая Методические

Подробнее

М. М. Попов Теория вероятности Конспект лекций

М. М. Попов Теория вероятности Конспект лекций 2009 М. М. Попов Теория вероятности Конспект лекций Выполнил студент группы 712 ФАВТ А. В. Димент СПбГУКиТ Случайное событие всякий факт, который в результате опыта может произойти или не произойти, и

Подробнее

ГЛАВА 1. УСТОЙЧИВОСТЬ ЛИНЕЙНЫХ СИСТЕМ. 1. Основные понятия теории устойчивости

ГЛАВА 1. УСТОЙЧИВОСТЬ ЛИНЕЙНЫХ СИСТЕМ. 1. Основные понятия теории устойчивости ГЛАВА УСТОЙЧИВОСТЬ ЛИНЕЙНЫХ СИСТЕМ В этой главе исследуется устойчивость самого простого класса дифференциальных систем линейных систем В частности, устанавливается, что для линейных систем с постоянными

Подробнее

ЛЕКЦИИ 8 9 Теорема Хилле Иосиды

ЛЕКЦИИ 8 9 Теорема Хилле Иосиды ЛЕКЦИИ 8 9 Теорема Хилле Иосиды S 3. Определение и элементарные свойства максимальных монотонных операторов Всюду на протяжении этих двух лекций символом H обозначено гильбертово пространство со скалярным

Подробнее

Московский государственный технический университет имени Н.Э. Баумана. Факультет «Фундаментальные науки» Кафедра «Математическое моделирование»

Московский государственный технический университет имени Н.Э. Баумана. Факультет «Фундаментальные науки» Кафедра «Математическое моделирование» ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ Московский государственный технический университет имени НЭ Баумана Факультет «Фундаментальные науки» Кафедра «Математическое моделирование» ÀÍ Êàíàòíèêîâ, ÀÏ Êðèùåíêî ÔÓÍÊÖÈÈ

Подробнее

Числовые характеристики дискретных случайных величин

Числовые характеристики дискретных случайных величин 1 Числовые характеристики дискретных случайных величин Математическое ожидание Expected Value (i.e. Mean) - характеризует среднее весовое значение случайной величины с учётом вероятности появлений значений

Подробнее

Лекция 1 ТЕОРИЯ МЕРЫ ЛЕБЕГА МНОЖЕСТВ ИЗ R Необходимость расширения понятия интеграла

Лекция 1 ТЕОРИЯ МЕРЫ ЛЕБЕГА МНОЖЕСТВ ИЗ R Необходимость расширения понятия интеграла Лекция 1 ТЕОРИЯ МЕРЫ ЛЕБЕГА МНОЖЕСТВ ИЗ R 2 1. Необходимость расширения понятия интеграла Сначала обсудим построение интеграла Римана. Пусть функция f(x) задана на собственном отрезке [a, b]. Определим

Подробнее

Доказательство: Применив теорему заметим что F F ( x ) во всех точках непрерывности предельной функции. Очевидно что 0 x < a F = x a Выберем произволь

Доказательство: Применив теорему заметим что F F ( x ) во всех точках непрерывности предельной функции. Очевидно что 0 x < a F = x a Выберем произволь Предельные теоремы для независимых одинаково распределенных случайных величин. Сходимость по вероятности сходимость с вероятностью единица. Неравенство П.Л.Чебышева. Закон больших чисел для последовательности

Подробнее

ЧАСТЬ І ОСНОВЫ ТЕОРИИ

ЧАСТЬ І ОСНОВЫ ТЕОРИИ .. Скалярные гиперслучайные величины 4 ЧАСТЬ І ОСНОВЫ ТЕОРИИ ГЛАВА ГИПЕРСЛУЧАЙНЫЕ СОБЫТИЯ И ВЕЛИЧИНЫ Введены понятия гиперслучайного события и гиперслучайной величины. Предложен ряд характеристик и параметров

Подробнее

Лекция 2 АБСТРАКТНАЯ МЕРА ЛЕБЕГА. 1. Схема построения абстрактной меры Лебега.

Лекция 2 АБСТРАКТНАЯ МЕРА ЛЕБЕГА. 1. Схема построения абстрактной меры Лебега. Лекция 2 АБСТРАКТНАЯ МЕРА ЛЕБЕГА На прошлой лекции мы рассмотрели построение меры Лебега плоских множеств. Теперь наша задача обобщить эту процедуру на случай произвольных множеств. При этом существо схемы

Подробнее

Первые интегралы систем ОДУ

Первые интегралы систем ОДУ Глава IV. Первые интегралы систем ОДУ 1. Первые интегралы автономных систем обыкновенных дифференциальных уравнений В этом параграфе будем рассматривать автономные системы вида f x = f 1 x,, f n x C 1

Подробнее

ОПРЕДЕЛЕНИЯ ВЕРОЯТНОСТИ СОБЫТИЯ

ОПРЕДЕЛЕНИЯ ВЕРОЯТНОСТИ СОБЫТИЯ ЛЕКЦИЯ ОПРЕДЕЛЕНИЯ ВЕРОЯТНОСТИ СОБЫТИЯ Вероятность события относится к основным понятиям теории вероятностей и выражает меру объективной возможности появления события Для практической деятельности важно

Подробнее

СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ

СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ 1 ОПРЕДЕЛЕНИЕ СЛУЧАЙНОЙ ВЕЛИЧИНЫ И ЕЁ ФУНКЦИИ РАСПРЕДЕЛЕНИЯ Случайной величиной называется числовая функция X(ω), заданная на пространстве элементарных событий

Подробнее

Лекция 1 ТЕОРИЯ МЕРЫ ЛЕБЕГА ИЗ R Необходимость расширения понятия интеграла.

Лекция 1 ТЕОРИЯ МЕРЫ ЛЕБЕГА ИЗ R Необходимость расширения понятия интеграла. Лекция 1 ТЕОРИЯ МЕРЫ ЛЕБЕГА ИЗ R 2. 1. Необходимость расширения понятия интеграла. Сначала обсудим построение интеграла Римана. Пусть функция f(x) определена на собственном отрезке [a, b]. Определим разбиение

Подробнее

Виды сходимости последовательностей случайных величин

Виды сходимости последовательностей случайных величин С.Я. Шатских Лекции по теории вероятностей Виды сходимости последовательностей случайных величин Черновик Сходимость по вероятности. Будем считать, что все интересующие нас случайные величины определены

Подробнее

Часть 4 СПЕКТРАЛЬНЫЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ

Часть 4 СПЕКТРАЛЬНЫЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ Часть 4 СПЕКТРАЛЬНЫЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ 41 ИНТЕГРАЛЫ ФУРЬЕ СТИЛТЬЕСА Для спектральных разложений случайных функций пользуется интеграл Стилтьеса Поэтому приведем определение и некоторые свойства

Подробнее

где А матрица коэффициентов системы (основная матрица):

где А матрица коэффициентов системы (основная матрица): Лекции Глава Системы линейных уравнений Основные понятия Системой m линейных уравнений с неизвестными называется система вида: m + + + + + m + + + + m = = = m () где неизвестные величины числа ij (i =

Подробнее

Лекция 12. Стационарные последовательности

Лекция 12. Стационарные последовательности Лекция 12 Стационарные последовательности Рассмотрим еще один класс случайных последовательностей, обобщающих последовательность независимых одинаково распределенных случайных величин. Пусть Ω, F, P исходное

Подробнее

Лекция 8: Базис векторного пространства

Лекция 8: Базис векторного пространства Уральский федеральный университет, Институт математики и компьютерных наук, кафедра алгебры и дискретной математики Вступительные замечания В курсе аналитической геометрии важную роль играли понятия базиса

Подробнее

Лекция 5: Определители

Лекция 5: Определители Уральский федеральный университет, Институт математики и компьютерных наук, кафедра алгебры и дискретной математики Вступительные замечания В курсе аналитической геометрии уже говорилось об определителях

Подробнее

u k (x), k=1 u k (x) k=1 называется сходящимся на множестве X к функции S(x), если последовательность S n (x) = k=1

u k (x), k=1 u k (x) k=1 называется сходящимся на множестве X к функции S(x), если последовательность S n (x) = k=1 В.В. Жук, А.М. Камачкин 5 Функциональные последовательности и ряды. Равномерная сходимость, возможность перестановки предельных переходов, интегрирование и дифференцирование рядов и последовательностей.

Подробнее

ТЕМА 7. Случайные процессы. Оглавление. 7.1 Случайные процессы

ТЕМА 7. Случайные процессы. Оглавление. 7.1 Случайные процессы ТЕМА 7. Случайные процессы. Цель контента темы 7 дать начальные понятия о случайных процессах и цепях Маркова в частности; очертить круг экономических задач, которые используют в своем решении модели,

Подробнее

2. Теорема существования и единственности решения скалярного уравнения. , т.е. (, ) f xy M в D.

2. Теорема существования и единственности решения скалярного уравнения. , т.е. (, ) f xy M в D. Лекция 3 Теорема существования и единственности решения скалярного уравнения Постановка задачи Основной результат Рассмотрим задачу Коши d f ( ) d =,, () = Функция f (, ) задана в области G плоскости (,

Подробнее

Лекция 7 РАСПРЕДЕЛЕНИЯ ДИСКРЕТНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН. . Производящей функцией для случайной величины X называется функция вида

Лекция 7 РАСПРЕДЕЛЕНИЯ ДИСКРЕТНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН. . Производящей функцией для случайной величины X называется функция вида Лекция 7 РАСПРЕДЕЛЕНИЯ ДИСКРЕТНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН ЦЕЛЬ ЛЕКЦИИ: определить производящую функцию и вычислить параметры биномиального, пуассоновского, геометрического и гипергеометрического распределений;

Подробнее

Лекция 1. Выборочное пространство

Лекция 1. Выборочное пространство Лекция 1. Выборочное пространство Буре В.М., Грауэр Л.В. ШАД Санкт-Петербург, 2013 Буре В.М., Грауэр Л.В. (ШАД) Лекция 1. Выборочное пространство Санкт-Петербург, 2013 1 / 35 Cодержание Содержание 1 Выборка.

Подробнее

Логашенко И.Б. Современные методы обработки экспериментальных данных. Случайные величины

Логашенко И.Б. Современные методы обработки экспериментальных данных. Случайные величины Случайные величины Распределения Случайные величины характеризуются распределениями Дискретное Если случайная величина может принимать дискретное множество значений, то соответствующее распределение называется

Подробнее

ТЕОРИЯ ОЦЕНОК. Основные понятия в теории оценок Состоятельность и сходимость.

ТЕОРИЯ ОЦЕНОК. Основные понятия в теории оценок Состоятельность и сходимость. Поиск оценки может быть рассмотрен как измерение параметра (предполагается, что он имеет некоторое фиксированное, но неизвестное значение), основанное на ограниченном числе экспериментальных наблюдений.

Подробнее

Лекция 2. Абстрактная мера Лебега.

Лекция 2. Абстрактная мера Лебега. Лекция 2. Абстрактная мера Лебега. Корпусов Максим Олегович, Панин Александр Анатольевич Курс лекций по линейному функциональному анализу 29 сентября 2011 г. Введение На прошлой лекции мы рассмотрели построение

Подробнее

Формулы по теории вероятностей

Формулы по теории вероятностей Формулы по теории вероятностей I. Случайные события. Основные формулы комбинаторики а) перестановки P =! = 3...( ). б) размещения A m = ( )...( m + ). A! в) сочетания C = =. P ( )!!. Классическое определение

Подробнее

Лекция 2. Статистики первого типа. Точеченые оценки и их свойства

Лекция 2. Статистики первого типа. Точеченые оценки и их свойства Лекция 2. Статистики первого типа. Точеченые оценки и их свойства Буре В.М., Грауэр Л.В. ШАД Санкт-Петербург, 2013 Буре В.М., Грауэр Л.В. (ШАД) Лекция 2. Статистики первого типа. Точеченые Санкт-Петербург,

Подробнее

СВОЙСТВА ОПРЕДЕЛИТЕЛЕЙ АКСИОМАТИЧЕСКОЕ ЗАДАНИЕ ОПРЕДЕЛИТЕЛЯ

СВОЙСТВА ОПРЕДЕЛИТЕЛЕЙ АКСИОМАТИЧЕСКОЕ ЗАДАНИЕ ОПРЕДЕЛИТЕЛЯ ЛЕКЦИЯ 10 ОБЪЕМ n-мерного ПАРАЛЛЕЛЕПИПЕДА ОПРЕДЕЛИТЕЛИ СВОЙСТВА ОПРЕДЕЛИТЕЛЕЙ АКСИОМАТИЧЕСКОЕ ЗАДАНИЕ ОПРЕДЕЛИТЕЛЯ 1 ОПРЕДЕЛИТЕЛИ Объем параллелепипеда. Ничто не мешает сейчас ввести общее понятие определителя,

Подробнее

ДИФФЕРЕНЦИАЛЬНЫЕ УРАВНЕНИЯ

ДИФФЕРЕНЦИАЛЬНЫЕ УРАВНЕНИЯ ДИФФЕРЕНЦИАЛЬНЫЕ УРАВНЕНИЯ Общие понятия Дифференциальные уравнения имеют многочисленные и самые разнообразные приложения в механике физике астрономии технике и в других разделах высшей математики (например

Подробнее

1. Числовой последовательностью называется бесконечное множество чисел

1. Числовой последовательностью называется бесконечное множество чисел 1. Числовой последовательностью называется бесконечное множество чисел (1) следующих одно за другим в определенном порядке и построенных по определенному закону, с помощью которого задается как функция

Подробнее

ЛЕКЦИЯ N 27. Степенные ряды и ряды Тейлора.

ЛЕКЦИЯ N 27. Степенные ряды и ряды Тейлора. ЛЕКЦИЯ N 7. Степенные ряды и ряды Тейлора..Степенные ряды..... Ряд Тейлора.... 4.Разложение некоторых элементарных функций в ряды Тейлора и Маклорена.... 5 4.Применение степенных рядов.... 7.Степенные

Подробнее

Числовые характеристики непрерывных случайных величин

Числовые характеристики непрерывных случайных величин Числовые характеристики непрерывных случайных величин 1 Математическое ожидание Математическим ожиданием непрерывной случайной величины с плотностью распределения называется число M X + = px ( ) xp( x)

Подробнее

A, называется рангом матрицы и обозначается rg A.

A, называется рангом матрицы и обозначается rg A. Тема 7 Ранг матрицы Базисный минор Теорема о ранге матрицы и ее следствия Системы m линейных уравнений с неизвестными Теорема Кронекера- Капелли Фундаментальная система решений однородной системы линейных

Подробнее

Статистическая радиофизика и теория информации

Статистическая радиофизика и теория информации Статистическая радиофизика и теория информации. Введение Радиофизика как наука изучает физические явления существенные для радиосвязи, излучения и распространения радиоволн, приема радиосигналов. Предметом

Подробнее

Учебно-методические материалы

Учебно-методические материалы http://www-chemo.univer.kharkov.ua/ Учебно-методические материалы Рабочий план и программа курса Хімічна інформатика та хемометрія Примеры экзаменационных билетов Презентации Last updated November, 2008

Подробнее

+ z n 1. Получено рекуррентное соотношение: Применяя это соотношение, найдем

+ z n 1. Получено рекуррентное соотношение: Применяя это соотношение, найдем Региональная олимпиада по математике для студентов технических специальностей вузов Декабрь 205 г., СибГАУ Задания для второго и старших курсов с решениями. Пусть E единичная матрица порядка n, а I квадратная

Подробнее

8. Методические рекомендации по выполнению контрольных работ, курсовых работ. К О Н Т Р О Л Ь Н А Я Р А Б О Т А

8. Методические рекомендации по выполнению контрольных работ, курсовых работ. К О Н Т Р О Л Ь Н А Я Р А Б О Т А 8 Методические рекомендации по выполнению контрольны работ, курсовы работ К О Н Т Р О Л Ь Н А Я Р А Б О Т А Д и с ц и п л и н а «М а т е м а т и к а» ) Решить систему линейны уравнений методом Гаусса 7

Подробнее

Типовые задачи к зачёту по курсу «Теория случайных процессов» Осень 2015 г.

Типовые задачи к зачёту по курсу «Теория случайных процессов» Осень 2015 г. Типовые задачи к зачёту по курсу «Теория случайных процессов» Осень 2015 г. 1. Задачи по моментным характеристикам случайных процессов, конечномерным распределениям и т. д. 1.1. Найти двумерные распределения

Подробнее

Тема курса лекций: ЧИСЛОВЫЕ РЯДЫ.

Тема курса лекций: ЧИСЛОВЫЕ РЯДЫ. Тема курса лекций: ЧИСЛОВЫЕ РЯДЫ. Лекция 2. Абсолютно сходящиеся ряды, признаки сходимости. Свойства абсолютно сходящихся рядов. Условная сходимость. Признаки сходимости Лейбница, Дирихле, Абеля. Далее

Подробнее

5.1. Системы массового обслуживания

5.1. Системы массового обслуживания Теория массового обслуживания (ТМО) изучает процессы, в которых возникают требования на выполнение каких-либо видов услуг, и происходит обслуживание этих требований. Объектами (ТМО) могут быть производственные

Подробнее

( x) Заметим, что мы можем отождествить линейную функцию с линейным отображением L в одномерное арифметическое пространство.

( x) Заметим, что мы можем отождествить линейную функцию с линейным отображением L в одномерное арифметическое пространство. 79 Линейные функции Определение и примеры линейных функций Определение Будем говорить, что на линейном пространстве L задана функция от одного вектора, если каждому вектору x L сопоставлено число ( x)

Подробнее

ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН. Лекция 11

ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН. Лекция 11 ЧАСТЬ 6 ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН Лекция ЗАКОН РАСПРЕДЕЛЕНИЯ И ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН ЦЕЛЬ ЛЕКЦИИ: ввести понятие функции случайной величины и провести классификацию возникающих

Подробнее

Лекции 5-6. Условия сходимости случайных процессов по распределению в функциональных пространствах

Лекции 5-6. Условия сходимости случайных процессов по распределению в функциональных пространствах Лекции 5-6 Условия сходимости случайных процессов по распределению в функциональных пространствах Применим изложенную теорию сходимости по распределению к случайным процессам. Как известно, случайный процесс

Подробнее

ВЕКТОРНЫЕ ПРОСТРАНСТВА. 9. Векторное пространство над полем

ВЕКТОРНЫЕ ПРОСТРАНСТВА. 9. Векторное пространство над полем Г л а в а 2 ВЕКТОРНЫЕ ПРОСТРАНСТВА 9 Векторное пространство над полем 91 Аксиоматика Пусть задано поле P, элементы которого будем называть скалярами и некоторое множество V, элементы которого будем называть

Подробнее

Глава 3. Случайные величины (продолжение).

Глава 3. Случайные величины (продолжение). Глава 3 Случайные величины (продолжение) Основные распределения случайных величин Основные распределения дискретных случайных величин Биномиальный закон распределения Ряд распределения Функция распределения

Подробнее

Гл.1. Степенные ряды., постоянные, называемые коэффициентами ряда. Иногда рассматривают степенной ряд более

Гл.1. Степенные ряды., постоянные, называемые коэффициентами ряда. Иногда рассматривают степенной ряд более Гл Степенные ряды a a a Ряд вида a a a a a () называется степенным, где,,,, a, постоянные, называемые коэффициентами ряда Иногда рассматривают степенной ряд более общего вида: a a( a) a( a) a( a) (), где

Подробнее

Лекция 5. Доверительные интервалы

Лекция 5. Доверительные интервалы Лекция 5. Доверительные интервалы Грауэр Л.В., Архипова О.А. CS Center Санкт-Петербург, 2014 Грауэр Л.В., Архипова О.А. (CSC) Лекция 5. Доверительные интервалы Санкт-Петербург, 2014 1 / 31 Cодержание Содержание

Подробнее

ЛЕКЦИЯ 4А Метрические пространства. 1. Простейшие (и важнейшие) свойства метрических пространств

ЛЕКЦИЯ 4А Метрические пространства. 1. Простейшие (и важнейшие) свойства метрических пространств ЛЕКЦИЯ 4А Метрические пространства 1. Простейшие (и важнейшие) свойства метрических пространств 1) Непрерывность расстояния. Легко видеть, что функция «расстояние» ρ(x, y) непрерывна по каждому из аргументов.

Подробнее

Очевидно, такое название оправдывается ролью множества X при «умножении» (т. е. пересечении)

Очевидно, такое название оправдывается ролью множества X при «умножении» (т. е. пересечении) ЛЕКЦИЯ 2А Системы множеств. Элементы общей теории меры 1. Системы множеств Как вы помните, в лекции 2 построение общей теории меры велось исходя из алгебры измеримых множеств, а прямоугольники, исходя

Подробнее

, (3.4.3) ( x) lim lim

, (3.4.3) ( x) lim lim 3.4. СТАТИСТИЧЕСКИЕ ХАРАКТЕРИСТИКИ ВЫБОРОЧНЫХ ЗНАЧЕНИЙ ПРОГНОЗНЫХ МОДЕЛЕЙ До сих пор мы рассматривали способы построения прогнозных моделей стационарных процессов, не учитывая одной весьма важной особенности.

Подробнее

2. Дифференциальные уравнения первого порядка, разрешенные относительно производной Теорема существования и единственности решения.

2. Дифференциальные уравнения первого порядка, разрешенные относительно производной Теорема существования и единственности решения. Дифференциальные уравнения первого порядка разрешенные относительно производной Теорема существования и единственности решения В общем случае дифференциальное уравнение первого порядка имеет вид F ( )

Подробнее

Программа и задачи курса Случайные процессы

Программа и задачи курса Случайные процессы Программа и задачи курса Случайные процессы лектор профессор Д. А. Шабанов осень 2016 ПРОГРАММА 1. Понятие случайного процесса (случайной функции). Примеры: случайное блуждание, процессы восстановления,

Подробнее

4. Некоторые классические пределы

4. Некоторые классические пределы 4. Некоторые классические пределы После экскурса в теорию множеств вернемся к более конкретным задачам. Предложение 4.1. Если q < 1, то lim n q n = 0. Доказательство. Заметим, что в силу самог о определения

Подробнее

Аннотация: Установлены связи между решениями широкого класса систем обыкновенных

Аннотация: Установлены связи между решениями широкого класса систем обыкновенных Сибирский математический журнал Январь февраль, 26. Том 47, УДК 57.9+57.929 ОБ ОДНОМ КЛАССЕ СИСТЕМ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИЙ И ОБ УРАВНЕНИЯХ С ЗАПАЗДЫВАЮЩИМ АРГУМЕНТОМ Г. В. Демиденко, В. А. Лихошвай,

Подробнее

АСИМПТОТИЧЕСКИ ОПТИМАЛЬНОЕ ОЦЕНИВАНИЕ В ЗАДАЧЕ ЛИНЕЙНОЙ РЕГРЕССИИ СО СЛУЧАЙНЫМИ ОШИБКАМИ В КОЭФФИЦИЕНТАХ Ю. Ю. Линке, А. И.

АСИМПТОТИЧЕСКИ ОПТИМАЛЬНОЕ ОЦЕНИВАНИЕ В ЗАДАЧЕ ЛИНЕЙНОЙ РЕГРЕССИИ СО СЛУЧАЙНЫМИ ОШИБКАМИ В КОЭФФИЦИЕНТАХ Ю. Ю. Линке, А. И. Сибирский математический журнал Январь февраль, 010. Том 51, 1 УДК 519.33.5 АСИМПТОТИЧЕСКИ ОПТИМАЛЬНОЕ ОЦЕНИВАНИЕ В ЗАДАЧЕ ЛИНЕЙНОЙ РЕГРЕССИИ СО СЛУЧАЙНЫМИ ОШИБКАМИ В КОЭФФИЦИЕНТАХ Ю. Ю. Линке, А. И. Саханенко

Подробнее

1.4. СИГНАЛЫ И ПОМЕХИ В РТС КАК СЛУЧАЙНЫЕ ЯВЛЕНИЯ

1.4. СИГНАЛЫ И ПОМЕХИ В РТС КАК СЛУЧАЙНЫЕ ЯВЛЕНИЯ ЛЕКЦИЯ Сообщения, сигналы, помехи как случайные явления Случайные величины, вектора и процессы 4 СИГНАЛЫ И ПОМЕХИ В РТС КАК СЛУЧАЙНЫЕ ЯВЛЕНИЯ Как уже отмечалось выше основная проблематика теории РТС это

Подробнее

Лекция 7: Векторные пространства

Лекция 7: Векторные пространства Уральский федеральный университет, Институт математики и компьютерных наук, кафедра алгебры и дискретной математики Вступительные замечания В этой лекции мы приступаем к изучению линейной алгебры как таковой,

Подробнее

Математическое ожидание

Математическое ожидание Числовые характеристики непрерывных случайных величин 1 Математическое ожидание Математическим ожиданием непрерывной случайной величины с плотностью распределения называется число M X px ( ) xp( x) dx.

Подробнее

Министерство образования и науки Российской Федерации

Министерство образования и науки Российской Федерации Министерство образования и науки Российской Федерации Государственное образовательное учреждение высшего профессионального образования «РОСТОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ» Г. М. Бездудный, В. А. Знаменский,

Подробнее

ТЕМА 3. МАТЕМАТИЧЕСКИЙ АНАЛИЗ ФУНКЦИИ ОДНОГО ПЕРЕМЕННОГО

ТЕМА 3. МАТЕМАТИЧЕСКИЙ АНАЛИЗ ФУНКЦИИ ОДНОГО ПЕРЕМЕННОГО МЕТОДИЧЕСКИЕ УКАЗАНИЯ К РАСЧЕТНЫМ ЗАДАНИЯМ ПОКУРСУ ВЫСШЕЙ МАТЕМАТИКИ «ЭЛЕМЕНТЫ ЛИНЕЙНОЙ АЛГЕБРЫ И АНАЛИТИЧЕСКОЙ ГЕОМЕТРИИ ДИФФЕРЕНЦИАЛЬНОЕ ИСЧИСЛЕНИЕ ФУНКЦИИ ОДНОГО ПЕРЕМЕННОГО» ЧАСТЬ I ТЕМА МАТЕМАТИЧЕСКИЙ

Подробнее

7. Теорема Гильберта-Шмидта.

7. Теорема Гильберта-Шмидта. Лекция 5 7 Теорема Гильберта-Шмидта Будем рассматривать интегральный оператор A, ядро которого K( удовлетворяет следующим условиям: K( s ) симметрическое, непрерывное по совокупности переменных на [, ]

Подробнее

Тема 3: Определители

Тема 3: Определители Тема 3: Определители А. Я. Овсянников Уральский федеральный университет Институт математики и компьютерных наук кафедра алгебры и дискретной математики алгебра и геометрия для физиков-инженеров Начало

Подробнее

Глава 6. Основы теории устойчивости

Глава 6. Основы теории устойчивости Глава 6 Основы теории устойчивости Лекция Постановка задачи Основные понятия Ранее было показано, что решение задачи Коши для нормальной системы ОДУ = f, () непрерывно зависит от начальных условий при

Подробнее

Е.М. РУДОЙ МАТЕМАТИЧЕСКИЙ АНАЛИЗ. ЧИСЛОВЫЕ И ФУНКЦИОНАЛЬНЫЕ РЯДЫ

Е.М. РУДОЙ МАТЕМАТИЧЕСКИЙ АНАЛИЗ. ЧИСЛОВЫЕ И ФУНКЦИОНАЛЬНЫЕ РЯДЫ Е.М. РУДОЙ МАТЕМАТИЧЕСКИЙ АНАЛИЗ. ЧИСЛОВЫЕ И ФУНКЦИОНАЛЬНЫЕ РЯДЫ НОВОСИБИРСК 200 2 МИНОБРНАУКИ РОССИИ ГОУ ВПО «НОВОСИБИРСКИЙ ГОСУДАРСТВЕННЫЙ ПЕДАГОГИЧЕСКИЙ УНИВЕРСИТЕТ» Е.М. Рудой МАТЕМАТИЧЕСКИЙ АНАЛИЗ.

Подробнее

Лекция 12. Понятие о системе случайных величин. Законы распределения системы случайных величин

Лекция 12. Понятие о системе случайных величин. Законы распределения системы случайных величин МВДубатовская Теория вероятностей и математическая статистика Лекция Понятие о системе случайных величин Законы распределения системы случайных величин Часто возникают ситуации когда каждому элементарному

Подробнее

Лекция 12 ХАРАКТЕРИСТИЧЕСКАЯ ФУНКЦИЯ. Метод линеаризации функций случайных величин

Лекция 12 ХАРАКТЕРИСТИЧЕСКАЯ ФУНКЦИЯ. Метод линеаризации функций случайных величин Лекция ХАРАКТЕРИСТИЧЕСКАЯ ФУНКЦИЯ ЦЕЛЬ ЛЕКЦИИ: построить метод линеаризации функций случайных величин; ввести понятие комплексной случайной величины и получить ее числовые характеристики; определить характеристическую

Подробнее

ЛЕКЦИЯ 2 СИСТЕМЫ ЛИНЕЙНЫХ УРАВНЕНИЙ ОПРЕДЕЛИТЕЛИ МАЛЫХ ПОРЯД- КОВ

ЛЕКЦИЯ 2 СИСТЕМЫ ЛИНЕЙНЫХ УРАВНЕНИЙ ОПРЕДЕЛИТЕЛИ МАЛЫХ ПОРЯД- КОВ ЛЕКЦИЯ 2 СИСТЕМЫ ЛИНЕЙНЫХ УРАВНЕНИЙ ОПРЕДЕЛИТЕЛИ МАЛЫХ ПОРЯД- КОВ 1 ЭКВИВАЛЕНТНОСТЬ ЛИНЕЙНЫХ СИСТЕМ Пусть нам дана еще одна линейная система того же размера a 11x 1 + a 12x 2 + + a 1nx n = b 1, a 21x 1

Подробнее

Московский государственный технический университет имени Н.Э. Баумана. Факультет «Фундаментальные науки» Кафедра «Математическое моделирование»

Московский государственный технический университет имени Н.Э. Баумана. Факультет «Фундаментальные науки» Кафедра «Математическое моделирование» ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ ÌÃÒÓ Московский государственный технический университет имени Н.Э. Баумана Факультет «Фундаментальные науки» Кафедра «Математическое моделирование» À.Í. Êàíàòíèêîâ,

Подробнее

ВАРИАЦИЯ И ЭКСТРЕМУМ ФУНКЦИОНАЛА

ВАРИАЦИЯ И ЭКСТРЕМУМ ФУНКЦИОНАЛА ВАРИАЦИЯ И ЭКСТРЕМУМ ФУНКЦИОНАЛА А. Н. Мягкий Интегральные уравнения и вариационное исчисление Лекция Пусть задан функционал V = V [y(x)], y(x) M E. Зафиксируем функцию y (x) M. Тогда любую другую функцию

Подробнее

М.П. Харламов Конспект

М.П. Харламов  Конспект М.П. Харламов http://vlgr.ranepa.ru/pp/hmp Конспект Теория вероятностей и математическая статистика Краткий конспект первого раздела (вопросы и ответы) Доктор физ.-мат. наук профессор Михаил Павлович Харламов

Подробнее

Интеграл Лебега. Тема Соглашения и обозначения. 5.2 Формализация суммирования

Интеграл Лебега. Тема Соглашения и обозначения. 5.2 Формализация суммирования Тема 5 Интеграл Лебега. Напомним, что такое интеграл Лебега и обсудим основные его свойства. Нам понадобятся следующие естественные соглашения, одно из которых мы уже использовали. 5.1 Соглашения и обозначения

Подробнее

{ z } { 1 2 3, 4,..., ( 1) n = ; ,, n,...}

{ z } { 1 2 3, 4,..., ( 1) n = ; ,, n,...} Тема Теория пределов Как мы понимаем слово «предел»? В повседневной жизни мы часто употребляем термин «предел», не углубляясь в его сущность В нашем представлении чаще всего предел отождествляется с понятием

Подробнее