Метод байеса в технической диагностике. Методы распознавания

В настоящее время Байесовские методы получили достаточно широкое распространение и активно используются в самых различных областях знаний. Однако, к сожалению, не так много людей имеют представление о том, что же это такое и зачем это нужно. Одной из причин является отсутствие большого количества литературы на русском языке. Поэтому здесь попытаюсь изложить их принципы настолько просто, насколько смогу, начав с самых азов (прошу прощения, если кому-то это покажется слишком простым).

В дальнейшем я бы хотел перейти к непосредственно Байесовскому анализу и рассказать об обработке реальных данных и о, на мой взгляд, отличной альтернативе языку R (о нем немного писалось ) - Python с модулем pymc . Лично мне Python кажется гораздо более понятным и логичным, чем R с пакетами и BUGS , к тому же Python дает гораздо бо льшую свободу и гибкость (хотя в Python есть и свои трудности, но они преодолимы, да и в простом анализе встречаются нечасто).

Немного истории

В качестве краткой исторической справки скажу, что формула Байеса была опубликована аж в 1763 году спустя 2 года после смерти ее автора, Томаса Байеса. Однако, методы, использующие ее, получили действительно широкое распространение только к концу ХХ века. Это объясняется тем, что расчеты требуют определенных вычислительных затрат, и они стали возможны только с развитием информационных технологий.

О вероятности и теореме Байеса

Формула Байеса и все последующее изложение требует понимания вероятности. Подробнее о вероятности можно почитать на Википедии .
На практике вероятность наступления события есть частота наступления этого события, то есть отношение количества наблюдений события к общему количеству наблюдений при большом (теоретически бесконечном) общем количестве наблюдений.
Рассмотрим следующий эксперимент: мы называем любое число из отрезка и смотрим за тем, что это число будет между, например, 0.1 и 0.4. Как нетрудно догадаться, вероятность этого события будет равна отношению длины отрезка к общей длине отрезка (другими словами, отношение «количества» возможных равновероятных значений к общему «количеству» значений), то есть (0.4 - 0.1) / (1 - 0) = 0.3, то есть вероятность попадания в отрезок равна 30%.

Теперь посмотрим на квадрат x .

Допустим, мы должны называть пары чисел (x, y), каждое из которых больше нуля и меньше единицы. Вероятность того, что x (первое число) будет в пределах отрезка (показан на первом рисунке как синяя область, на данный момент для нас второе число y не важно), равна отношению площади синей области к площади всего квадрата, то есть (0.4 - 0.1) * (1 - 0) / (1 * 1) = 0.3, то есть 30%. Таким образом можно записать, что вероятность того, что x принадлежит отрезку равна p(0.1 <= x <= 0.4) = 0.3 или для краткости p(X) = 0.3.
Если мы теперь посмотрим на y, то, аналогично, вероятность того, что y находится внутри отрезка равна отношению площади зеленой области к площади всего квадрата p(0.5 <= y <= 0.7) = 0.2, или для краткости p(Y) = 0.2.
Теперь посмотрим, что можно узнать о значениях одновременно x и y.
Если мы хотим знать, какова вероятность того, что одновременно x и y находятся в соответствующих заданных отрезках, то нам нужно посчитать отношение темной площади (пересечения зеленой и синей областей) к площади всего квадрата: p(X, Y) = (0.4 - 0.1) * (0.7 - 0.5) / (1 * 1) = 0.06.

А теперь допустим мы хотим знать какова вероятность того, что y находится в интервале , если x уже находится в интервале . То есть фактически у нас есть фильтр и когда мы называем пары (x, y), то мы сразу отбрасывает те пары, которые не удовлетворяют условию нахождения x в заданном интервале, а потом из отфильтрованных пар мы считаем те, для которых y удовлетворяет нашему условию и считаем вероятность как отношение количества пар, для которых y лежит в вышеупомянутом отрезке к общему количеству отфильтрованных пар (то есть для которых x лежит в отрезке ). Мы можем записать эту вероятность как p(Y|X). Очевидно, что эта вероятность равна отношению площади темной области (пересечение зеленой и синей областей) к площади синей области. Площадь темной области равна (0.4 - 0.1) * (0.7 - 0.5) = 0.06, а площадь синей (0.4 - 0.1) * (1 - 0) = 0.3, тогда их отношение равно 0.06 / 0.3 = 0.2. Другими словами, вероятность нахождения y на отрезке при том, что x уже принадлежит отрезку равна p(Y|X) = 0.2.
Можно заметить, что с учетом всего вышесказанного и всех приведенных выше обозначений, мы можем написать следующее выражение
p(Y|X) = p(X, Y) / p(X)

Кратко воспроизведем всю предыдущую логику теперь по отношению к p(X|Y): мы называем пары (x, y) и фильтруем те, для которых y лежит между 0.5 и 0.7, тогда вероятность того, что x находится в отрезке при условии, что y принадлежит отрезку равна отношению площади темной области к площади зеленой:
p(X|Y) = p(X, Y) / p(Y)

В двух приведенных выше формулах мы видим, что член p(X, Y) одинаков, и мы можем его исключить:

Мы можем переписать последнее равенство как

Это и есть теорема Байеса.
Интересно еще заметить, что p(Y) это фактически p(X,Y) при всех значениях X. То есть, если мы возьмем темную область и растянем ее так, что она будет покрывать все значения X, она будет в точности повторять зеленую область, а значит, она будет равна p(Y). На языке математики это будет означать следующее:
Тогда мы можем переписать формулу Байеса в следующем виде:

Применение теоремы Байеса

Давайте рассмотрим следующий пример. Возьмем монетку и подкинем ее 3 раза. С одинаковой вероятностью мы можем получить следующие результаты (О - орел, Р - решка): ООО, ООР, ОРО, ОРР, РОО, РОР, РРО, РРР.

Мы можем посчитать какое количество орлов выпало в каждом случае и сколько при этом было смен орел-решка, решка-орел:

Мы можем рассматривать количество орлов и количество изменений как две случайные величины. Тогда таблица вероятностей будет иметь следуюший вид:

Теперь мы можем увидеть формулу Байеса в действии.
Но прежде проведем аналогию с квадратом, который мы рассматривали ранее.
Можно заметить, что p(1O) есть сумма третьего столбца («синяя область» квадрата) и равна сумме всех значений ячеек в этом столбце: p(1O) = 2/8 + 1/8 = 3/8
p(1С) есть сумма третьей строки («зеленая область» квадрата) и, аналогично, равна сумме всех значений ячеек в этой строке p(1С) = 2/8 + 2/8 = 4/8
Вероятность того, что мы получили одного орла и одну смену равна пересечению этих областей (то есть значение в клетке пересечения третьего столбца и третьей строки) p(1С, 1О) = 2/8
Тогда, следуя формулам описанным выше, мы можем посчитать вероятность получить одну смену, если мы получили одного орла в трех бросках:
p(1С|1О) = p(1С, 1О) / p(1О) = (2/8) / (3/8) = 2/3
или вероятность получить одного орла, если мы получили одну смену:
p(1О|1С) = p(1С, 1О) / p(1С) = (2/8) / (4/8) = 1/2
Если мы посчитаем вероятность получить одну смену при наличии одного орла p(1О|1С) через формулу Байеса, то получим:
p(1О|1С) = p(1С|1О) * p(1О) / p(1С) = (2/3) * (3/8) / (4/8) = 1/2
Что мы и получили выше.

Но какое практическое значение имеет приведенный выше пример?
Дело в том, что, когда мы анализируем реальные данные, обычно нас интересует какой-то параметр этих данных (например, среднее, дисперсия и пр.). Тогда мы можем провести следующую аналогию с вышеприведенной таблицей вероятностей: пусть строки будут нашими экспериментальными данными (обозначим их Data), а столбцы - возможными значениями интересующего нас параметра этих данных (обозначим его ). Тогда нас интересует вероятность получить определенное значение параметра на основе имеющихся данных .
Мы можем применить формулу Баейса и записать следующее:

А вспомнив формулу с интегралом, можно записать следующее:

То есть фактически как результат нашего анализа мы имеет вероятность как функцию параметра. Теперь мы можем, например, максимизировать эту функцию и найти наиболее вероятное значение параметра, посчитать дисперсию и среднее значение параметра, посчитать границы отрезка, внутри которого интересующий нас параметр лежит с вероятностью 95% и пр.

Вероятность называют апостериорной вероятностью. И для того, чтобы посчитать ее нам надо иметь
- функцию правдоподобия и - априорную вероятность.
Функция правдоподобия определяется нашей моделью. То есть мы создаем модель сбора данных, которая зависит от интересующего нас параметра. К примеру, мы хотим интерполировать данные с помощью прямой y = a * x + b (таким образом мы предполагаем, что все данные имеют линейную зависимость с наложенным на нее гауссовым шумом с известной дисперсией). Тогда a и b - это наши параметры, и мы хотим узнать их наиболее вероятные значения, а функция правдоподобия - гаусс со средним, заданным уравнением прямой, и данной дисперсией.
Априорная вероятность включает в себя информацию, которую мы знаем до проведения анализа. Например, мы точно знаем, что прямая должна иметь положительный наклон, или, что значение в точке пересечения с осью x должно быть положительным, - все это и не только мы можем инкорпорировать в наш анализ.
Как можно заметить, знаменатель дроби является интегралом (или в случае, когда параметры могут принимать только определенные дискретные значения, суммой) числителя по всем возможным значениям параметра. Практически это означает, что знаменатель является константой и служит для того, что нормализировать апостериорную вероятность (то есть, чтобы интеграл апостериорной вероятности был равен единице).

На этом я бы хотел закончить свой пост (продолжение

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Введение

Метод Байеса относится к статистическим методам распознавания, основное преимущество которых состоит в возможности одновременного учета признаков различной физической природы. Это связано с тем, что все признаки характеризуются безразмерными величинами - вероятностями их появления при различных состояниях системы.

Метод Байеса благодаря своей простоте и эффективности занимает особое место среди методов технической диагностики, хотя имеет и недостатки, например большой объем предварительной информации, «угнетение» редко встречающихся диагнозов и др. Однако в случаях, когда объем статистической информации позволяет применить метод Байеса, его целесообразно использовать как один из наиболее надежных и эффективных методов.

1. Основы метода Байеса

Метод основан на формуле Байеса (формуле вероятности гипотез).

Если имеется диагноз D i и простой признак k j , встречающийся при этом диагнозе, то вероятность совместного появления событий (наличие у объекта состояния D i и признака k j ), определяется по формуле:

P (D i k j ) = P (D i ) P (k j /D i ) = P (k j ) P (D i / k j ). (1.1.)

Из этого равенства вытекает формула Байеса:

P(D i / k j ) = P(D i ) P(k i /D i )/P(k j ) (1.2.)

Очень важно определить точный смысл всех входящих в эту формулу величин.

P (D i ) --вероятность диагноза D i , определяемая по статистическим данным (априорная вероятность диагноза ). Так, если предварительно обследовано N объектов и у N i объектов имелось состояние D i , то

P (D i ) = N i /N . (1.3.)

P (k j /D i k j у объектов с состоянием D i .

Если среди N i объектов, имеющих диагноз D i , у N ij проявился признак k j , то байес корреляционный вероятностный

P (k j /D i ) = N ij /N i . (1.4.)

P (k j ) --вероятность появления признака k j во всех объектах независимо от состояния (диагноза)объекта. Пусть из общего числа N объектов признак k j был обнаружен у N j объектов, тогда

P (k j ) = N j /N . (1.5.)

Для установления диагноза специальное вычисление P (kj ) не требуется. Как будет ясно из дальнейшего, значения P (D i P (k j / D i ), известные для всех возможных состояний, определяют величину P (k j ).

В равенстве P (D i /k j )--вероятность диагноза D i после того, как стало известно наличие у рассматриваемого объекта признака k j (апостериорная вероя т ность диагноза ).

2 . Обобщенная формула Байеса

Эта формула относится к случаю, когда обследование проводится по комплексу признаков К , включающему признаки k 1 , k 2 , ..., k v . Каждый из признаков k j имеет m j разрядов (k j l , k j 2 , ..., k js , ...,). В результате обследования становится известной реализация признака

k j * = k js (1.5.)

и всего комплекса признаков K *. Индекс *, как и раньше, означает конкретное значение (реализацию) признака. Формула Байеса для комплекса признаков имеет вид

P (D i / К * )= P (D i )P (К */D i )/P (К * )(i = 1, 2, ..., n ), (1.6.)

где P (D i / К * ) --вероятность диагноза D i после того, как стали известны результаты обследования по комплексу признаков К , P (D i ) --предварительная вероятность диагноза D i (по предшествующей статистике).

Формула (1.6.) относится к любому из n возможных состояний (диагнозов) системы. Предполагается, что система находится только в одном из указанных состояний и потому

В практических задачах нередко допускается возможность существования нескольких состояний А1, ….., Аr, причем некоторые из них могут встретиться в комбинации друг с другом.

P (К */ D i ) = P(k 1 */ D i )P (k 2 */ k 1 * D i )...P (k v */ k l * ...k* v- 1 D i ), (1.8.)

где k j * = k js --разряд признака, выявившийся в результате обследования. Для диагностически независимых признаков

P (К */ D i ) = P (k 1 */ D i ) P (k 2 */ D i )... P (k v * / D i ). (1.9.)

В большинстве практических задач, особенно при большом числе признаков, можно принимать условие независимости признаков даже при наличии существенных корреляционных связей между ними.

Вероятность появления комплекса признаков К *

P (К *)= P (D s )P (К */D s ) . (1.10.)

Обобщенная формула Байеса может быть записана так :

P (D i / K * ) (1.11.)

где P (К */ D i )определяется равенством (1.8.) или (1.9.). Из соотношения (1.11.) вытекает

P (D i / К *)=l, (1.12.)

что, разумеется, и должно быть, так как один из диагнозов обязательно реализуется, а реализация одновременно двух диагнозов невозможна. Следует обратить внимание на то, что знаменатель формулы Байеса для всех диагн о зов одинаков. Это позволяет сначала определить вероятности совместного появл е ния i -гo диагноза и данной реализации комплекса признаков

P (D i К *) = P (D i )P (К */D i ) (1.13.)

и затем апостериорную вероятность диагноза

P (D i /К *) = P (D i К *)/P (D s К *). (1.14.)

Отметим, что иногда целесообразно использовать предварительное логарифмирование формулы (1.11.), так как выражение (1.9.) содержит произведения малых величин.

Если реализация некоторого комплекса признаков К * является детерминирующей для диагноза D p , то этот комплекс не встречается при других диагнозах:

Тогда, в силу равенства (1.11.)

Таким образом, детерминистская логика установления диагноза является частным случаем вероятностной логики. Формула Байеса может использоваться и в том случае, когда часть признаков имеет дискретное распределение, а другая часть -- непрерывное. Для непрерывного распределения используются плотности распределения. Однако в расчетном плане указанное различие признаков несущественно, если задание непрерывной кривой осуществляется с помощью совокупности дискретных значений.

3 . Диагностическая матрица

Для определения вероятности диагнозов по методу Байеса необходимо составить диагностическую матрицу (табл. 1.1), которая формируется на основе предварительного статистического материала. В этой таблице содержатся вероятности разрядов признаков при различных диагнозах.

Таблица 1.1

Диагностическая матрица в методе Байеса

ДиагнозD i

Признак k j

k 1

k 2

P(k 11 /D i )

P(k 12 /D i )

P(k 21 /D i )

P(k 22 /D i )

P(k 23 /D i )

P(k 24 /D i )

P(k 31 /D i )

P(k 32 /D i )

D 1

D 2

Если признаки двухразрядные (простые признаки «да -- нет»), то в таблице достаточно указать вероятность появления признака Р (k i /D i ). Вероятность отсутствия признака Р ( /D,-) = 1 - Р (k i /D i ).

Однако более удобно использовать единообразную форму, полагая, например, для двухразрядного признака Р (k j /D i ) = Р (k i 1 /D i ); Р ( /D,) = Р (k i 2 /D i ).

Отметим, что P(k js /Di) = 1, где т, -- число разрядов признака k j . Сумма вероятностей всех возможных реализаций признака равна единице.

В диагностическую матрицу включены априорные вероятности диагнозов. Процесс обучения в методе Байеса состоит в формировании диагностической матрицы. Важно предусмотреть возможность уточнения таблицы в процессе диагностики. Для этого в памяти ЭВМ следует хранить не только значения P(k js /Di), но и следующие величины: N -- общее число объектов, использованных для составления диагностической матрицы; N i D i ; N ij -- число объектов с диагнозом D i , обследованных по признаку k j . Если поступает новый объект с диагнозом D м , то проводится корректировка прежних априорных вероятностей диагнозов.

Далее вводятся поправки к вероятностям признаков. Пусть у нового объекта с диагнозом D м выявлен разряд r признака k j . Тогда для дальнейшей диагностики принимаются новые значения вероятности интервалов признака k j при диагнозе D м :

Условные вероятности признаков при других диагнозах корректировки не требуют.

Заключение

В методе Байеса объект с комплексом признаков К * относится к диагнозу с наибольшей (апостериорной) вероятностью

K* D i , если P(D i / K *) > P(D j / K *) (j = 1, 2,..., n ; i ? j ). (1.17.)

Символ , применяемый в функциональном анализе, означает принадлежность множеству. Условие (1.17.) указывает, что объект, обладающий данной реализацией комплекса признаков К * или, короче, реализация К * принадлежит диагнозу (состоянию) D i . Правило (1.17.) обычно уточняется введением порогового значения для вероятности диагноза:

P (D i / K *) ? P i , (1.18.)

где P i . -- заранее выбранный уровень распознавания для диагноза D i . При этом вероятность ближайшего конкурирующего диагноза не выше 1 - P i . Обычно принимается P i ? 0,9. При условии

P(D i / K *)

i (1.19.)

решение о диагнозе не принимается (отказ от распознавания) и требуется поступление дополнительной информации.

Процесс принятия решения в методе Байеса при расчете на ЭВМ происходит достаточно быстро. Например, постановка диагноза для 24 состояний при 80 многоразрядных признаках занимает на ЭВМ с быстродействием 10 - 20 тысяч операций в секунду всего несколько минут.

Как указывалось, методу Байеса присущи некоторые недостатки, например погрешности при распознавании редких диагнозов. При практических расчетах целесообразно провести диагностику и для случая равновероятностных диагнозов, положив

P(D i ) = l / n (1.20.)

Тогда наибольшим значением апостериорной вероятности будет обладать диагноз D i , для которого Р (K* /D i ) максимальна:

K* D i , если P(K* /D i ) > P(K* /D j ) (j = 1, 2,..., n ; i ? j ). (1.21.)

Иными словами, устанавливается диагноз D i если данная совокупность признаков чаще встречается при диагнозе D i , чем при других диагнозах. Такое решающее правило соответствует методу максимального правдоподобия. Из предыдущего вытекает, что этот метод является частным случаем метода Байеса при одинаковых априорных вероятностях диагнозов. В методе максимального правдоподобия «частые» и «редкие» диагнозы равноправны.

Список использованных источников

1. Горелик, А. Л. Методы распознавания [Текст] : учеб. пособие для вузов / А. Л. Горелик, В. А. Скрипкин. - М. : Высш. шк., 2004. - 261 с.

2. Сапожников, В. В. Основы технической диагностики [Текст] : учеб. пособие / В. В. Сапожников, Вл. В. Сапожников. - М. : Маршрут, 2004. - 318 с.

3. Сердаков, А. С. Автоматический контроль и техническая диагностика [Текст] / А. С. Сердаков. - Киев: Техника, 1971. - 244 с.

4. Стецюк. А. Е. «Основы технической диагностики. Теория распознавания»: учеб. пособие / А. Е. Стецюк, Я. Ю. Бобровников. - Хабаровск: Изд-во ДВГУПС, 2012. - 69 с.

Размещено на Allbest.ru

Подобные документы

    Изучение наиболее типичных алгоритмов решения задач, имеющих вероятностный характер. Ознакомление с элементами комбинаторики, теорией урн, формулой Байеса, способами нахождения дискретных, непрерывных случайных величин. Рассмотрение основ алгебры событий.

    методичка , добавлен 06.05.2010

    Определение и оценка вероятности наступления заданного события. Методика решения задачи, с использованием теоремы сложения и умножения, формулы полной вероятности или Байеса. Применение схемы Бернулли при решении задач. Расчет квадратического отклонения.

    практическая работа , добавлен 23.08.2015

    Статистическое, аксиоматическое и классическое определение вероятности. Дискретные случайные величины. Предельные теоремы Лапласа и Пуассона. Функция распределения вероятностей для многомерных случайных величин. Формула Байеса. Точечная оценка дисперсии.

    шпаргалка , добавлен 04.05.2015

    Вычисление вероятности непогашения кредита юридическим и физическим лицом, с помощью формулы Байеса. Расчет выборочной дисперсии, его методика, основные этапы. Определение вероятности выпадания белого шара из трех, взятых наудачу, обоснование результата.

    контрольная работа , добавлен 11.02.2014

    Применение формул и законов теории вероятности при решении задач. Формула Байеса, позволяющая определить вероятность какого-либо события при условии, что произошло другое статистически взаимозависимое с ним событие. Центральная предельная теорема.

    курсовая работа , добавлен 04.11.2015

    Опыт со случайным исходом. Статистическая устойчивость. Понятие вероятности. Алгебра событий. Принцип двойственности для событий. Условные вероятности. Формулы сложения и умножения вероятностей. Формула Байеса. Пространство элементарных событий.

    реферат , добавлен 03.12.2007

    Определение вероятности выпадения не менее 4-х очков на игральной кости при кидании ее один раз. Определение вероятности изготовления детали (если наудачу взятая сборщиком деталь оказалась отличного качества) первым заводом из используя формулу Байеса.

    контрольная работа , добавлен 29.05.2012

    Показатели безотказности как показатели надежности невосстанавливаемых объектов. Классическое и геометрическое определение вероятности. Частота случайного события и "статистическое определение" вероятности. Теоремы сложения и умножения вероятностей.

    курсовая работа , добавлен 18.11.2011

    Дискретные случайные величины и их распределения. Формула полной вероятности и формула Байеса. Общие свойства математического ожидания. Дисперсия случайной величины. Функция распределения случайной величины. Классическое определение вероятностей.

    контрольная работа , добавлен 13.12.2010

    Математические модели явлений или процессов. Сходимость метода простой итерации. Апостериорная оценка погрешности. Метод вращений линейных систем. Контроль точности и приближенного решения в рамках прямого метода. Метод релаксации и метод Гаусса.

Введение

Метод Байеса относится к статистическим методам распознавания, основное преимущество которых состоит в возможности одновременного учета признаков различной физической природы. Это связано с тем, что все признаки характеризуются безразмерными величинами - вероятностями их появления при различных состояниях системы.

Метод Байеса благодаря своей простоте и эффективности занимает особое место среди методов технической диагностики, хотя имеет и недостатки, например большой объем предварительной информации, «угнетение» редко встречающихся диагнозов и др. Однако в случаях, когда объем статистической информации позволяет применить метод Байеса, его целесообразно использовать как один из наиболее надежных и эффективных методов.

Основы метода Байеса

Метод основан на формуле Байеса (формуле вероятности гипотез).

Если имеется диагноз D i и простой признак k j , встречающийся при этом диагнозе, то вероятность совместного появления событий (наличие у объекта состояния D i и признака k j ), определяется по формуле:

P (D i k j ) = P (D i ) P (k j /D i ) = P (k j ) P (D i / k j ). (1.1.)

Из этого равенства вытекает формула Байеса:

P(D i / k j ) = P(D i ) P(k i /D i )/P(k j ) (1.2.)

Очень важно определить точный смысл всех входящих в эту формулу величин.

P (D i ) --вероятность диагноза D i , определяемая по статистическим данным (априорная вероятность диагноза ). Так, если предварительно обследовано N объектов и у N i объектов имелось состояние D i , то

P (D i ) = N i /N . (1.3.)

P (k j /D i k j у объектов с состоянием D i .

Если среди N i объектов, имеющих диагноз D i , у N ij проявился признак k j , то байес корреляционный вероятностный

P (k j /D i ) = N ij /N i . (1.4.)

P (k j ) --вероятность появления признака k j во всех объектах независимо от состояния (диагноза)объекта. Пусть из общего числа N объектов признак k j был обнаружен у N j объектов, тогда

P(k j ) = N j /N . (1.5.)

Для установления диагноза специальное вычисление P (kj ) не требуется. Как будет ясно из дальнейшего, значения P (D i P (k j /D i ), известные для всех возможных состояний, определяют величину P (k j ).

В равенстве P (D i /k j )--вероятность диагноза D i после того, как стало известно наличие у рассматриваемого объекта признака k j (апостериорная вероятность диагноза ).

Дуглас У. Хаббард Глава из книги «Как измерить все, что угодно. Оценка стоимости нематериального в бизнесе»
Издательство «Олимп-Бизнес »

Таблица 1. Отдельные строки из таблицы расчётов с использованием байесовской инверсии

Похоже, что удержание покупателей у нас не на высоте. Но мы пересчитаем стоимость этой информации, и хотя она уменьшится, окажется, что провести дополнительные измерения все равно имеет смысл. Выберем еще 40 покупателей, и тогда в сумме их будет 60 человек. Из этих 60 только 39 скажут, что вернутся в наш магазин. Наш новый 90-процентный CI окажется равным 69-80%. Теперь верхняя граница равняется нашему первоначальному критическому порогу 80%, давая 95-процентную уверенность, что доля повторных покупателей низка настолько, что требует от нас серьезных, дорогостоящих изменений.

Расчеты оказались довольно сложными, но помните, что вы можете воспользоваться таблицами, приведенными на нашем вспомогательном сайте. И вполне возможно, что в данном случае сработал бы обсуждавшийся ранее субъективный байесовский метод, применяемый калиброванными экспертами. Возможно, опрос покупателей выявит такие качественные факторы, которые сумеют учесть наши калиброванные специалисты. Однако стоимость результатов этих важных измерений достаточно высока, чтобы оправдать наши дополнительные усилия.

Избегайте «инверсии наблюдения»

Многие задают вопрос: «Какой вывод я могу сделать из этого наблюдения?» Но Байес показал нам, что нередко полезнее задать вопрос: «Что я должен наблюдать, если будет соблюдаться условие X?» Ответ на последний вопрос позволяет разобраться с первым.

Xотя на первый взгляд байесовская инверсия может показаться весьма трудоемкой, она относится к наиболее эффективным из имеющихся в нашем распоряжении методам измерения. Если удастся сформулировать вопрос «Какова вероятность увидеть X, если справедливо Y?» и превратить его в «Какова вероятность того, что справедливо Y, если мы наблюдаем X?», то можно решить огромное число задач по измерению. В сущности, именно так мы и находим ответы на большинство научных вопросов. Если предложенная гипотеза верна, то что мы должны наблюдать?

Напротив, многие менеджеры, похоже, считают, что все измерения сводятся к поиску ответов на вопрос: «Какой я должен сделать вывод из того, что вижу?» Когда кажется, что совершена ошибка наблюдения, люди решают: на этом основании делать выводы нельзя, какой бы низкой ни была вероятность такой ошибки. Однако байесовский анализ показывает, что воображаемые менеджерами ошибки крайне маловероятны и что измерение все равно заметно снизило бы существующую неопределенность. Иными словами, отсутствие, по крайней мере, теоретического понимания байесовской инверсии приводит к переворачиванию вопроса и к формированию убеждения, что маловероятные ошибки сводят ценность измерений к нулю — то есть к самой неудачной разновидности «инверсии наблюдения».

Примечания

1 David M. Grether, Mahmoud A. El-Gamal. Are People Bayesian? Uncovering Behavioral Strategies // Social Science Working Paper 919, 1995, California Institute of Technology.

2 Tom DeMarco, Timothy Lister. Peopleware: Productive Projects and Teams. 2nd ed. New York: Dorset House Publishing, 1999.

FYP — first year profit, прибыль первого года. — Примеч. переводчика.

Неточность: рисунок доли генеральной совокупности приведен в главе 9 (см. рис. 9.2). — Примеч. редактора.

Постановка задач технической диагностики

Основные направления технической диагностики

Основы технической диагностики

РАЗДЕЛ №5

Определения. Термин «диагностика» происходит от греческого слова «диагнозис», что означает распознавание, определение.

В процессе диагностики устанавливается диагноз, т.е. определяется состояние больного (медицинская диагностика) или состояние технической системы (техническая диагностика).

Технической диагностикой называется наука о распознавании состояния технической системы.

Цели технической диагностики. Рассмотрим кратко основное содержание технической диагностики. Техническая диагностика изучает методы получения и оценки диагностической информации, диагностические модели и алгоритмы принятия решений. Целью технической диагностики является повышение надежности и ресурса технических систем.

Как известно, наиболее важным показателем надежности является отсутствие отказов во время функционирования (работы) технической системы. Отказ авиационного двигателя в полетных условиях, судовых механизмов во время плавания корабля, энергетических установок в работе под нагрузкой может привести к тяжелым последствиям.

Техническая диагностика благодаря раннему обнаружению Дефектов и неисправностей позволяет устранить подобные отказы в процессе технического обслуживания, что повышает надежность и эффективность эксплуатации, а также дает возможность эксплуатации технических систем ответственного назначения по состоянию.

В практике ресурс таких систем определяется по наиболее «слабым» экземплярам изделий. При эксплуатации по состоянию каждый экземпляр эксплуатируется до предельного состояния в соответствии с рекомендациями системы технической диагностики. Эксплуатация по техническому состоянию может принести выгоду, эквивалентную стоимости 30% общего парка машин.

Основные задачи технической диагностики. Техническая диагностика решает обширный круг задач, многие из которых являются смежными с задачами других научных дисциплин. Основной задачей технической диагностики является распознавание состояния технической системы в условиях ограниченной информации.

Техническую диагностику иногда называют безразборной диагностикой, т. е. диагностикой, осуществляемой без разборки изделия. Анализ состояния проводится в условиях эксплуатации, при которых получение информации крайне затруднено. Часто не представляется возможным по имеющейся информации сделать однозначное заключение и приходится использовать статистические методы.

Теоретическим фундаментом для решения основной задачи технической диагностики следует считать общую теорию распознавания образцов. Эта теория, составляющая важный раздел технической кибернетики, занимается распознаванием образов любой природы (геометрических, звуковых и т.п.), машинным распознаванием речи, печатного и рукописного текстов и т.д. Техническая диагностика изучает алгоритмы распознавания применительно к задачам диагностики, которые обычно могут рассматриваться как задачи классификации.


Алгоритмы распознавания в технической диагностике частично основываются на диагностических моделях, устанавливающих связь между состояниями технической системы и их отображениями в пространстве диагностических сигналов. Важной частью проблемы распознавания являются правила принятия решений (решающие правила).

Решение диагностической задачи (отнесение изделия к исправным или неисправным) всегда связано с риском ложной тревоги или пропуска цели. Для принятия обоснованного решения целесообразно привлекать методы теории статистических решений, разработанные впервые в радиолокации.

Решение задач технической диагностики всегда связано с прогнозированием надежности на ближайший период эксплуатации (до следующего технического осмотра). Здесь решения должны основываться на моделях отказов, изучаемых в теории надежности.

Вторым важным направлением технической диагностики является теория контролеспособности. Контролеспособностью называется свойство изделия обеспечивать достоверную оценку его

технического состояния и раннее обнаружение неисправностей и отказов. Контролеспособность создается конструкцией изделия и принятой системой технической диагностики.

Крупной задачей теории контролеспособности является изучение средств и методов получения диагностической информации. В сложных технических системах используется автоматизированный контроль состояния, которым предусматривается обработка диагностической информации и формирование управляющих сигналов. Методы проектирования автоматизированных систем контроля составляют одно из направлений теории контролеспособности. Наконец, очень важные задачи теории контролеспособности связаны с разработкой алгоритмов поиска неисправностей, разработкой диагностических тестов, минимизацией процесса установления диагноза.

В связи с тем, что техническая диагностика развивалась первоначально только для радиоэлектронных систем, многие авторы отождествляют теорию технической диагностики с теорией контролеспособности (поиском и контролем неисправностей), что, конечно, ограничивает область приложения технической диагностики.

Структура технической диагностики. На рис. 5.1 показана структура технической диагностики. Она характеризуется двумя взаимопроникающими и взаимосвязанными направлениями: теорией распознавания и теорией контролеспособности. Теория распознавания содержит разделы, связанные с построением алгоритмов распознавания, решающих правил и диагностических моделей. Теория контролеспособности включает разработку средств и методов получения диагностической информации, автоматизированный контроль и поиск неисправностей. Техническую диагностику следует рассматривать как раздел общей теории надежности.

Рис. 5.1. Структура технической диагностики

Вводные замечания. Пусть требуется определить состояние шлицевого соединения валов редуктора в эксплуатационных условиях. При большом износе шлицев появляются перекосы и усталостные разрушения. Непосредственный осмотр шлицев невозможен, так как требует разборки редуктора, т. е. прекращения эксплуатации. Неисправность шлицевого соединения может повлиять на спектр колебаний корпуса редуктора, акустические колебания, содержание железа в масле и другие параметры.

Задача технической диагностики состоит в определении степени износа шлицев (глубины разрушенного поверхностного слоя) по данным измерений ряда косвенных параметров. Как указывалось, одной из важных особенностей технической диагностики является распознавание в условиях ограниченной информации, когда требуется руководствоваться определенными приемами и правилами для принятия обоснованного решения.

Состояние системы описывается совокупностью (множеством) определяющих ее параметров (признаков). Разумеется, что множество определяющих параметров (признаков) может быть различным, в первую очередь, в связи с самой задачей распознавания. Например, для распознавания состояния шлицевого соединения двигателя достаточна некоторая группа параметров, но она должна быть дополнена, если проводится диагностика и других деталей.

Распознавание состояния системы - отнесение состояния системы к одному из возможных классов (диагнозов). Число диагнозов (классов, типичных состояний, эталонов) зависит от особенностей задачи и целей исследования.

Часто требуется провести выбор одного из двух диагнозов (дифференциальная диагностика или дихотомия); например, «исправное состояние» и «неисправное состояние». В других случаях необходимо более подробно охарактеризовать неисправное состояние, например повышенный износ шлицев, возрастание вибраций лопаток и т. п. В большинстве задач технической диагностики диагнозы (классы) устанавливаются заранее, и в этих условиях задачу распознавания часто называют задачей классификации.

Так как техническая диагностика связана с обработкой большого объема информации, то принятие решений (распознавание) часто осуществляется с помощью электронных вычислительных машин (ЭВМ).

Совокупность последовательных действий в процессе распознавания называется алгоритмом распознавания. Существенной частью процесса распознавания является выбор параметров, описывающих состояние системы. Они должны быть достаточно информативны, чтобы при выбранном числе диагнозов процесс разделения (распознавания) мог быть осуществлен.

Математическая постановка задачи. Взадачах диагностики состояние системы часто описывается с помощью комплекса признаков

K = (k l , k 2 ,..., k j ,..., k v ), (5.1)

где k j - признак, имеющий m j разрядов.

Пусть, например, признак k j представляет собой трехразрядный признак (m j = 3), характеризующий величину температуры газа за турбиной: пониженная, нормальная, повышенная. Каждый разряд (интервал) признака k j обозначается k js , например повышенная температура за турбиной k j з. Фактически наблюдаемое состояние соответствует определенной реализации признака, что отмечается верхним индексом *. Например, при повышенной температуре реализация признака k* j = k j з.

Вобщем случае каждый экземпляр системы соответствует некоторой реализации комплекса признаков:

K * = (k 1 * , k 2 * ,..., k j * ,..., k v * ). (5.2)

Во многих алгоритмах распознавания удобно характеризовать систему параметрами x j , образующими v - мepный вектор или точку в v -мepнoм пространстве:

X = (x l , x 2 , x j , , x v ). (5.3)

Вбольшинстве случаев параметры x j имеют непрерывное распределение. Например, пусть x j - параметр, выражающий температуру за турбиной. Предположим, что соответствие между параметром x j (° C) итрехразрядным признаком k j таково:

< 450 к j l

450 - 550 к j 2

> 500 к j 3

В данном случае с помощью признака k j получается дискретное описание, тогда как параметр x j дает непрерывное описание. Отметим, что при непрерывном описании обычно требуется значительно больший объем предварительной информации, но описание получается более точным. Если, однако, известны статистические законы распределения параметра, то необходимый объем предварительной информации сокращается.

Из предыдущего ясно, что принципиальных отличий при описании системы с помощью признаков или параметров нет, и в дальнейшем будут использованы оба вида описания.

Как указывалось, в задачах технической диагностики возможные состояния системы - диагнозы D i - считаются известными.

Существуют два основных подхода к задаче распознавания: вероятностный идетерминистский . Постановка задачи при вероятностных методах распознавания такова. Имеется система, которая находится в одном из ислучайных состояний D i . Известна совокупность признаков (параметров), каждый из которых с определенной вероятностью характеризует состояние системы. Требуется построить решающее правило, с помощью которого предъявленная (диагностируемая) совокупность признаков была бы отнесена к одному из возможных состояний (диагнозов). Желательно также оценить достоверность принятого решения и степень риска ошибочного решения.

При детерминистских методах распознавания удобно формулировать задачу на геометрическом языке. Если система характеризуется v -мерным вектором X , то любое состояние системы представляет собой точку в v-мерном пространстве параметров (признаков). Предполагается, что диагноз D, соответствует некоторой области рассматриваемого пространства признаков. Требуется найти решающее правило, в соответствии с которым предъявленный вектор X * (диагностируемый объект) будет отнесен к определенной области диагноза. Таким образом задача сводится к разделению пространства признаков на области диагнозов.

При детерминистском подходе области диагнозов обычно считаются «непересекающимися», т.е. вероятность одного диагноза (в область которого попадает точка) равна единице, вероятность других равна нулю. Подобным образом предполагается, что и каждый признак либо встречается при данном диагнозе, либо отсутствует.

Вероятностный и детерминистский подходы не имеют принципиальных различий. Более общими являются вероятностные методы, но они часто требуют и значительно большего объема предварительной информации. Детерминистские подходы более кратко описывают существенные стороны процесса распознавания, меньше зависят от избыточной, малоценной информации, больше соответствуют логике мышления человека.

В последующих главах излагаются основные алгоритмы распознавания в задачах технической диагностики.

Среди методов технической диагностики метод, основанный на обобщенной формуле Бaйeca , занимает особое место благодаря простоте и эффективности.

Разумеется, метод Байеса имеет недостатки: большой объем предварительной информации, «угнетение» редко встречающихся диагнозов и др. Однако в случаях, когда объем статистических данных позволяет применить метод Байеса, его целесообразно использовать как один из наиболее надежных и эффективных методов.

Основы метода. Метод основан на простой формуле Байеса. Если имеется диагноз D i и простой признак k j , встречающийся при этом диагнозе, то вероятность совместного появления событий (наличие у объекта состояния D i и признака k j )

P (D i k j) = P (D i) P (k j /D i) = P (k j) P (D i /k j). (5.4)

Из этого равенства вытекает формула Байеса (см. гл. 11)

P(D i /k j) = P(D i) P(k i /D i)/P(k j ) (5.5)

Очень важно определить точный смысл всех входящих в эту формулу величин.

P (D i ) - вероятность диагнозаD i , определяемая по статистическим данным (априорная вероятность диагноза ). Так, если предварительно обследовано N объектов и у N i объектов имелось состояние D i , то

P (D i ) = N i /N . (5.6)

P (k j /D i ) - k j у объектов с состоянием D i . Если среди N i объектов, имеющих диагнозD i , у N ij проявился признак k j , то

P (k j /D i ) = N ij /N i . (5.7)

P (k j ) - вероятность появления признакаk j во всех объектахнезависимо от состояния (диагноза)объекта. Пусть изобщего числа N объектов признакk j был обнаружену N j объектов, тогда

P(k j ) = N j /N . (5.8)

Для установления диагноза специальное вычисление P (kj ) не требуется. Как будет ясно из дальнейшего, значения P (D i P (k j / D i ), известные для всех возможных состояний, определяют величину P (k j ).

Вравенстве (3.2) P (D i /k j )- вероятность диагноза D i послетого, как сталоизвестно наличие у рассматриваемого объекта признака k j (апостериорная вероятность диагноза ).

Обобщенная формула Байеса. Эта формула относится к случаю, когда обследование проводится по комплексу признаков К , включающему признаки k 1 , k 2 , ..., k v . Каждый из признаков k j имеет m j разрядов (k j l , k j 2 , ..., k js , ..., ). В результате обследования становитсяизвестной реализация признака

k j * = k js (5.9)

и всего комплекса признаков K *. Индекс *, как и раньше, означаетконкретное значение (реализацию) признака. Формула Байеса для комплексапризнаков имеет вид

P (D i /К * )= P (D i )P (К */D i )/P (К * )(i = 1, 2, ..., n ), (5.10)

где P (D i /К * ) - вероятность диагноза D i после того, какстали известны результаты обследования по комплексу признаков К , P (D i ) - предварительная вероятность диагноза D i (по предшествующей статистике).

Формула (5.10) относится к любому из n возможных состояний (диагнозов) системы. Предполагается, что система находится только в одном из указанных состояний ипотому

В практических задачах нередко допускается возможность существования нескольких состояний А 1 , ..., А r , причем некоторые из них могут встретиться в комбинации друг с другом. Тогда в качестве различных диагнозов D i следует рассматривать отдельные состояния D 1 = А 1 , ..., D r = А r и их комбинации D r +1 = А 1 ^ А 2 , … и т. п.

Перейдем к определению P (К */ D i ). Если комплекс признаков состоит из v признаков, то

P (К */ D i ) = P(k 1 */ D i )P (k 2 */k 1 * D i )...P (k v */k l * ...k* v- 1 D i ), (5.12)

где k j * = k js - разряд признака, выявившийся в результате обследования. Для диагностически независимых признаков

P (К */ D i ) = P (k 1 */ D i ) P (k 2 */ D i )... P (k v * / D i ). (5.13)

В большинстве практических задач, особенно при большом числе признаков, можно принимать условие независимости признаков даже при наличии существенных корреляционных связей между ними.

Вероятность появления комплекса признаковК *

P (К *)= P (D s)P (К */D s) . (5.14)

Обобщенная формула Байеса может быть записана так:

P (D i /K * ) (5.15)

где P (К */ D i )определяется равенством (5.12) или (5.13). Изсоотношения (5.15) вытекает

P (D i /К *)=l, (5.16)

что, разумеется, и должно быть, так как один из диагнозов обязательно реализуется, а реализация одновременно двух диагнозов невозможна.

Следует обратить внимание на то, что знаменатель формулы Байеса для всех диагнозов одинаков. Это позволяет сначала определить вероятности совместного появления i -гo диагноза и данной реализации комплекса признаков

P (D i К *) = P (D i )P (К */D i ) (5.17)

и затем апостериорную вероятность диагноза

P (D i /К *) = P (D i К *)/P (D s К *). (5.18)

Отметим, что иногда целесообразно использовать предварительное логарифмирование формулы (5.15), так как выражение (5.13) содержит произведения малых величин.

Если реализация некоторого комплекса признаков К * является детерминирующей для диагноза D p , то этот комплекс не встречается при других диагнозах:

Тогда, в силу равенства (5.15)

(5.19)

Таким образом, детерминистская логика установления диагноза является частным случаем вероятностной логики. Формула Байеса может использоваться и в том случае, когда часть признаков имеет дискретное распределение, а другая часть - непрерывное. Для непрерывного распределения используются плотности распределения. Однако в расчетном плане указанное различие признаков несущественно, если задание непрерывной кривой осуществляется с помощью совокупности дискретных значений.

Диагностическая матрица. Для определения вероятности диагнозов по методу Байеса необходимо составить диагностическую матрицу (табл. 5.1), которая формируется на основе предварительного статистического материала. В этой таблице содержатся вероятности разрядов признаков при различных диагнозах.

Таблица 5.1

Диагностическая матрица в методе Байеса

© 2024. atkar.ru. Портал о потолках. Ремонт и операции. Дополнительные элементы.