Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Применение метода группового учета аргументов и нейронных сетей для анализа сложных объектов технической и биологической природы

Применение метода группового учета аргументов и нейронных сетей для анализа сложных объектов технической и биологической природы

F2cd01da431a9d14801538d75e6f8931?s=128

cansadadeserfeliz

June 01, 2010
Tweet

Transcript

  1. None
  2. 02.06.2010 2 ™ продемонстрировать возможность применения аппарата вероятностных нейронных сетей

    и линейного классификатора для распознавания ситуаций, связанных с потерей связи между наземной станцией командно-измерительной системы и Центром управления полетами; ™ рассмотреть применение алгоритма МГУА для определения степени тяжести мочекаменной болезни человека на основе данных, полученных из графических изображений образцов биологической жидкости пациентов.
  3. 02.06.2010 3 Пусть дано множество M объектов ω, покрытое конечным

    числом подмножеств Ω1 , Ω2 , …, Ωm таких, что: Подмножества Ωi , i = 1, 2, …, m называют классами. Объекты ω задаются значениями некоторых признаков xj : j = 1, 2, …, N. Совокупность значений признаков xj определяет описание I(ω) = (x1 (ω), …, xN (ω)) объекта ω. Каждый из признаков может принимать значения из различных множеств допустимых значений признаков. 1 m i i M = = Ω ∪
  4. № п/п Наименование ситуации Признаки Номер класса x1 x2 x3

    x4 x5 x6 x7 x8 1 Связь только что установлена 1 0 1 0 0 0 0 0 1 2 Нормальная передача 1 1 0 0 0 0 0 0 1 3 Директива принята, идет запись на диск, ждать сообщения от Абонента 1 0 0 0 1 0 0 0 1 4 Директива принята, идет считывание с диска ждать сообщения от Абонента 1 0 0 0 0 1 0 0 1 5 Ожидание сообщения от Абонента 1 0 0 0 0 0 1 0 1 6 Обработка инициативного сообщения от Абонента 1 0 0 0 0 0 0 0 1 7 Аварийный разрыв связи 0 0 0 0 0 0 0 0 0 8 Потеряна квитанция 1 0 0 1 0 0 0 0 0 9 Директива потеряна 1 0 0 0 0 0 1 1 0 02.06.2010 4
  5. 02.06.2010 5

  6. 02.06.2010 6 Нейроны слоя образцов определяются с функцией Гаусса с

    нормальным законом распределения: 2 1 2 ( ) exp 2 m j i i i j w a y σ = ⎛ ⎞ − ⎜ ⎟ ⎜ ⎟ = − ⎜ ⎟ ⎜ ⎟ ⎝ ⎠ ∑ Функция активации выходного слоя формирует значение определяемого класса, равное номеру класса, соответствующему самому большому значению: ( ) ( ) max k k i i f y =
  7. Входной вектор Значение выходного слоя Номер класса Ожидаемый выход (1,

    0, 0, 0.5, 0, 0, 0, 0) f(0) = 0.9239 0 0 (0.5, 1, 0, 0, 0, 0, 0, 0) f(1) = 0.7075 1 1 (1, 0, 0.5, 0, 0, 0, 0, 0) f(1) = 1.0 1 1 (1, 0, 0, 0, 0, 1, 0, 0) f(1) = 1.0 1 1 (0.5, 0, 0, 0, 0, 0, 0.5, 1) f(0) = 0.8536 0 0 (0.5, 0, 0, 0, 1, 0, 0, 0) f(1) = 0.7075 1 1 (1, 0, 0, 1, 0, 0, 0, 0) f(0) = 1.0 0 0 02.06.2010 7
  8. 02.06.2010 8 Однослойный персептрон позволяет провести решающую линию вида :

    x1 w1 + x2 w2 + … + xn wn + w0 = 0, где xi – значения входных признаков, wi – искомые весовые коэффициенты. Выходное значение вычисляется по формуле: 0 1 n T i i i y f x w w = ⎛ ⎞ = + ⎜ ⎟ ⎝ ⎠ ∑
  9. 02.06.2010 9 Правило Видроу-Хоффа: ( ) : T Э y

    y η = + − w w x
  10. Входной вектор Выходное значение Ожидаемый выход (1, 0, 0, 0.5,

    0, 0, 0, 0) 0.545 0 (0.5, 1, 0, 0, 0, 0, 0, 0) 0.868 1 (1, 0, 0.5, 0, 0, 0, 0, 0) 0.999 1 (1, 0, 0, 0, 0, 1, 0, 0) 1 1 (0.5, 0, 0, 0, 0, 0, 0.5, 1) 0 0 (0.5, 0, 0, 0, 1, 0, 0, 0) 0.918 1 (1, 0, 0, 1, 0, 0, 0, 0) 0.006 0 02.06.2010 10
  11. 02.06.2010 11 Номер образца Вероятностная сеть Линейный классификатор Класс при

    допуске δ = ±0.2 Класс при допуске δ = ±0.1 Класс при допуске δ = ±0.2 Класс при допуске δ = ±0.1 1 0 0 Δ Δ 2 Δ Δ 1 Δ 3 1 1 1 1 4 1 1 1 1 5 0 Δ 0 0 6 Δ Δ 1 1 7 0 0 0 0
  12. 02.06.2010 12 Низкая степень заболевания Высокая степень заболевания

  13. 13 Класс болезни x 1 x 2 x 3 x

    4 x 5 x 6 Обучающая выборка: High 1.926 0.981 0.525 0.868 16741.111 141059.476 Normal 0.618 0.820 0.775 0.814 5220.540 83132.962 High 0.454 0.442 0.975 0.802 39688.242 105460.980 Normal 0.279 0.856 0.350 0.870 3234.801 114920.842 High 1.125 2.176 0.525 0.907 21175.462 86829.661 High 0.439 5.538 0.100 0.261 28330.527 98336.349 Normal 0.374 2.497 0.150 0.308 3398.417 102013.717 Normal 1.881 2.699 0.700 0.833 2766.696 108541.311 Проверочная выборка: High 0.294 2.828 0.125 0.205 12712.210 102701.833 High 0.588 1.362 0.450 0.847 15603.374 106746.860 Normal 0.048 4.990 0.025 0.100 4215.215 112105.498 High 1.498 1.998 0.750 0.652 29931.637 101425.870 High 0.595 1.479 0.425 0.637 19068.337 88993.962 Normal 1.881 2.699 0.700 0.833 2766.696 108541.311 Normal 0.372 0.419 0.900 0.868 5329.819 113556.868 High 0.291 4.070 0.075 0.374 20068.053 96634.728
  14. 02.06.2010 14 П – пороговый отбор F лучших моделей, А

    – алгоритм попарной обработки аргументов
  15. 02.06.2010 15 На первом ряду алгоритма на основе исходных данных

    строятся частные описания от всех парных комбинаций исходных аргументов: – входной вектор; – вектор полиномиальных коэффициентов. Уравнения для «частных» описаний первого ряда имеют вид:
  16. 02.06.2010 16 Полиномиальные коэффициенты для каждого частного описания определяются по

    методу наименьших квадратов на образцах из обучающей выборки: где – целевой вектор желаемых выходов, соответствующий образцам из обучающей выборки.
  17. 02.06.2010 17 Для всех частных моделей на каждом ряду r

    алгоритма вычисляются ошибки, составляющие отклонение выхода полученной функции от значений эталонного вектора: Ошибку ряда составляет наименьшая ошибка по всем частным моделям:
  18. 02.06.2010 18 Наращивание рядов селекции было прекращено по достижении минимума

    ошибки: Наименьшую среднеквадратическую ошибку показала первая модель второго ряда.
  19. 02.06.2010 19 Полученная модель МГУА может быть представлена следующим полиномом

    от трех переменных:
  20. 02.06.2010 20 Номер образца Выход лучшей модели Класс при δ

    = ± 0.2 Класс при δ = ± 0.1 1 0.8757 1 Δ 2 0.2212 0 Δ 3 0.9426 1 1 4 0.0031 0 0 5 1.0195 1 1 6 1.0776 1 1 7 -0.0894 0 0 8 -0.0503 0 0 9 0.7327 Δ Δ 10 0.8418 1 Δ 11 -0.1193 0 Δ 12 1.0399 1 1 13 0.9849 1 1 14 -0.0503 0 0 15 0.2522 Δ Δ 16 1.0994 1 1
  21. 02.06.2010 21 ™ В результате настоящей работы исследована возможность применения

    аппарата вероятностных нейронных сетей и персептрона для контроля потери связи НС КИС с ЦУП. На основе выполненных экспериментов показано преимущество однослойного персептрона над вероятностной сетью при решении данной задачи. ™ На примере задачи диагностики биологических систем показана эффективность алгоритма МГУА для классификации степени заболевания.
  22. None