Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Применение метода группового учета аргументов и нейронных сетей для анализа сложных объектов технической и биологической природы

Применение метода группового учета аргументов и нейронных сетей для анализа сложных объектов технической и биологической природы

cansadadeserfeliz

June 01, 2010
Tweet

More Decks by cansadadeserfeliz

Other Decks in Science

Transcript

  1. View Slide

  2. 02.06.2010 2
    ™ продемонстрировать возможность применения аппарата
    вероятностных нейронных сетей и линейного классификатора
    для распознавания ситуаций, связанных с потерей связи между
    наземной станцией командно-измерительной системы и Центром
    управления полетами;
    ™ рассмотреть применение алгоритма МГУА для определения
    степени тяжести мочекаменной болезни человека на основе
    данных, полученных из графических изображений образцов
    биологической жидкости пациентов.

    View Slide

  3. 02.06.2010 3
    Пусть дано множество M объектов ω, покрытое конечным числом
    подмножеств Ω1
    , Ω2
    , …, Ωm
    таких, что:
    Подмножества Ωi
    , i = 1, 2, …, m называют классами. Объекты ω
    задаются значениями некоторых признаков xj
    : j = 1, 2, …, N.
    Совокупность значений признаков xj
    определяет описание
    I(ω) = (x1
    (ω), …, xN
    (ω)) объекта ω.
    Каждый из признаков может принимать значения из различных
    множеств допустимых значений признаков.
    1
    m
    i
    i
    M
    =
    = Ω

    View Slide


  4. п/п
    Наименование
    ситуации
    Признаки
    Номер
    класса
    x1
    x2
    x3
    x4
    x5
    x6
    x7
    x8
    1 Связь только что установлена 1 0 1 0 0 0 0 0 1
    2 Нормальная передача 1 1 0 0 0 0 0 0 1
    3 Директива принята, идет запись на
    диск, ждать сообщения от
    Абонента
    1 0 0 0 1 0 0 0 1
    4 Директива принята, идет
    считывание с диска ждать
    сообщения от Абонента
    1 0 0 0 0 1 0 0 1
    5 Ожидание сообщения от Абонента 1 0 0 0 0 0 1 0 1
    6 Обработка инициативного
    сообщения от Абонента
    1 0 0 0 0 0 0 0 1
    7 Аварийный разрыв связи 0 0 0 0 0 0 0 0 0
    8 Потеряна квитанция 1 0 0 1 0 0 0 0 0
    9 Директива потеряна 1 0 0 0 0 0 1 1 0
    02.06.2010 4

    View Slide

  5. 02.06.2010 5

    View Slide

  6. 02.06.2010 6
    Нейроны слоя образцов определяются с функцией Гаусса с
    нормальным законом распределения:
    2
    1
    2
    ( )
    exp
    2
    m
    j
    i i
    i
    j
    w a
    y
    σ
    =
    ⎛ ⎞

    ⎜ ⎟
    ⎜ ⎟
    = −
    ⎜ ⎟
    ⎜ ⎟
    ⎝ ⎠

    Функция активации выходного слоя формирует значение
    определяемого класса, равное номеру класса, соответствующему
    самому большому значению:
    ( ) ( )
    max
    k k
    i
    i
    f y
    =

    View Slide

  7. Входной вектор
    Значение
    выходного слоя
    Номер класса
    Ожидаемый
    выход
    (1, 0, 0, 0.5, 0, 0, 0, 0) f(0) = 0.9239 0 0
    (0.5, 1, 0, 0, 0, 0, 0, 0) f(1) = 0.7075 1 1
    (1, 0, 0.5, 0, 0, 0, 0, 0) f(1) = 1.0 1 1
    (1, 0, 0, 0, 0, 1, 0, 0) f(1) = 1.0 1 1
    (0.5, 0, 0, 0, 0, 0, 0.5, 1) f(0) = 0.8536 0 0
    (0.5, 0, 0, 0, 1, 0, 0, 0) f(1) = 0.7075 1 1
    (1, 0, 0, 1, 0, 0, 0, 0) f(0) = 1.0 0 0
    02.06.2010 7

    View Slide

  8. 02.06.2010 8
    Однослойный персептрон позволяет провести
    решающую линию вида :
    x1
    w1
    + x2
    w2
    + … + xn
    wn
    + w0
    = 0,
    где xi
    – значения входных признаков,
    wi
    – искомые весовые коэффициенты.
    Выходное значение вычисляется по формуле:
    0
    1
    n
    T i i
    i
    y f x w w
    =
    ⎛ ⎞
    = +
    ⎜ ⎟
    ⎝ ⎠

    View Slide

  9. 02.06.2010 9
    Правило Видроу-Хоффа:
    ( )
    :
    T Э
    y y
    η
    = + −
    w w x

    View Slide

  10. Входной вектор
    Выходное
    значение
    Ожидаемый
    выход
    (1, 0, 0, 0.5, 0, 0, 0, 0) 0.545 0
    (0.5, 1, 0, 0, 0, 0, 0, 0) 0.868 1
    (1, 0, 0.5, 0, 0, 0, 0, 0) 0.999 1
    (1, 0, 0, 0, 0, 1, 0, 0) 1 1
    (0.5, 0, 0, 0, 0, 0, 0.5, 1) 0 0
    (0.5, 0, 0, 0, 1, 0, 0, 0) 0.918 1
    (1, 0, 0, 1, 0, 0, 0, 0) 0.006 0
    02.06.2010 10

    View Slide

  11. 02.06.2010 11
    Номер
    образца
    Вероятностная сеть Линейный классификатор
    Класс
    при допуске
    δ = ±0.2
    Класс
    при допуске
    δ = ±0.1
    Класс
    при допуске
    δ = ±0.2
    Класс
    при допуске
    δ = ±0.1
    1 0 0 Δ Δ
    2 Δ Δ 1 Δ
    3 1 1 1 1
    4 1 1 1 1
    5 0 Δ 0 0
    6 Δ Δ 1 1
    7 0 0 0 0

    View Slide

  12. 02.06.2010 12
    Низкая степень
    заболевания
    Высокая степень
    заболевания

    View Slide

  13. 13
    Класс
    болезни
    x
    1
    x
    2
    x
    3
    x
    4
    x
    5
    x
    6
    Обучающая выборка:
    High 1.926 0.981 0.525 0.868 16741.111 141059.476
    Normal 0.618 0.820 0.775 0.814 5220.540 83132.962
    High 0.454 0.442 0.975 0.802 39688.242 105460.980
    Normal 0.279 0.856 0.350 0.870 3234.801 114920.842
    High 1.125 2.176 0.525 0.907 21175.462 86829.661
    High 0.439 5.538 0.100 0.261 28330.527 98336.349
    Normal 0.374 2.497 0.150 0.308 3398.417 102013.717
    Normal 1.881 2.699 0.700 0.833 2766.696 108541.311
    Проверочная выборка:
    High 0.294 2.828 0.125 0.205 12712.210 102701.833
    High 0.588 1.362 0.450 0.847 15603.374 106746.860
    Normal 0.048 4.990 0.025 0.100 4215.215 112105.498
    High 1.498 1.998 0.750 0.652 29931.637 101425.870
    High 0.595 1.479 0.425 0.637 19068.337 88993.962
    Normal 1.881 2.699 0.700 0.833 2766.696 108541.311
    Normal 0.372 0.419 0.900 0.868 5329.819 113556.868
    High 0.291 4.070 0.075 0.374 20068.053 96634.728

    View Slide

  14. 02.06.2010 14
    П – пороговый отбор F лучших моделей,
    А – алгоритм попарной обработки аргументов

    View Slide

  15. 02.06.2010 15
    На первом ряду алгоритма на основе исходных данных строятся
    частные описания от всех парных комбинаций исходных аргументов:
    – входной вектор;
    – вектор полиномиальных
    коэффициентов.
    Уравнения для «частных» описаний
    первого ряда имеют вид:

    View Slide

  16. 02.06.2010 16
    Полиномиальные коэффициенты для каждого частного описания
    определяются по методу наименьших квадратов на образцах из
    обучающей выборки:
    где
    – целевой вектор желаемых
    выходов, соответствующий
    образцам из обучающей выборки.

    View Slide

  17. 02.06.2010 17
    Для всех частных моделей на каждом ряду r алгоритма
    вычисляются ошибки, составляющие отклонение выхода
    полученной функции от значений эталонного вектора:
    Ошибку ряда составляет наименьшая ошибка
    по всем частным моделям:

    View Slide

  18. 02.06.2010 18
    Наращивание рядов селекции
    было прекращено по достижении
    минимума ошибки:
    Наименьшую
    среднеквадратическую
    ошибку показала первая
    модель второго ряда.

    View Slide

  19. 02.06.2010 19
    Полученная модель МГУА может быть представлена следующим
    полиномом от трех переменных:

    View Slide

  20. 02.06.2010 20
    Номер
    образца
    Выход лучшей модели
    Класс при
    δ = ± 0.2
    Класс при
    δ = ± 0.1
    1 0.8757 1 Δ
    2 0.2212 0 Δ
    3 0.9426 1 1
    4 0.0031 0 0
    5 1.0195 1 1
    6 1.0776 1 1
    7 -0.0894 0 0
    8 -0.0503 0 0
    9 0.7327 Δ Δ
    10 0.8418 1 Δ
    11 -0.1193 0 Δ
    12 1.0399 1 1
    13 0.9849 1 1
    14 -0.0503 0 0
    15 0.2522 Δ Δ
    16 1.0994 1 1

    View Slide

  21. 02.06.2010 21
    ™ В результате настоящей работы исследована возможность
    применения аппарата вероятностных нейронных сетей и
    персептрона для контроля потери связи НС КИС с ЦУП. На
    основе выполненных экспериментов показано преимущество
    однослойного персептрона над вероятностной сетью при
    решении данной задачи.
    ™ На примере задачи диагностики биологических систем показана
    эффективность алгоритма МГУА для классификации степени
    заболевания.

    View Slide

  22. View Slide