Метод группового учета аргументов

F2cd01da431a9d14801538d75e6f8931?s=47 vero4ka
November 30, 2009

Метод группового учета аргументов

F2cd01da431a9d14801538d75e6f8931?s=128

vero4ka

November 30, 2009
Tweet

Transcript

  1. Метод группового учета аргументов Мажуга Вера НП-502

  2. 1.12.2009 2 Метод группового учета аргументов Метод группового учета аргументов

    (МГУА) восстанавливает зависимость между входными и выходной переменными по выборкам наблюдений. МГУА был предложен Алексеем Григорьевичем Ивахненко в конце 60-х годов и в настоящее время рассматривается как один из разделов прикладного статистического анализа. Ивахненко А.Г. (1913-2007)
  3. 1.12.2009 3 Принцип селекции Многорядный алгоритм МГУА основан на гипотезе

    селекции, используемой в агротехнической практике. Принцип селекции в биологии обеспечивает постепенное изменение вида, генетически обусловленное и адекватное внешнему миру.
  4. 1.12.2009 4 МГУА как эквивалент массовой селекции

  5. 1.12.2009 5 Схема многорядного алгоритма П – пороговый отбор F

    лучших моделей, А – алгоритм попарной обработки аргументов
  6. 1.12.2009 6 Описание алгоритма МГУА Пусть имеется N прецедентов (образцов),

    каждый из которых характеризуется вектором признаков и номером класса Функция, аппроксимирующая зависимость выходной величины от входных переменных называется «полным описанием объекта» и представляется в виде полинома:
  7. 1.12.2009 7 Описание алгоритма МГУА На первом ряду алгоритма на

    основе исходных данных строятся частные описания от всех парных комбинаций исходных аргументов: – входной вектор; – вектор полиномиальных коэффициентов. Уравнения для «частных» описаний первого ряда имеют вид:
  8. 1.12.2009 8 Описание алгоритма МГУА Полиномиальные коэффициенты для каждого частного

    описания определяются по методу наименьших квадратов на образцах из обучающей выборки: где – целевой вектор желаемых выходов, соответствующий образцам из обучающей выборки.
  9. 1.12.2009 9 Описание алгоритма МГУА Для всех частных моделей на

    каждом ряду r алгоритма вычисляются ошибки, составляющие отклонение выхода полученной функции от значений эталонного вектора: Ошибку ряда составляет наименьшая ошибка по всем частным моделям:
  10. 1.12.2009 10 График изменения среднеквадратических ошибок с увеличением числа рядов

    1 – ошибка на точках проверочной выборки имеет минимум, который можно использовать для выбора оптимальной модели; 2 – ошибка на проверочной выборке падает до нуля.
  11. 1.12.2009 11 Примеры фаций с различными степенями заболевания

  12. 12 Таблица исходных данных Класс болезни x 1 x 2

    x 3 x 4 x 5 x 6 Обучающая выборка: High 1.926 0.981 0.525 0.868 16741.111 141059.476 Normal 0.618 0.820 0.775 0.814 5220.540 83132.962 High 0.454 0.442 0.975 0.802 39688.242 105460.980 Normal 0.279 0.856 0.350 0.870 3234.801 114920.842 High 1.125 2.176 0.525 0.907 21175.462 86829.661 High 0.439 5.538 0.100 0.261 28330.527 98336.349 Normal 0.374 2.497 0.150 0.308 3398.417 102013.717 Normal 1.881 2.699 0.700 0.833 2766.696 108541.311 Проверочная выборка: High 0.294 2.828 0.125 0.205 12712.210 102701.833 High 0.588 1.362 0.450 0.847 15603.374 106746.860 Normal 0.048 4.990 0.025 0.100 4215.215 112105.498 High 1.498 1.998 0.750 0.652 29931.637 101425.870 High 0.595 1.479 0.425 0.637 19068.337 88993.962 Normal 1.881 2.699 0.700 0.833 2766.696 108541.311 Normal 0.372 0.419 0.900 0.868 5329.819 113556.868 High 0.291 4.070 0.075 0.374 20068.053 96634.728
  13. 1.12.2009 13 Схема выбора лучших моделей Наращивание рядов селекции было

    прекращено по достижении минимума ошибки: Наименьшую среднеквадратическую ошибку показала первая модель второго ряда.
  14. 1.12.2009 14 Результирующий полином Полученная модель МГУА может быть представлена

    следующим полиномом от трех переменных:
  15. 15 Результаты настройки МГУА Номер образца Выход лучшей модели Класс

    при δ = ± 0.2 Класс при δ = ± 0.1 1 0.8757 1 Δ 2 0.2212 0 Δ 3 0.9426 1 1 4 0.0031 0 0 5 1.0195 1 1 6 1.0776 1 1 7 -0.0894 0 0 8 -0.0503 0 0 9 0.7327 Δ Δ 10 0.8418 1 Δ 11 -0.1193 0 Δ 12 1.0399 1 1 13 0.9849 1 1 14 -0.0503 0 0 15 0.2522 Δ Δ 16 1.0994 1 1
  16. Спасибо за внимание.