Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Метод группового учета аргументов

Метод группового учета аргументов

cansadadeserfeliz

November 30, 2009
Tweet

More Decks by cansadadeserfeliz

Other Decks in Science

Transcript

  1. 1.12.2009 2 Метод группового учета аргументов Метод группового учета аргументов

    (МГУА) восстанавливает зависимость между входными и выходной переменными по выборкам наблюдений. МГУА был предложен Алексеем Григорьевичем Ивахненко в конце 60-х годов и в настоящее время рассматривается как один из разделов прикладного статистического анализа. Ивахненко А.Г. (1913-2007)
  2. 1.12.2009 3 Принцип селекции Многорядный алгоритм МГУА основан на гипотезе

    селекции, используемой в агротехнической практике. Принцип селекции в биологии обеспечивает постепенное изменение вида, генетически обусловленное и адекватное внешнему миру.
  3. 1.12.2009 5 Схема многорядного алгоритма П – пороговый отбор F

    лучших моделей, А – алгоритм попарной обработки аргументов
  4. 1.12.2009 6 Описание алгоритма МГУА Пусть имеется N прецедентов (образцов),

    каждый из которых характеризуется вектором признаков и номером класса Функция, аппроксимирующая зависимость выходной величины от входных переменных называется «полным описанием объекта» и представляется в виде полинома:
  5. 1.12.2009 7 Описание алгоритма МГУА На первом ряду алгоритма на

    основе исходных данных строятся частные описания от всех парных комбинаций исходных аргументов: – входной вектор; – вектор полиномиальных коэффициентов. Уравнения для «частных» описаний первого ряда имеют вид:
  6. 1.12.2009 8 Описание алгоритма МГУА Полиномиальные коэффициенты для каждого частного

    описания определяются по методу наименьших квадратов на образцах из обучающей выборки: где – целевой вектор желаемых выходов, соответствующий образцам из обучающей выборки.
  7. 1.12.2009 9 Описание алгоритма МГУА Для всех частных моделей на

    каждом ряду r алгоритма вычисляются ошибки, составляющие отклонение выхода полученной функции от значений эталонного вектора: Ошибку ряда составляет наименьшая ошибка по всем частным моделям:
  8. 1.12.2009 10 График изменения среднеквадратических ошибок с увеличением числа рядов

    1 – ошибка на точках проверочной выборки имеет минимум, который можно использовать для выбора оптимальной модели; 2 – ошибка на проверочной выборке падает до нуля.
  9. 12 Таблица исходных данных Класс болезни x 1 x 2

    x 3 x 4 x 5 x 6 Обучающая выборка: High 1.926 0.981 0.525 0.868 16741.111 141059.476 Normal 0.618 0.820 0.775 0.814 5220.540 83132.962 High 0.454 0.442 0.975 0.802 39688.242 105460.980 Normal 0.279 0.856 0.350 0.870 3234.801 114920.842 High 1.125 2.176 0.525 0.907 21175.462 86829.661 High 0.439 5.538 0.100 0.261 28330.527 98336.349 Normal 0.374 2.497 0.150 0.308 3398.417 102013.717 Normal 1.881 2.699 0.700 0.833 2766.696 108541.311 Проверочная выборка: High 0.294 2.828 0.125 0.205 12712.210 102701.833 High 0.588 1.362 0.450 0.847 15603.374 106746.860 Normal 0.048 4.990 0.025 0.100 4215.215 112105.498 High 1.498 1.998 0.750 0.652 29931.637 101425.870 High 0.595 1.479 0.425 0.637 19068.337 88993.962 Normal 1.881 2.699 0.700 0.833 2766.696 108541.311 Normal 0.372 0.419 0.900 0.868 5329.819 113556.868 High 0.291 4.070 0.075 0.374 20068.053 96634.728
  10. 1.12.2009 13 Схема выбора лучших моделей Наращивание рядов селекции было

    прекращено по достижении минимума ошибки: Наименьшую среднеквадратическую ошибку показала первая модель второго ряда.
  11. 15 Результаты настройки МГУА Номер образца Выход лучшей модели Класс

    при δ = ± 0.2 Класс при δ = ± 0.1 1 0.8757 1 Δ 2 0.2212 0 Δ 3 0.9426 1 1 4 0.0031 0 0 5 1.0195 1 1 6 1.0776 1 1 7 -0.0894 0 0 8 -0.0503 0 0 9 0.7327 Δ Δ 10 0.8418 1 Δ 11 -0.1193 0 Δ 12 1.0399 1 1 13 0.9849 1 1 14 -0.0503 0 0 15 0.2522 Δ Δ 16 1.0994 1 1