В.А. Ляховецкий. Использование искусственных нейронных сетей типа ассоциативная память для изучения памяти человека

09400c0210f32255467b2329260bd205?s=47 Cogito ergo ...
December 14, 2012

В.А. Ляховецкий. Использование искусственных нейронных сетей типа ассоциативная память для изучения памяти человека

Выступление В.А. Ляховецкого с докладом "Использование искусственных нейронных сетей типа ассоциативная память для изучения памяти человека" на семинаре ""Автоматизм инсайта, или Почему удивляются роботы". Тезисы доклада и видео опубликованы на сайте Cogito ergo ... : http://wp.me/p2R6FC-V

09400c0210f32255467b2329260bd205?s=128

Cogito ergo ...

December 14, 2012
Tweet

Transcript

  1. 1.

    Использование искусственных нейронных сетей типа ассоциативная память для изучения памяти

    человека к.т.н., м.н.с. лаб. Физиологии движений ИФ РАН Ляховецкий В.А. e-mail: v_la2002@mail.ru
  2. 2.

    Сети типа ассоциативная память Состоят из формальных нейронов – пороговых

    сумматоров. На вход сетей подается закодированная в числовую форму некоторым образом информация об объектах. Каждый нейрон входного слоя связан с каждым нейроном выходного слоя связью, имеющей некоторый вес. Процесс создания (и обучения) сети заключается в вычислении матрицы связей. Автоассоциативные сети (Хопфилда) – сохраняют информацию об единичных объектах (связывают объект с ним самим). Могут использоваться для того, чтобы восстановить истинную версию объекта по искаженной. Гетероассоциативные сети (Коско) – сохраняют информацию о парах объектов (связывают пары объектов).
  3. 3.

    Гетероассоциативная сеть Сохраняет пары объектов. Может восстановить объект, когда ассоциированный

    с ним объект предлагается ей в качестве подсказки. В сети два слоя элементов — по одному для каждого из объектов пары. Оба слоя соединяются двунаправлен-ными связями, т.е. актив-ность может передаваться по связям в обоих направлениях. Y X W T = (для одной пары объектов) ∑ = i i T i Y X W (для i пар объектов) ∑ + = i i T i X X W 1 (для последовательности) Kosko, 1988
  4. 4.

    Особенности нейронных сетей •распределенное хранение информации (устойчивость к выпадению элементов);

    •параллельные вычисления (рост быстродействия); •возможность обучения (проще формализовать обучение по сравнению с обучением других представлений алгоритмов); •некоторое обобщение запомненного (по зашумленному образцу возможно восстановить верный). ---------------------------------------------------------------------------------- - •Небольшая емкость; •Способность допускать ошибки при воспроизведении; •Способность к быстрому обучению.
  5. 5.

    1) На первый слой подается объект X. 2) Распространяется активность

    на второй слой. Вход элемента второго слоя равен net j = SUM i (x i w ij ) 3) Вычисляется новое состояние для каждого элемента второго слоя.y j = f(net j ) 4) Распространяется активность на первый слой. Вход элемента первого слоя равен net i = SUM j (y j w ji ) 5) Вычисляется новое состояние для каждого элемента первого слоя. x i = f(net i ) Двустороннее распространение сигналов активности повторяется до тех пор, пока не будет достигнуто устойчивое состояние. Число итераций, требуемых для достижения устойчивого состояния, зависит от правильности воспроизведенного объекта (Andersen et al., 1977; Ляховецкий, Потапов, 2012). Динамика ассоциативной сети
  6. 6.

    Заучивание последовательности методика Лист А4 расположен под сенсорным экраном. В

    шести его клетках, выбранных случайным образом, располагаются цифры, по которым экспериментатор последовательно перемещает правую руку испытуемого. Испытуемый, находящийся с завязанными глазами, должен запомнить и немедленно воспроизвести движения руки (Ляховецкий, Боброва, 2009, 2010). Процесс повторяется до полного заучивания последовательности (не менее 7 повторений). 3 6 4 5 1 2
  7. 7.

    Обработка результатов ошибки положения 1 1 Для двух последовательных серий

    движений выделяли одинаковые повторные ошибки по положению (испытуемый дважды неправильно воспроизводил положение руки с расхождением не более, чем на 2 см).
  8. 11.

    Схема работы модели По алгоритму QLBAM (Hattori et al., 1993)

    корректируется матрица весов для тех векторов, которые медленно воспроизводятся сетью.