Е. Миркес - Учебное пособие по курсу «Нейроинформатика»

Тут можно читать онлайн Е. Миркес - Учебное пособие по курсу «Нейроинформатика» - бесплатно полную версию книги (целиком) без сокращений. Жанр: comp-programming, издательство КРАСНОЯРСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ, год 2002. Здесь Вы можете читать полную версию (весь текст) онлайн без регистрации и SMS на сайте лучшей интернет библиотеки ЛибКинг или прочесть краткое содержание (суть), предисловие и аннотацию. Так же сможете купить и скачать торрент в электронном формате fb2, найти и слушать аудиокнигу на русском языке или узнать сколько частей в серии и всего страниц в публикации. Читателям доступно смотреть обложку, картинки, описание и отзывы (комментарии) о произведении.
  • Название:
    Учебное пособие по курсу «Нейроинформатика»
  • Автор:
  • Жанр:
  • Издательство:
    КРАСНОЯРСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ
  • Год:
    2002
  • Город:
    Красноярск
  • ISBN:
    нет данных
  • Рейтинг:
    4.22/5. Голосов: 91
  • Избранное:
    Добавить в избранное
  • Отзывы:
  • Ваша оценка:
    • 80
    • 1
    • 2
    • 3
    • 4
    • 5

Е. Миркес - Учебное пособие по курсу «Нейроинформатика» краткое содержание

Учебное пособие по курсу «Нейроинформатика» - описание и краткое содержание, автор Е. Миркес, читайте бесплатно онлайн на сайте электронной библиотеки LibKing.Ru

Данное учебное пособие подготовлено на основе курса лекций по дисциплине «Нейроинформатика», читавшегося с 1994 года на факультете Информатики и вычислительной техники Красноярского государственного технического университета.

Несколько слов о структуре пособия. Далее во введении приведены учебный план по данному курсу, задания на лабораторные работы. Следующие главы содержат одну или несколько лекций. Материал, приведенный в главах, несколько шире того, что обычно дается на лекциях. В приложения вынесены описания программ, используемых в данном курсе (Clab и Нейроучебник), и проект стандарта нейрокомпьютера, включающий в себя два уровня — уровень запросов компонентов универсального нейрокомпьютера и уровень языков описания отдельных компонентов нейрокомпьютера.

Данное пособие является электронным и включает в себя программы, необходимые для выполнения лабораторных работ.

Учебное пособие по курсу «Нейроинформатика» - читать онлайн бесплатно полную версию (весь текст целиком)

Учебное пособие по курсу «Нейроинформатика» - читать книгу онлайн бесплатно, автор Е. Миркес
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Используя выражение для энергии, можно записать систему уравнений, описывающих функционирование сети Хопфилда [312]:

(1)

Сеть Хопфилда в виде (1) является сетью с непрерывным временем. Это, быть может, и удобно для некоторых вариантов аналоговой реализации, но для цифровых компьютеров лучше воспользоваться сетями, функционирующими в дискретном времени — шаг за шагом.

Построим сеть Хопфилда [312] с дискретным временем. Сеть должна осуществлять преобразование входного вектора x так, чтобы выходной вектор x' был ближе к тому эталону, который является правильным ответом. Преобразование сети будем искать в следующем виде:

(2)

где w i — вес i- го эталона, характеризующий его близость к вектору x , Sign — нелинейный оператор, переводящий вектор с координатами yi в вектор с координатами sign( yi ).

Функционирование сети

Сеть работает следующим образом:

1. На вход сети подается образ x , а на выходе снимается образ x' .

2. Если x' ≠ x , то полагаем x = x' и возвращаемся к шагу 1.

3. Полученный вектор x' является ответом.

Таким образом, ответ всегда является неподвижной точкой преобразования сети (2) и именно это условие (неизменность при обработке образа сетью) и является условием остановки.

Пусть j * — номер эталона, ближайшего к образу x . Тогда, если выбрать веса пропорционально близости эталонов к исходному образу x , то следует ожидать, что образ x' будет ближе к эталону x i ′, чем x , а после нескольких итераций он станет совпадать с эталоном x i ′.

Наиболее простой сетью вида (2) является дискретный вариант сети Хопфилда [312] с весами равными скалярному произведению эталонов на предъявляемый образ:

(3)

Рис. 1. а, б, в — эталоны, г — ответ сети на предъявление любого эталона

О сетях Хопфилда (3) известно [53, 231, 247, 312], что они способны запомнить и точно воспроизвести «порядка 0.14 n слабо коррелированных образов». В этом высказывании содержится два ограничения:

• число эталонов не превосходит 0.14 n .

• эталоны слабо коррелированны.

Наиболее существенным является второе ограничение, поскольку образы, которые сеть должна обрабатывать, часто очень похожи. Примером могут служить буквы латинского алфавита. При обучении сети Хопфилда (3) распознаванию трех первых букв (см. рис. 1 а, б, в), при предъявлении на вход сети любого их эталонов в качестве ответа получается образ, приведенный на рис. 1 г (все образы брались в рамке 10 на 10 точек).

В связи с такими примерами первый вопрос о качестве работы сети ассоциативной памяти звучит тривиально: будет ли сеть правильно обрабатывать сами эталонные образы (т. е. не искажать их)?

Мерой коррелированности образов будем называть следующую величину:

Зависимость работы сети Хопфилда от степени коррелированности образов можно легко продемонстрировать на следующем примере. Пусть даны три эталона x 1, x 2, x 3таких, что

(4)

Для любой координаты существует одна из четырех возможностей:

В первом случае при предъявлении сети q- го эталона в силу формулы (3) получаем

так как все скалярные произведения положительны по условию (4). Аналогично получаем в четвертом случае x' j = -1.

Во втором случае рассмотрим отдельно три варианта

так как скалярный квадрат любого образа равен n , а сумма двух любых скалярных произведений эталонов больше n , по условию (4). Таким образом, независимо от предъявленного эталона получаем x' j = 1. Аналогично в третьем случае получаем x' j = -1.

Окончательный вывод таков: если эталоны удовлетворяют условиям (4), то при предъявлении любого эталона на выходе всегда будет один образ. Этот образ может быть эталоном или «химерой», составленной, чаще всего, из узнаваемых фрагментов различных эталонов (примером «химеры» может служить образ, приведенный на рис. 1 г). Рассмотренный ранее пример с буквами детально иллюстрирует такую ситуацию.

Приведенные выше соображения позволяют сформулировать требование, детализирующие понятие «слабо коррелированных образов». Для правильного распознавания всех эталонов достаточно (но не необходимо) потребовать, чтобы выполнялось следующее неравенство

Более простое и наглядное, хотя и более сильное условие можно записать в виде

Из этих условий видно, что, чем больше задано эталонов, тем более жесткие требования предъявляются к степени их коррелированности, тем ближе они должны быть к ортогональным.

Рассмотрим преобразование (3) как суперпозицию двух преобразований:

(5)

Обозначим через

— линейное пространство, натянутое на множество эталонов. Тогда первое преобразование в (5) переводит векторы из R n в L ({ x i }). Второе преобразование в (5) переводит результат первого преобразования Px в одну из вершин гиперкуба образов. Легко показать, что второе преобразование в (5) переводит точку Px в ближайшую вершину гиперкуба. Действительно, пусть a и b две различные вершины гиперкуба такие, что a — ближайшая к Px , а b = x'.

Из того, что a и b различны следует, что существует множество индексов, в которых координаты векторов a и b различны. Обозначим это множество через I = { i : a i= -b i }. Из второго преобразования в (5) и того, что b = x' , следует, что знаки координат вектора Px всегда совпадают со знаками соответствующих координат вектора b . Учитывая различие знаков i- х координат векторов a и Px при iI можно записать | a i -( Px ) i | = | a i |+|( Px ) i | = 1+|( Px ) i |. Совпадение знаков i- х координат векторов b и Px при iI позволяет записать следующее неравенство | b i -( Px ) i | = || b i |-|( Px ) i | < 1+|( Px ) i |. Сравним расстояния от вершин a и b до точки Px

Полученное неравенство противоречит тому, что a — ближайшая к Px . Таким образом, доказано, что второе преобразование в (5) переводит точку Px в ближайшую вершину гиперкуба образов.

Ортогональные сети

Для обеспечения правильного воспроизведения эталонов вне зависимости от степени их коррелированности достаточно потребовать, чтобы первое преобразование в (5) было таким, что x i= Px i [67]. Очевидно, что если проектор является ортогональным, то это требование выполняется, поскольку x = Px при xL ({ x i }), а x jL ({ x i }) по определению множества L ({ x i }).

Для обеспечения ортогональности проектора воспользуемся дуальным множеством векторов. Множество векторов V ({ x i }) называется дуальным к множеству векторов { x i }, если все векторы этого множества v j удовлетворяют следующим требованиям:

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать


Е. Миркес читать все книги автора по порядку

Е. Миркес - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки LibKing.




Учебное пособие по курсу «Нейроинформатика» отзывы


Отзывы читателей о книге Учебное пособие по курсу «Нейроинформатика», автор: Е. Миркес. Читайте комментарии и мнения людей о произведении.


Понравилась книга? Поделитесь впечатлениями - оставьте Ваш отзыв или расскажите друзьям

Напишите свой комментарий
x