Е. Миркес - Учебное пособие по курсу «Нейроинформатика»

Тут можно читать онлайн Е. Миркес - Учебное пособие по курсу «Нейроинформатика» - бесплатно полную версию книги (целиком) без сокращений. Жанр: comp-programming, издательство КРАСНОЯРСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ, год 2002. Здесь Вы можете читать полную версию (весь текст) онлайн без регистрации и SMS на сайте лучшей интернет библиотеки ЛибКинг или прочесть краткое содержание (суть), предисловие и аннотацию. Так же сможете купить и скачать торрент в электронном формате fb2, найти и слушать аудиокнигу на русском языке или узнать сколько частей в серии и всего страниц в публикации. Читателям доступно смотреть обложку, картинки, описание и отзывы (комментарии) о произведении.
  • Название:
    Учебное пособие по курсу «Нейроинформатика»
  • Автор:
  • Жанр:
  • Издательство:
    КРАСНОЯРСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ
  • Год:
    2002
  • Город:
    Красноярск
  • ISBN:
    нет данных
  • Рейтинг:
    4.22/5. Голосов: 91
  • Избранное:
    Добавить в избранное
  • Отзывы:
  • Ваша оценка:
    • 80
    • 1
    • 2
    • 3
    • 4
    • 5

Е. Миркес - Учебное пособие по курсу «Нейроинформатика» краткое содержание

Учебное пособие по курсу «Нейроинформатика» - описание и краткое содержание, автор Е. Миркес, читайте бесплатно онлайн на сайте электронной библиотеки LibKing.Ru

Данное учебное пособие подготовлено на основе курса лекций по дисциплине «Нейроинформатика», читавшегося с 1994 года на факультете Информатики и вычислительной техники Красноярского государственного технического университета.

Несколько слов о структуре пособия. Далее во введении приведены учебный план по данному курсу, задания на лабораторные работы. Следующие главы содержат одну или несколько лекций. Материал, приведенный в главах, несколько шире того, что обычно дается на лекциях. В приложения вынесены описания программ, используемых в данном курсе (Clab и Нейроучебник), и проект стандарта нейрокомпьютера, включающий в себя два уровня — уровень запросов компонентов универсального нейрокомпьютера и уровень языков описания отдельных компонентов нейрокомпьютера.

Данное пособие является электронным и включает в себя программы, необходимые для выполнения лабораторных работ.

Учебное пособие по курсу «Нейроинформатика» - читать онлайн бесплатно полную версию (весь текст целиком)

Учебное пособие по курсу «Нейроинформатика» - читать книгу онлайн бесплатно, автор Е. Миркес
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

1. ( x i, v i ) = ς ij ; ς ij = 0, при i ≠ j ; ς ij= 1 при i = j;

2. v jL ({ x i }).

Преобразование

является ортогональным проектором на линейное пространство L ({ x i }).

Ортогональная сеть ассоциативной памяти преобразует образы по формуле

(6)

Дуальное множество векторов существует тогда и только тогда, когда множество векторов { x i } линейно независимо. Если множество эталонов { x i } линейно зависимо, то исключим из него линейно зависимые образы и будем рассматривать полученное усеченное множество эталонов как основу для построения дуального множества и преобразования (6). Образы, исключенные из исходного множества эталонов, будут по-прежнему сохраняться сетью в исходном виде (преобразовываться в самих себя). Действительно, пусть эталон x является линейно зависимым от остальных m эталонов. Тогда его можно представить в виде

Подставив полученное выражение в преобразование (6) и учитывая свойства дуального множества получим:

(7)

Рассмотрим свойства сети (6) [67]. Во-первых, количество запоминаемых и точно воспроизводимых эталонов не зависит от степени их коррелированности. Во-вторых, формально сеть способна работать без искажений при любом возможном числе эталонов (всего их может быть до 2 n ). Однако, если число линейно независимых эталонов (т. е. ранг множества эталонов) равно n , сеть становится прозрачной — какой бы образ не предъявили на ее вход, на выходе окажется тот же образ. Действительно, как было показано в (7), все образы, линейно зависимые от эталонов, преобразуются проективной частью преобразования (6) сами в себя. Значит, если в множестве эталонов есть n линейно независимых, то любой образ можно представить в виде линейной комбинации эталонов (точнее n линейно независимых эталонов), а проективная часть преобразования (6) в силу формулы (7) переводит любую линейную комбинацию эталонов в саму себя.

Если число линейно независимых эталонов меньше n , то сеть преобразует поступающий образ, отфильтровывая помехи, ортогональные всем эталонам.

Отметим, что результаты работы сетей (3) и (6) эквивалентны, если все эталоны попарно ортогональны.

Остановимся несколько подробнее на алгоритме вычисления дуального множества векторов. Обозначим через Γ({ x i }) матрицу Грама множества векторов { x i }.

Элементы матрицы Грама имеют вид γ ij = ( x i, x j ) ( ij- ый элемент матрицы Грама равен скалярному произведению i- го эталона на j- ый). Известно, что векторы дуального множества можно записать в следующем виде:

(8)

где γ ij -1 — элемент матрицы Γ -1({ x i }). Поскольку определитель матрицы Грама равен нулю, если множество векторов линейно зависимо, то матрица, обратная к матрице Грама, а следовательно и дуальное множество векторов существует только тогда, когда множество эталонов линейно независимо.

Для работ сети (6) необходимо хранить эталоны и матрицу Γ -1({ x i }).

Рассмотрим процедуру добавления нового эталона к сети (6). Эта операция часто называется дообучением сети. Важным критерием оценки алгоритма формирования сети является соотношение вычислительных затрат на обучение и дообучение. Затраты на дообучение не должны зависеть от числа освоенных ранее эталонов.

Для сетей Хопфилда это, очевидно, выполняется — добавление еще одного эталона сводится к прибавлению к функции H одного слагаемого ( x, x m +1)², а модификация связей в сети — состоит в прибавлении к весу ij- й связи числа x i m +1 x j m +1— всего n ² операций.

Для рассматриваемых сетей с ортогональным проектированием также возможно простое дообучение. На первый взгляд, это может показаться странным — если добавляемый эталон линейно независим от старых эталонов, то, вообще говоря, необходимо пересчитать матрицу Грама и обратить ее. Однако симметричность матрицы Грама позволяет не производить заново процедуру обращения всей матрицы. Действительно, обозначим через G m — матрицу Грама для множества из m векторов; через E m — единичную матрицу размерности m×m. При обращении матриц методом Гаусса используется следующая процедура:

1 .Запишем матрицу размерности m ×2 m следующего вида: ( G m | E m ).

2. Используя операции сложения строк и умножения строки на ненулевое число преобразуем левую квадратную подматрицу к единичной. В результате получим ( E m | G m -1). Пусть известна G m -1 — обратная к матрице Грама для множества из m векторов x i . Добавим к этому множеству вектор x m +1. Тогда матрица для обращения матрицы G m+1 методом Гауса будет иметь вид:

После приведения к единичной матрице главного минора ранга m получится следующая матрица:

где b i — неизвестные величины, полученные в ходе приведения главного минора к единичной матрице. Для завершения обращения матрицы G m+1 необходимо привести к нулевому виду первые m элементов последней строки и ( m +1)-го столбца. Для обращения в ноль i- го элемента последней строки необходимо умножить i- ю строку на ( x, x m +1) и вычесть из последней строки. После проведения этого преобразования получим

где , .

b 0= 0 только если новый эталон является линейной комбинацией первых m эталонов. Следовательно b 0≠ 0. Для завершения обращения необходимо разделить последнюю строку на b 0и затем вычесть из всех предыдущих строк последнюю, умноженную на соответствующее номеру строки b i . В результате получим следующую матрицу

где F ij = G mij -1- b ic j / b 0. Поскольку матрица, обратная к симметричной, всегда симметрична получаем c i / b 0= - b i / b 0при всех i . Так как b 0≠ 0 следовательно b i= -c i .

Обозначим через dвектор (( x 1, x m +1), …, ( x m , x m +1)), через b— вектор ( b 1, …, b m ). Используя эти обозначения можно записать b= G m -1 d, b 0= ( x m +1, x m +1)-( d, b), b 0= ( x m +1, x m +1)-( d, b). Матрица G m+1 -1записывается в виде

Таким образом, при добавлении нового эталона требуется произвести следующие операции:

1. Вычислить вектор d( m скалярных произведений — mn операций, mnn ²).

2. Вычислить вектор b(умножение вектора на матрицу — m ² операций).

3. Вычислить b 0(два скалярных произведения — m + n операций).

4. Умножить матрицу на число и добавить тензорное произведение вектора bна себя (2 m ² операций).

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать


Е. Миркес читать все книги автора по порядку

Е. Миркес - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки LibKing.




Учебное пособие по курсу «Нейроинформатика» отзывы


Отзывы читателей о книге Учебное пособие по курсу «Нейроинформатика», автор: Е. Миркес. Читайте комментарии и мнения людей о произведении.


Понравилась книга? Поделитесь впечатлениями - оставьте Ваш отзыв или расскажите друзьям

Напишите свой комментарий
x