Главная Назад


Авторизация
Идентификатор пользователя / читателя
Пароль (для удалённых пользователей)
 

Вид поиска

Область поиска
Найдено в других БД
Формат представления найденных документов:
библиографическое описаниекраткийполный
Отсортировать найденные документы по:
авторузаглавиюгоду изданиятипу документа
Поисковый запрос: (<.>A=Phansalkar, V. V.$<.>)
Общее количество найденных документов : 2
Показаны документы с 1 по 2
1.
РЖ ВИНИТИ 34 (BI38) 95.01-04А3.081

    Phansalkar, V. V.

    Analysis of the back-propagation algorithm with momentum [Text] / V. V. Phansalkar, P. S. Sastry // IEEE Trans. Neural Networks. - 1994. - Vol. 5, N 3. - P505-506 . - ISSN 1045-9227
Перевод заглавия: Анализ применения обратного распространения с моментом
Аннотация: Доказано, что у обратного распространения (ОР) с моментом (М) устойчивыми являются только минимумы квадратичной ошибки; остальные точки равновесия неустойчивы. На простом примере показано, что при отрицательном терме М скорость сходимости снижается. Доказано также, что при малом коэф. при терме М ОР с М и обычное ОР ведут себя одинаково в конечном интервале времени, т. е. ОР с М сходится к локальному минимуму при любых начальных значениях из достаточно малых окрестностей. Полученные результаты легко обобщаются на случай нейронных сетей с синаптическими связями высших порядков. Индия, Dep. of Electrical Eng., Indian Institute of Sci., Bangalore 560012. Библ. 5.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
ОБРАТНОЕ РАСПРОСТРАНЕНИЕ С МОМЕНТОМ


Доп.точки доступа:
Sastry, P.S.


2.
РЖ ВИНИТИ 34 (BI38) 96.08-04А3.294

    Phansalkar, V. V.

    Local and global optimization algorithms for generalized learning automata [Text] / V. V. Phansalkar, M. A.L. Thathachar // Neural Comput. - 1995. - Vol. 7, N 5. - P950-973 . - ISSN 0899-7667
Перевод заглавия: Алгоритмы локальной и глобальной оптимизации для обобщенных обучающихся автоматов
Аннотация: Проведен анализ долгосрочного поведения стохастического градиентного алгоритма обучения нейронных сетей REINFORCE (Williams R. J., "Machine Learn.", 1992, 8, 229-256) при работе с обобщенными обучающимися автоматами. Рассмотрен конкретный случай нейронной сети с прямым распространением информации. Показана возможность возникновения неограниченных решений. Для устранения этого недостатка предложен модифицированный вариант, включающий дополнительную процедуру условной оптимизации. Описаны варианты для нахождения локальных и глобальных минимумов. Представлены результаты анализа сходимости. Индия, Dep. of Electrical Eng., Indian Institute of Sci., Bangalor 560012. Ил. 2. Библ. 21
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
ОБОБЩЕННЫЕ ОБУЧАЮЩИЕСЯ АВТОМАТЫ

ЛОКАЛЬНАЯ ОПТИМИЗАЦИЯ

ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ

АЛГОРИТМЫ


Доп.точки доступа:
Thathachar, M.A.L.


 




© Международная Ассоциация пользователей и разработчиков электронных библиотек и новых информационных технологий
(Ассоциация ЭБНИТ)