Главная Назад


Авторизация
Идентификатор пользователя / читателя
Пароль (для удалённых пользователей)
 

Вид поиска

Область поиска
в найденном
Найдено в других БД
Формат представления найденных документов:
библиографическое описаниекраткийполный
Отсортировать найденные документы по:
авторузаглавиюгоду изданиятипу документа
Поисковый запрос: (<.>S=РЕКУРРЕНТНЫЕ СЕТИ<.>)
Общее количество найденных документов : 32
Показаны документы с 1 по 20
 1-20    21-32 
1.
РЖ ВИНИТИ 34 (BI38) 95.01-04А3.084

   

    First-order versus second order single-layer recurrent neural networks [Text] / Mark W. Goudtea [et al.] // IEEE Trans. Neural Networks. - 1994. - Vol. 5, N 3. - P511-513 . - ISSN 1045-9227
Перевод заглавия: Сравнение рекуррентных нейронных сетей со связями первого и второго порядка
Аннотация: Предложена процедура, позволяющая строить нейронные сети со связями 1-го порядка, не уступающие по способностям к классификации сетям со связями 2-го порядка. Процедура основана на расщеплении выбранного выходного нейрона на 2 идентичных. Показано, что после относительно небольшого числа таких операций новая сеть обеспечивает разделение образцов на те же классы, что и исходная сеть 2-го порядка. Приведены примеры, показывающие эффективность описанной процедуры при аппаратной реализации нейросетевых классификаторов. США, NEC Res. Inst., Inc., Princeton, NJ 08540. Ил. 2. Библ. 11.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

СВЯЗИ ПЕРВОГО ПОРЯДКА

СВЯЗИ ВТОРОГО ПОРЯДКА


Доп.точки доступа:
Goudtea, Mark W.; Giles, C.Lee; Chakradhat, Srinat T.; Chen, D.


2.
РЖ ВИНИТИ 34 (BI38) 95.10-04А3.143

    Unnikrishnan, K. P.

    Alopex- A correlation-based learning algorithm for feedforward and recurrent neural networks [Text] / K. P. Unnikrishnan, K. P. Venugopal // Neural Comput. - 1994. - Vol. 6, N 3. - P469-490 . - ISSN 0899-7667
Перевод заглавия: Alopex - алгоритм обучения на основе корреляции для нейронных сетей с прямым распространением и корреляционных нейронных сетей
Аннотация: Предложен алгоритм обучения нейронных сетей (НС) Alorex, в к-ром вместо градиента ошибок используется локальная корреляция между изменениями индивидуальных весов и изменениями глобальной меры ошибок. Алгоритм не зависит от конкретного вида меры ошибок, пригоден для НС с произвольной ф-цией активации и может применяться для обучения как НС с прямым распространением информации, так и рекуррентных НС. Поскольку метод является локальным и синхронизированным, он удобен для параллельной реализации. Выбор т-ры и графика охлаждения - эвристический. Приведены результаты проведенного имитационного моделирования и сравнения с градиантными методами в задаче сложения по модулю 2. США, Computer Sci. Dep., GM Res. Lab., Warren, MI 48090. Ил. 7. Табл. 2. Библ. 48.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
ОБУЧЕНИЕ

СЕТИ С ПРЯМЫМ РАСПРОСТРАНЕНИЕМ

РЕКУРРЕНТНЫЕ СЕТИ

АЛГОРИТМЫ

ALOPEX


Доп.точки доступа:
Venugopal, K.P.


3.
РЖ ВИНИТИ 34 (BI38) 96.11-04А3.160

    Wu, Lizhong.

    A smoothing regularizer for feedforward and recurrent neural networks [Text] / Lizhong Wu, John Moody // Neural Comput. - 1996. - Vol. 8, N 3. - P461-489 . - ISSN 0899-7667
Перевод заглавия: Сглаживающий регуляризатор для нейронных сетей с прямым распространением и рекуррентных нейронных сетей
Аннотация: Предложено в ходе обучения 2-слойных нейронных сетей с рекуррентными связями использовать регуляризирующий терм. Приведено описание модифицированной процедуры обучения. Показано, что регуляризация значительно повышает способность обученной нейронной сети к обобщению обучающей информации. Приведена сводка результатов проведенных испытаний. На основании полученных экспериментальных данных предложен ряд упрощенных вариантов регуляризации. Указаны случаи, когда следует использовать тот или иной вариант. США, Computer Sci. Dep., Oregon Graduate Institute, Portland, OR 97291-1000. Ил. 6. Табл. 4. Библ. 43
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
СГЛАЖИВАЮЩИЙ РЕГУЛЯРИЗАТОР

СЕТИ С ПРЯМЫМ РАСПРОСТРАНЕНИЕМ

РЕКУРРЕНТНЫЕ СЕТИ


Доп.точки доступа:
Moody, John


4.
РЖ ВИНИТИ 34 (BI38) 97.02-04А3.114

    Casey, Mike.

    The dynamics of discrete-time computation, with application to recurrent neural networks and finite state machine extraction [Text] / Mike Casey // Neural Comput. - 1996. - Vol. 8, N 6. - P1135-1178 . - ISSN 0899-7667
Перевод заглавия: Динамика вычислений в дискретном времени с применениями в рекуррентных нейронных сетях и построении конечных автоматов
Аннотация: Проведен анализ способности рекуррентных нейронных сетей разбивать пространство признаков на области, соответствующие классам. Получено унифицированное описание структуры расположения аттракторов. Использованная методика пригодна для произвольных машин с конечным числом состояний, при построении которых не задаются жестко режимы их работы, и дает возможность строить эффективные эволюционирующие системы. В качестве примера практического применения рассмотрена задача построения конечных автоматов. США, Dep. of Mathematics, Univ. of California, San Diego, La Jolla, CA 92093. Ил. 8. Библ. 45
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

ВЫЧИСЛЕНИЯ В ДИСКРЕТНОМ ВРЕМЕНИ

КОНЕЧНЫЕ АВТОМАТЫ

ПОСТРОЕНИЕ



5.
РЖ ВИНИТИ 34 (BI38) 98.04-04А3.104

    Yan, Lilai.

    Hilbert space BFGS based learning algorithm for time-varying recurrent neural networks [Text] / Lilai Yan, C.James Li // Electro' 93 Int. - Ventura (Calif.), 1993. - Vol. 1-3. - P14-19
Перевод заглавия: Алгоритм обучения рекуррентных сетей с изменяющимися во времени параметрами, основанный на методе BFGS в гильбертовом пространстве
Аннотация: Построена новая рекуррентная нейронная сеть с полным набором синаптических связей и возможностью изменения параметров во времени, обучающаяся с помощью метода BFGS в гильбертовом пространстве. Разработан новый метод решения возникающей при этом краевой задачи 2-го порядка. Представлены результаты имитационного моделирования и численных экспериментов на реальных данных в задаче прослеживания траекторий движения объектов. США, Dep. of Mechanical Eng., Columbia Univ., New York, NY 10025. Ил. 5. Библ. 19
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

ОБУЧЕНИЕ

АЛГОРИТМ


Доп.точки доступа:
Li, C.James


6.
РЖ ВИНИТИ 34 (BI38) 98.06-04А3.35

    Amit, Daniel J.

    Dynamics of a recurrent network of Spiking neurons before and following learning [Text] / Daniel J. Amit, Nicolas Brunel // Network: Comput. Neur. Syst. - 1997. - Vol. 8, N 4. - P373-404 . - ISSN 0954-898X
Перевод заглавия: Динамика рекуррентной сети из нейронов со спайковой активностью до и после обучения
Аннотация: Проведен теоретический анализ влияния хеббовского обучения без учителя на динамику реалистичной нейронной сети из нейронов со спайковой активностью с интеграцией заряда и разрядом. Показано, что генерация спайков может быть достаточно точно описана пуассоновским процессом. Вариабельность процесса генерации спайков эффективно контролируется величиной постспайкового потенциала восстановления относительно средней деполяризации клетки. Кросс-корреляции обнаруживают центральный пик около нулевой задержки. Отдельные кросс-корреляции очень слабо зависят от синаптического взаимодействия между парами нейронов. Италия, Ist. di Fisica, Univ. di Roma La Sapienza, Rome. Ил. 10. Табл. 2. Библ. 54
ГРНТИ  
ВИНИТИ 341.55.19.09.13
Рубрики: НЕЙРОННЫЕ СЕТИ
БИОЛОГИЧЕСКИЕ СЕТИ

РЕКУРРЕНТНЫЕ СЕТИ

НЕЙРОНЫ

СПАЙКОВАЯ АКТИВНОСТЬ

ОБУЧЕНИЕ


Доп.точки доступа:
Brunel, Nicolas


7.
РЖ ВИНИТИ 34 (BI38) 99.01-04А3.200

    Brunel, Nicolas.

    Slow stochastic Hebbian learning of classes of stimuli in a recurrent neural network [Text] / Nicolas Brunel, Francesco Carusi, Stefano Fusi // Network: Comput. Neur. Syst. - 1998. - Vol. 9, N 1. - P123-152 . - ISSN 0954-898X
Перевод заглавия: Медленное стохастическое хеббовское обучение классам стимулов в рекуррентной нейронной сети
Аннотация: Исследовано хеббовское обучение без учителя в рекуррентной нейронной сети, в которой синапсы имеют конечное число устойчивых состояний. Каждому классу соответствует кластер в пространстве стимулов. Проведено исследование механизма обучения, при котором образец запоминается только после неоднократного предъявления (медленное стохастическое хеббовское обучение классам стимулов), в зрительной памяти при статических и динамических стимулах. Показано, что в асимптотике матрица синапсов при таком обучении более коррелирована, чем при обычном хеббовском обучении. Кроме того, увеличивается емкость нейронной сети. Описан также механизм забывания. Франция, LPS, Ecole Normale Superieure, 24 rue Lhomond, 75231 Paris Cedex 05. Ил. 7. Табл. 1. Библ. 34
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

МЕДЛЕННОЕ СТОХАСТИЧЕСКОЕ ХЕББОВСКОЕ ОБУЧЕНИЕ

КЛАССЫ СТИМУЛОВ


Доп.точки доступа:
Carusi, Francesco; Fusi, Stefano


8.
РЖ ВИНИТИ 34 (BI38) 99.01-04А3.204

    Back, Andrew D.

    A low-sensityvity recurrent neural network [Text] / Andrew D. Back, Ah Chung Tsoi // Neural Comput. - 1998. - Vol. 10, N 1. - P165-188 . - ISSN 0899-7667
Перевод заглавия: Рекуррентная нейронная сеть с низкой чувствительностью
Аннотация: Рассмотрена задача повышения робастности нейронных сетей относительно малых изменений параметров модели. Разработана новая рекуррентная нейронная сеть, в которой вместо обычных операторов сдвига реализованы оригинальные операторы в дискретном времени. Показано, что за счет этого достигается значительное повышение чувствительности. Получены теоретические оценки робастности описанной модели и подтверждающие их экспериментальные результаты. Япония, Brain Information Processing Group, Frontier Res. Program, The Institute of Physical and Chemical Res. (RIKEN), Saitama 351-01. Ил. 10. Библ. 38
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

НИЗКАЯ ЧУВСТВИТЕЛЬНОСТЬ


Доп.точки доступа:
Tsoi, Ah Chung


9.
РЖ ВИНИТИ 34 (BI38) 99.03-04А3.78

   

    Extended Kalman filter-based pruning method for recurrent neural networks [Text] / John Sum [et al.] // Neural Comput. - 1998. - Vol. 10, N 6. - P1481-1505 . - ISSN 0899-7667
Перевод заглавия: Метод уточнения структуры рекуррентной нейронной сети, основанный на обобщенном фильтре Калмана
Аннотация: Рассмотрена задача снижения ошибки обобщения в некуррентной нейронной сети за счет уточнения ее структуры. Описан метод ее решения, основанный на применении в ходе обучения нейронной сети обобщенного фильтра Калмана. В качестве меры оценки эффективности использована чувствительность апостериорной вероятности. Проведено тестирование метода в 3-х задачах: предсказании простых линейных временных рядов, идентификации нелинейных систем и прогнозировании временных рядов с изменяющимися параметрами. КНР, High Performance Computing Lab., Dep. of Computer Sci. and Eng., Chinese Univ. of Hong Kong, Shatin, N. T. Ил. 9. Табл. 8. Библ. 28
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

УТОЧНЕНИЕ СТРУКТУРЫ

ФИЛЬТР КАЛМАНА


Доп.точки доступа:
Sum, John; Chan, Lai-wan; Leung, Chi-sing; Young, Gilbert H.


10.
РЖ ВИНИТИ 34 (BI38) 99.03-04А3.79

    Casey, Mike.

    Correction to proof that recurrent neural networks can robustly recognize only regular languages [Text] / Mike Casey // Neural Comput. - 1998. - Vol. 10, N 5. - P1067-1069 . - ISSN 0899-7667
Перевод заглавия: Поправка к доказательству того, что рекуррентные нейронные сети могут робастно распознавать только регулярные языки
Аннотация: В предыдущей статье, посвященной анализу динамики вычислений в дискретном времени и сравнению рекуррентных нейронных сетей с конечными автоматами (Casey M. "Newral Comput.", 1996, 8(6), 1135-1178) содержится техническая неточность в доказательстве утверждения о том, что рекуррентные нейронные сети могут робастно распознавать только регулярные языки. Предложен исправленный вариант доказательства. США, Dep. of Psychology, Rutgers Univ., Newark, NJ 07102. Библ. 2
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

РЕГУЛЯРНЫЕ ЯЗЫКИ

РАСПОЗНАВАНИЕ

ИСПРАВЛЕНИЕ К СТАТЬЕ



11.
РЖ ВИНИТИ 34 (BI38) 99.05-04А3.204

    Parga, Nestor.

    Transform-invariant recognition by association in a recurrent network [Text] / Nestor Parga, Edmund Rolls // Neural Comput. - 1998. - Vol. 10, N 6. - P1507-1525 . - ISSN 0899-7667
Перевод заглавия: Распознавание на основе ассоциативных связей в рекуррентной сети, инвариантное относительно преобразований
Аннотация: Предложена модель нейронной сети с большим числом рекуррентных связей, которая позволяет реализовать ассоциативные связи между различными проекциями изображения. Приведено описание структуры разработанной нейронной сети и ее динамики. Проведено теоретическое и экспериментальное исследование различных режимов работы. Представлены конкретные примеры, доказывающие эффективность решения задачи восстановления неизвестного изображения по его проекциям и хранения восстановленных образцов в ассоциативной памяти. Исследовано влияние отдельных параметров нейронной сети на динамику ее работы. Великобритания, Oxford Univ., Dep. of Experimental Psychology, Oxford OX1 3UD. Ил. 5. Табл. 1. Библ. 32
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

РАСПОЗНАВАНИЕ ОБРАЗОВ

ИНВАРИАНТНОСТЬ ОТНОСИТЕЛЬНО ПРЕОБРАЗОВАНИЙ

АССОЦИАТИВНЫЕ СВЯЗИ


Доп.точки доступа:
Rolls, Edmund


12.
РЖ ВИНИТИ 34 (BI38) 99.06-04А3.200

    Bailer-Jones, Coryn A. L.

    A recurrent neural network for modelling dynamical systems [Text] / Coryn A. L. Bailer-Jones, David J. C. MacKay, Philip J. Withers // Network: Comput. Neur. Syst. - 1998. - Vol. 9, N 4. - P531-547 . - ISSN 0954-898X
Перевод заглавия: Рекуррентная нейронная сеть для моделирования динамических систем
Аннотация: Разработана рекуррентная нейросетевая архитектура для моделирования достаточно общего класса динамических систем в реальном мире, в которых изменения внутренних состояний и внешних воздействий производятся в дискретные моменты времени. Реализован механизм обучения на динамических образцах. Проведен анализ динамики этой рекуррентной нейронной сети. Приведен пример ее практического применения в анализе сигналов и принятии решений во время ковки металла. Великобритания, Cavendish Lab., Univ. of Canbridge, Madingley Road, Canbridge, CB3 OHE. Ил. 13. Библ. 15
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

ДИНАМИЧЕСКИЕ СИСТЕМЫ

МОДЕЛИРОВАНИЕ

МЕТАЛЛУРГИЯ


Доп.точки доступа:
MacKay, David J.C.; Withers, Philip J.


13.
РЖ ВИНИТИ 34 (BI38) 00.07-04А3.140

    Gavalda, Ricard.

    Discontinuities in recurrent neural networks [Text] / Ricard Gavalda, Hava T. Siegelmann // Neural Comput. - 1999. - Vol. 11, N 3. - P715-745 . - ISSN 0899-7667
Перевод заглавия: Разрывы в рекуррентных нейронных сетях
Аннотация: Введен класс так называемых арифметических нейронных сетей, в которых используются нетрадиционные виды разрывов функции активации нейронов. Показано, что арифметические нейронные сети способны вычислять произвольно сложные рекурсивные функции даже в случае, когда их веса могут быть только вещественными числами, вычислимыми за полиномиальное время. Описаны классы нейронных сетей, эквивалентные данному классу по своим вычислительным возможностям. Показано, что при использовании периодических функций новый класс вычислительно эквивалентен машинам с массовым параллелизмом. Испания, Dep. of Software, Univ. Politecnica de Catalunya, Barcelona 08034. Ил. 1. Библ. 25
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

РАЗРЫВЫ


Доп.точки доступа:
Siegelmann, Hava T.


14.
РЖ ВИНИТИ 34 (BI38) 03.09-04А3.115

    Wu, Xiangbao.

    Simulating symbolic distance effects in the transitive inference problem [Text] / Xiangbao Wu, William B. Levy // Neurocomputing. - 2001. - Vol. 38-40. - P1603-1610 . - ISSN 0925-2312
Перевод заглавия: Имитационное моделирование влияния символьного расстояния в задаче транзитивного вывода
Аннотация: Предложена нейронная сеть, имитирующая работу гиппокампа, для решения задачи транзитивного вывода. Принцип решения основан на обучении последовательностям. Описана используемая матрица для сравнения последовательностей. США, Health Sys., Univ. of Virginia, PO Box 800420, Neurosurgery, Charlottesville, VA 22908-0420. Ил. 2. Табл. 2. Библ. 15
ГРНТИ  
ВИНИТИ 341.55.19.09.13
Рубрики: НЕЙРОННЫЕ СЕТИ
ПОСЛЕДОВАТЕЛЬНОСТИ

ГИППОКАМП

РЕКУРРЕНТНЫЕ СЕТИ

МЕТРИКИ

МАТЕМАТИЧЕСКИЕ МОДЕЛИ


Доп.точки доступа:
Levy, William B.


15.
РЖ ВИНИТИ 34 (BI38) 03.09-04А3.246

    Jin, Dezhe Z.

    Fast convergence of spike sequences to periodic patterns in recurrent networks [Text] / Dezhe Z. Jin // Phys. Rev. Lett. - 2002. - Vol. 89, N 20. - P208102/1-208102/4 . - ISSN 0031-9007
Перевод заглавия: Быстрая сходимость последовательностей спайков к периодическим образам в рекуррентных сетях
Аннотация: Показано, что устойчивые периодические последовательности спайков с точной синхронизацией являются аттракторами спайковой динамики рекуррентных нейронных сетей с глобальными подавлениями. Почти все спайковые последовательности сходятся внутри конечного числа итераций к этим аттракторам. В условиях сильных глобальных подавлений скорость сходимости очень высока. Описаны возможности использования этого результата для кодирования и обработки информации в биологических нейронных сетях с помощью пространственно-временных последовательностей спайков. США, Howard Hughes Med. Instit., Massachusetts Inst. of technol., Cambridge, MA 12139. Ил. 1. Библ. 10
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

ПОСЛЕДОВАТЕЛЬНОСТИ СПАЙКОВ

СХОДИМОСТЬ К ПЕРИОДИЧЕСКИМ ОБРАЗАМ



16.
РЖ ВИНИТИ 34 (BI38) 89.10-04А3.186

   

    Stochastic learning networks and their electronic implementation [Text] / Joshus Alspector [et al.] // Neural Inf. Proass. Syst. - New York, 1988. - P9-21 . - ISBN 0-88318-569-5
Перевод заглавия: Стохастические обучаемые нейронные сети и их электронная реализация
Аннотация: Описывается семейство алгоритмов обучения, действующих на рекуррентных сетях с симметричными связями, подобных машине Больцмана, при наличии шума. Обучение сетей происходит за счет изменения весов синаптических связей на основе локальной корреляции каждого синапса. Описывается алгоритм обучения с учителем для сети с аналоговыми ф-циями возбуждения. Приводится пример конкурирующего алгоритма обучения без учителя, причем важную роль играют насыщение весов и затухание. Описаны предварительные эксперименты по алгоритму усиленного обучения, в процедуре поиска к-рого использован шум. Это может позволить унифицировать способы обучения. Алгоритмы разрабатывались с учетом простоты их реализации на СБИС. Разработан чип тестирования на КМОП-структурах, позволяющий ускорить обучение в миллион раз по сравнению с эквивалентным моделированием на ЭВМ VAX 11/780. Более высокое быстродействие достигается за счет параллельного аналогового вычисления сумм и произведений весов и возбуждений и за счет использования физ. процессов для генерации случайного шума. На чипе размещены усилитель шума, усилитель нейрона и 300 транзисторных адаптивных синапсов. Все это объединено в сеть из 6 нейронов и 15 синапсов. Разработаны способы уменьшения области электронно коррелированного синапса как на технол. уровне, так и на уровне проектирования. США, Bell Communications Res., Morristown, NJ 07960. Ил. 9. Табл. 2. Библ. 20.
ГРНТИ  
ВИНИТИ 341.53.19
Рубрики: НЕЙРОННЫЕ СЕТИ
ОБУЧЕНИЕ

АЛГОРИТМЫ

РЕКУРРЕНТНЫЕ СЕТИ

СБИС-РЕАЛИЗАЦИЯ


Доп.точки доступа:
Alspector, Joshus; Allen, Robert B.; Hu, Victor; Satyanarayana, Srinagesh


17.
РЖ ВИНИТИ 34 (BI38) 90.11-04А3.212

    Sato, Masa-aki.

    A learning algorithm to teach spatiotemporal patterns to recurrent neural networks [Text] / Masa-aki Sato // Biol. Cybern. - 1990. - Vol. 62, N 3. - P259-263 . - ISSN 0340-1200
Перевод заглавия: Обучающий алгоритм для рекуррентных нейронных сетей в задаче запоминания пространственно-временных образов
Аннотация: Предложен новый алгоритм обучения "с учителем" для общего класса рекуррентных аналоговых нейронных сетей с произвольными обратными связями. При обучении веса связей между нейронами изменяются т. обр., чтобы общая ошибка за период, отмечаемый сигналом "учителя", максимально уменьшилась. Для данного класса сетей предложенный алгоритм аналогичен алгоритму обучения с обратным распространением ошибки в обычных сетях. Япония, ATR Auditory and Visual Perception Research Laboratories, Sanpeidani Inuidani, Seika-cho, Soraku-gun, Kyoto, 619-02J. Библ. 13.
ГРНТИ  
ВИНИТИ 341.53.19
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

ОБУЧЕНИЕ С УЧИТЕЛЕМ



18.
РЖ ВИНИТИ 34 (BI38) 93.05-04А3.191

   

    Volterra-Wiener characterization of a recurrent neural network [Text] / N. Z. Hakim [et al.] // Proc. Annu. Int. Conf. IEEE Eng. Med. and Biol. Soc., Orlando, Fla, Oct. 31- Nov. 3, 1991. - New York (N. Y.), 1991. - Vol. 13. - P1397-1398 . - ISBN 0-7803-0216-8
Перевод заглавия: Характеристики рекурренстных нейронных сетей в терминах Вольтерра-Винера
Аннотация: Проведено исследование возможности описания работы нейронных сетей в терминах теории нелинейных систем Вольтерра-Винера. Предложен метод построения ядра Вольтерра для известной нейронно-сетевой модели. Разработанный метод описаний облегчает исследование таких св-в моделей, как способность к обобщению, вид аппроксимируемых функциональных связей, пригодность различных видов сигмоидных ф-ций активации нейронов. Изучена также задача о реализации конкретного подкласса систем, описываемых рядами Вольтерра. Рассмотрены возможные применения в обработке сигналов. США, Dep. of Elect. Eng., Columbia Univ., New York, NY 10027. Библ. 8.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

ТЕОРИЯ НЕЛИНЕЙНЫХ СИСТЕМ ВОЛЬТЕРРА-ВИНЕРА


Доп.точки доступа:
Hakim, N.Z.; Kaufman, J.J.; Cerf, G.; Meadows, H.E.


19.
РЖ ВИНИТИ 34 (BI38) 94.01-04А3.126

    Rao, Sathyanarayan S.

    A hybrid technique to enhance the performance of recurrent neural networks for time series prediction [Text] / Sathyanarayan S. Rao, Viswanath Ramamurti // IEEE Int. Conf. Neural Networks, San Francisco, Calif., March 29 - Apr. 1, 1993. - Piscataway (N. J.), 1993. - Vol. 1. - P52-57
Перевод заглавия: Гибридный метод улучшения качества работы рекуррентных нейронных сетей для представления последовательностей, зависящих от времени
Аннотация: Проведен анализ работы рекуррентных нейронных сетей, обучаемых в режиме реального времени и применяемых для представления и анализа последовательностей, изменяющихся во времени. Показано, что результаты м. б. неудовлетворительными, если близкие по времени образцы связаны сильно нелинейными соотношениями. Предложена схема устранения этого недостатка, основанная на каскадной корреляции. Кроме того, для ускорения сходимости предложено использовать алгоритм быстрого распространения (Fahlman S. E. "Tech. Rep." CMU-CS-38-162, Carnegie Mellon Univ., School of Computer. Sci., Pittsburgh, PA, 1988). Приведены результаты выполненных экспериментов на моделях, подтверждающие значительное улучшение качества работы за счет этих 2-х модификаций. США, Dep. of Elec. and Computer Eng., Villanova Univ., Villanova, PA19085. Ил. 3. Библ. 15.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
РЕКУРРЕНТНЫЕ СЕТИ

ПОСЛЕДОВАТЕЛЬНОСТИ

ЗАВИСИМОСТЬ ОТ ВРЕМЕНИ

ПРЕДСТАВЛЕНИЕ


Доп.точки доступа:
Ramamurti, Viswanath


20.
РЖ ВИНИТИ 34 (BI38) 94.01-04А3.129

    Uchiyama, Tadasu.

    Solving inverse problems in non-linear PDEs by recurrent neural networks [Text] / Tadasu Uchiyama, Noboru Sonehara // IEEE Int. Conf. Neural Networks, San Francisco, Calif., March 29 - Apr. 1, 1993. - Piscataway (N. J.), 1993. - Vol. 1. - P99-102
Перевод заглавия: Решение обратных задач в нелинейных дифференциальных уравнениях в частных производных с помощью рекуррентных нейронных сетей
Аннотация: Предложен нейросетевой метод решения обратных задач в нелинейных диф. ур-ниях в частных производных. Описаны: используемый метод аппроксимации диф. ур-ний разностными; структура предлагаемой нейронной сети; процедура ее обучения; метод учета граничных условий задачи в параметрах нейронной сети; отображение ур-ния в веса синапсов и пороги нейронов; результаты имитационного моделирования. Представлена сводка эксперим. данных, показывающая быструю сходимость нейронной сети. Рассмотрены возможности аппаратной реализации модели. Япония, Nippon Telegraph and Telephone Corp., NTT, Human Interface Lab., 1-2356 Take, Yokosura-shi, Kanagawa, 238-03. Ил. 5. Библ. 4.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
ОБРАТНЫЕ ЗАДАЧИ

НЕЛИНЕЙНЫЕ ДИФФЕРЕНЦИАЛЬНЫЕ УРАВНЕНИЯ В ЧАСТНЫХ ПРОИЗВОДНЫХ

РЕКУРРЕНТНЫЕ СЕТИ


Доп.точки доступа:
Sonehara, Noboru


 1-20    21-32 
 




© Международная Ассоциация пользователей и разработчиков электронных библиотек и новых информационных технологий
(Ассоциация ЭБНИТ)