Главная Назад


Авторизация
Идентификатор пользователя / читателя
Пароль (для удалённых пользователей)
 

Вид поиска

Область поиска
в найденном
Найдено в других БД
Формат представления найденных документов:
библиографическое описаниекраткийполный
Отсортировать найденные документы по:
авторузаглавиюгоду изданиятипу документа
Поисковый запрос: (<.>S=МНОГОСЛОЙНЫЕ СЕТИ<.>)
Общее количество найденных документов : 70
Показаны документы с 1 по 20
 1-20    21-40   41-60   61-70 
1.
РЖ ВИНИТИ 34 (BI38) 95.01-04А3.083

    Corwin, Edward M.

    An iterative method for training multilayer networks with threshold functions [Text] / Edward M. Corwin, Antonette M. Logat, William J. B. Okiham // IEEE Trans. Neural Networks. - 1994. - Vol. 5, N 3. - P507-508 . - ISSN 1045-9227
Перевод заглавия: Итеративный метод обучения многослойных сетей с пороговыми функциями
Аннотация: Проведено сравнительное исследование работы нейронных сетей с прямым распространением с пороговыми и сигмоидальными ф-циями активации. Показано, что у обученной сети, ошибки к-рой малы, малое изменение наклона ф-ции активации вызывает малые изменения выхода. На основании этого факта доказано, что, если существуют веса сети с сигмоидальными нейронами, дающие решение поставленной задачи, то можно построить сеть с пороговыми нейронами, также решающую эту же задачу. С помощью этой процедуры можно строить упрощенные модели, более удобные для аппаратной реализации, если допускается предварительное обучение. США, Dep. of Mathematics and Computer Sci., South Dakota School of Mines and Technology, Rapid City, SD 57701. Библ. 4.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

ОБУЧЕНИЕ

ПОРОГОВЫЕ ФУНКЦИИ АКТИВАЦИИ

СИГМОИДАЛЬНЫЕ ФУНКЦИИ АКТИВАЦИИ


Доп.точки доступа:
Logat, Antonette M.; Okiham, William J.B.


2.
РЖ ВИНИТИ 34 (BI38) 95.01-04А3.092

    Lee, Sukhan.

    Inverse mapping of continuous functions using local and global information [Text] / Sukhan Lee, Rhee M. Kil // IEEE Trans. Neural Networks. - 1994. - Vol. 5, N 3. - P409-423 . - ISSN 1045-9227
Перевод заглавия: Обратное отображение непрерывных функций с использованием глобальной и локальной информации
Аннотация: Рассмотрена задача построения обратной ф-ции для непрерывного отображения с помощью многослойных нейронных сетей с прямым распространением. Предложен метод ее решения, основанный на итеративном изменении входов с обходом локальных минимумов. Изменения основаны на вычислении псевдообратного градиента ф-ции Ляпунова. Вблизи точек минимума используется глобальная информация о ф-ции, с помощью к-рой анализируется динамика траектории приближения к оптимуму и строятся вероятностные оценки. По сравнению с методами, основанными на вычислении якобианов, значительно снижается вычислительная трудоемкость. Приведены результаты, полученные в ходе проведенных испытаний на имитационных моделях. США, Jet Propulsion Lab., California Inst. of Technology, Pasadena, CA 91109. Ил. 10. Библ. 20.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
НЕПРЕРЫВНЫЕ ФУНКЦИИ

ОТОБРАЖЕНИЕ

МНОГОСЛОЙНЫЕ СЕТИ

ПРЯМОЕ РАСПРОСТРАНЕНИЕ


Доп.точки доступа:
Kil, Rhee M.


3.
РЖ ВИНИТИ 34 (BI38) 95.05-04А3.067

    Nadal, Jean-Pierre.

    Nonlinear neurones in the low-noise limit: A factorial code manimizes information transfer [Text] / Jean-Pierre Nadal, Nestor Parge // Network. - 1994. - Vol. 5, N 4. - P549-563
Перевод заглавия: Нелинейные нейроны в пределе низкого шума. Факториальный код максимизирует передачу информации
Аннотация: Рассмотрена задача максимизации передачи информации в простых многослойных нейронных сетях с нелинейными нейронами. Доказано, что при ограниченной ф-ции активации, малом выходном шуме и отсутствии входного шума максимизация передачи информации соответствует факториальному коду. При выполнении определенных дополнительных условий это остается верным и для неограниченных ф-ций активации. Если выходной шум некоррелирован, то результат верен также и с точностью до малого входного шума. Приведена сводка эксперим. данных. Франция, Lab. de Physique. Statistique, Ecole Normale Superieure, 24 rue Lhomond, F-75231, Paris Cedex 05. Ил. 3. Библ. 38.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

НЕЛИНЕЙНЫЕ НЕЙРОНЫ

ПЕРЕДАЧА ИНФОРМАЦИИ

МАКСИМИЗАЦИЯ


Доп.точки доступа:
Parge, Nestor


4.
РЖ ВИНИТИ 34 (BI38) 95.05-04А3.070

    Romaniuk, Steve G.

    Theoretical results for applying neural networks to loseless image compression [Text] / Steve G. Romaniuk // Network. - 1994. - Vol. 5, N 4. - P583-597
Перевод заглавия: Теоретические результаты об использовании нейронных сетей в кодировании изображений без потерь
Аннотация: Изучены нек-рые возможности повышения эффективности многослойных нейронных сетей с обучением на основе обратного распространения в задаче сжатия Из. Предложен оригинальный класс 3-слойных сетей с экспоненциальным ростом емкости за счет увеличения среднего слоя. Приведены примеры, показывающие возможность работы с Из различных типов и сложности. Выбор структуры сети проводится конструктивно; роль эвристических процедур гораздо меньше, чем в распространенных нейросетевых моделях. Требуемое время обучения - n{4}-n{2} (n - линейный размер Из). Приведены результаты опытов, показывающие эффективность сжатия. Сингапур, Dep. of Information Sys. and Computer Sci., Nat. Univ. of Singapore, 10 Kent Ridge Crescent, 011. Ил. 3. Табл. 5. Библ. 19.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
КОДИРОВАНИЕ ИЗОБРАЖЕНИЙ

МНОГОСЛОЙНЫЕ СЕТИ

ОБРАТНОЕ РАСПРОСТРАНЕНИЕ



5.
РЖ ВИНИТИ 34 (BI38) 95.07-04А3.088

    Ito, Yoshifusa.

    Approximation capability of layered neural networks with sigmoid units on two layers [Text] / Yoshifusa Ito // Neural Comput. - 1994. - Vol. 6, N 6. - P1233-1243 . - ISSN 0899-7667
Перевод заглавия: Способность к аппроксимации у многослойных нейронных сетей с сигмоидальными элементами на двух слоях
Аннотация: Представлено элементарное конструктивное доказательство способности 3-слойных нейронных сетей с сигмоидальными элементами на 2-х слоях к аппроксимации непрерывных ф-ций. Точность аппроксимации оценивается в метрике L{2} или по супремуму отклонения. Для заданной ф-ции на единичном кубе при заданной точности аппроксимации получена оценка необходимого числа элементов сети с хевисайдовской ф-цией аппроксимации. Полученные оценки лучше тех, к-рые известны из литературы. Япония, Toyohashi Univ. of Technology, Toyohashi. Библ. 19.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

СИГМОИДАЛЬНЫЕ ЭЛЕМЕНТЫ

АППРОКСИМАЦИЯ



6.
РЖ ВИНИТИ 34 (BI38) 95.09-04А3.126

    Deco, G.

    Unsupervised mutual information criterion for elimination of overtraining in supervised multilayer networks [Text] / G. Deco, W. Finnoff, H. G. Zimmermann // Neural Comput. - 1995. - Vol. 7, N 1. - P86-107 . - ISSN 0899-7667
Перевод заглавия: Критерий взаимной информации без учителя для устранения сверхобучения в многослойных сетях с учителем
Аннотация: Изучены возможности предотвращения сверхобучения в нейронных сетях, применяемых для оценки структуры по малым наборам обучающих данных. Разработана нейросетевая архитектура, позволяющая использовать штрафную функцию с термом, карающим сложность сети. Этот терм соответствует взаимной информации входных образцов и ожидаемых классов. Эффективность предлагаемого подхода в сочетании с обратным распространением была продемонстрирована в ходе выполненных экспериментов по предсказанию временных рядов в экологических задачах. Показано также, что он пригоден для оценки релевантности имеющейся обучающей информации. Германия, Siemens AG, Corp. Res. and Development, 2FE ST SN41, Otto-Hahn-Ring 6, 8000, Munich 83. Ил. 9. Табл. 4. Библ. 29.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
ОБУЧЕНИЕ С УЧИТЕЛЕМ

ОБУЧЕНИЕ БЕЗ УЧИТЕЛЯ

МНОГОСЛОЙНЫЕ СЕТИ

СВЕРХОБУЧЕНИЕ

УСТРАНЕНИЕ


Доп.точки доступа:
Finnoff, W.; Zimmermann, H.G.


7.
РЖ ВИНИТИ 34 (BI38) 95.09-04А3.133

   

    Многослойная нейронная сеть и ее реализация на основе оптического вектор-матричного перемножителя [Текст] / Н. Н. Евтихиев [и др.] // Нейрокомпьютер. - 1994. - N 1-2. - С. 23-30 . - ISSN 0869-5350
Аннотация: Представлено описание мат. модели и обобщенного градиентного алгоритма обучения многослойной нейронной сети первого порядка с последовательными связями. Предлагается реализация сети на основе оптического вектор-матричного перемножителя. Изложены основные проблемы сопряжения мат. моделей нейронных сетей и их оптических реализаций, намечены пути разрешения этих проблем. Ил. 3. Библ. 8.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

РЕАЛИЗАЦИЯ

ОПТИЧЕСКИЙ ВЕКТОР-МАТРИЧНЫЙ ПЕРЕМНОЖИТЕЛЬ


Доп.точки доступа:
Евтихиев, Н.Н.; Оныкий, Б.Н.; Перепелица, В.В.; Щербаков, И.Б.


8.
РЖ ВИНИТИ 34 (BI38) 95.10-04А3.117

    Аведьян, Э. Д.

    Алгоритмы настройки многослойных нейронных сетей [Текст] / Э. Д. Аведьян // Автомат. и телемех. - 1995. - N 4. - С. 106-118 . - ISSN 0005-2310
Аннотация: На основе известного алгоритма обратного распространения ошибки в работе вводятся алгоритм ньютоновского типа и автономные алгоритмы для настройки многослойных нейронных сетей. Алгоритм ньютоновского типа характеризуется большим объемом вычислений, тогда как автономные алгоритмы являются наиболее простыми по сравнению с известными алгоритмами. Отмечается перспектива применения автономным алгоритмов для настройки сетей большой размерности. Россия, Ин-т проблем управления РАН, Москва. Библ. 20.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

АЛГОРИТМЫ НАСТРОЙКИ



9.
РЖ ВИНИТИ 34 (BI38) 95.12-04А3.84

   

    Efficient genetic algorithms for training layered feedforward neural networks [Text] / Byungjoo Yoon [et al.] // Inf. Sci. - 1994. - Vol. 76, N 1-2. - P67-85 . - ISSN 0020-0255
Перевод заглавия: Эффективные генетические алгоритмы для обучения многослойных нейронных сетей с прямым распространением информации
Аннотация: Рассмотрены возможности использования генетических алгоритмов для обучения многослойных нейронных сетей. Показано, что с их помощью достигается повышенная степень адаптации к специфике конкретной задачи. Проведено сравнение различных вариантов генетических алгоритмов и обратного распространения. Приведены результаты проведенных численных экспериментов. Описаны также возможности построения комбинированных методов, сочетающих генетический и градиентный подходы, обеспечивающих повышенное быстродействие и точность. США, Computer Sci. Dep., Florida State Univ., Tallahassee, FL 32300. Ил. 8. Библ. 8
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

ОБУЧЕНИЕ

ГЕНЕТИЧЕСКИЕ АЛГОРИТМЫ


Доп.точки доступа:
Yoon, Byungjoo; Holmes, Dawn J.; Langholz, Gideon; Kandel, Abraham


10.
РЖ ВИНИТИ 34 (BI38) 96.05-04А3.132

    Щербаков, И. Б.

    Aлгоритм с оптимизаций нулевого порядка для обучения многослойных нейронных сетей [Текст] / И. Б. Щербаков // Изв. вузов. Приборостр. - 1995. - Т. 38, N 1-2. - С. 48-52 . - ISSN 0021-3454
Аннотация: Предложен алгоритм обучения многослойных нейронных сетей с последовательными связями, который при реализации на компьютере не требует большой емкости оперативной памяти и по сравнению с традиционными обладает высокой скоростью сходимости. Представлены результаты компьютерных экспериментов, демонстрирующие преимущества предложенного алгоритма
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

ОБУЧЕНИЕ

АЛГОРИТМ



11.
РЖ ВИНИТИ 34 (BI38) 96.08-04А3.303

    Терехов, С. А.

    Многослойная нейронная сеть с рандомизированным обучением: модель и приложения [Текст] : [Докл] Семин.-конф. "Алгоритмы обраб. инф. в нейропод. системах, Москва, сент., 1993 / С. А. Терехов // Изв. вузов. Радиофиз. - 1994. - Т. 37, N 9. - С. 1084-1103 . - ISSN 0021-3462
Аннотация: Рассмотрена рандомизированная схема имитации отжига для обучения многослойной нейронной сети. Исследуются фрактальные свойства обучающих траекторий в фазовом пространстве сети. Предложено управление температурой обучения на основе феноменологических характеристик траектории. Проведено сравнение ошибки обобщения многослойного персептрона и сплайнинтерполяции на задаче прогноза временных рядов. Показано, что для негладких функций, порождающих стохастический временной ряд, нейронная сеть предпочтительнее сплайна при равном числе параметров. Схема обучения применена для построения кибернетической нейросетевой модели явления магнитной кумуляции, а также для классификации отказов в системе охлаждения реактора АЭС. Россия, Российский федеральный ядерный центр, Всероссийский НИИ технической физики, Снежинск. Ил. 6. Табл. 4
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

РАНДОМИЗИРОВАННОЕ ОБУЧЕНИЕ

ФРАКТАЛЬНЫЕ СВОЙСТВА

НЕЙРОСЕТЕВЫЕ МОДЕЛИ

МАГНИТНАЯ КУМУЛЯЦИЯ

СИСТЕМА ОХЛАЖДЕНИЯ РЕАКТОРА АЭС

КЛАССИФИКАЦИЯ ОТКАЗОВ



12.
РЖ ВИНИТИ 34 (BI38) 97.01-04А3.108

    Умнов, Н. А.

    Сравнение алгоритмов RPROP и SCG обучения многослойных нейронных сетей [Текст] / Н. А. Умнов, С. Н. Орлов // Изв. вузов. Приборостр. - 1996. - Т. 39, N 1. - С. 17-22 . - ISSN 0021-3454
Аннотация: Сравниваются метод Rprop и метод масштабируемых сопряженных градиентов (SCG), реализованные в Штуттгартском нейросетевом эмуляторе SNNS. В методе Rprop направление изменения каждого настраиваемого параметра определяется только знаком производной ошибки обучения по этому параметру, а значение изменения зависит от знака производной в текущий и предшествующий моменты времени. Обоими методами персептрон с одним внутренним слоем обучается аппроксимации синтетических скалярных функций двух аргументов до заданного уровня среднеквадратической ошибки MSE с контролем по проверочной выборке. Находится минимальное число внутренних нейтронов, при котором MSE меньше заданного уровня после обучения каждым методом. Методы сравниваются по минимальному числу нейронов, по значению ошибки на проверочной выборке и по времени обучения. Метод SCG при малом числе примеров обучающей выборки иногда вообще не способен обучить НС до требуемого уровня ошибки. При достаточно большом числе обучающих примеров число нейронов и ошибка на проверочной выборке, как правило, несколько меньше, чем у метода Rprop; время обучения на простых обучающих выборках обычно несколько меньше, а на сложных - в несколько раз больше. При совместном использовании методов рекомендуется начинать обучение НС методом Rprop и далее - пробовать улучшить результат методом SCG. Россия, МГУ им. М. В. Ломоносова. Ил. 5. Библ. 6
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

ОБУЧЕНИЕ

АЛГОРИТМЫ

RPROP

SCG


Доп.точки доступа:
Орлов, С.Н.


13.
РЖ ВИНИТИ 34 (BI38) 97.02-04А3.115

    Cook, Norman D.

    Correlations between input and output units in neural networks [Text] / Norman D. Cook // Cogn. Sci. - 1995. - Vol. 19, N 4. - P563-574 . - ISSN 0364-0213
Перевод заглавия: Корреляция между входными и выходными элементами в нейронных сетях
Аннотация: Проведен теоретический анализ корреляции между входными и выходными нейронами многослойной нейронной сети с прямым распространением информации, обучающейся с помощью обратного распространения ошибок. Показано, что эти корреляции тесно связаны с несбалансированностью обучающих образцов. Описана зависимость рецептивных полей от вида обучающих выборок. Предложена оригинальная статистическая процедура для определения качества представленных обучающих образцов. Процедура дает возможность априорной оценки качества работы нейронной сети. Япония, Kansai Univ., Osaka. Ил. 3. Табл. 2. Библ. 10
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

ОБРАТНОЕ РАСПРОСТРАНЕНИЕ ОШИБКИ

ВХОДНЫЕ НЕЙРОНЫ

ВЫХОДНЫЕ НЕЙРОНЫ



14.
РЖ ВИНИТИ 34 (BI38) 97.05-04А3.129

    Галушкин, А. И.

    Итоги развития теории многослойных нейронных сетей (1965-1995 гг.) в работах Научного центра нейрокомпьютеров и ее перспективы [Текст] / А. И. Галушкин // Нейрокомпьютер. - 1996. - N 1-2. - С. 5-38 . - ISSN 0869-5350
Аннотация: Статья представляет собой краткое изложение результатов работ в области синтеза многослойных нейронных сетей, проводимых в течение более 30 лет в соответствии с подходом, основанным на теории адаптивных систем. Ил. 48. Табл. 8. Библ. 41
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

НАУЧНЫЙ ЦЕНТР НЕЙРОКОМПЬЮТЕРОВ

30 ЛЕТ РАБОТЫ

ОБЗОРЫ

БИБЛ. 41



15.
РЖ ВИНИТИ 34 (BI38) 98.03-04А3.99

    Lee, Jeong-Woo.

    Hybrid learning of mapping and its Jacobian in multilayer neural networks [Text] / Jeong-Woo Lee // Neural Comput. - 1997. - Vol. 9, N 5. - P937-958 . - ISSN 0899-7667
Перевод заглавия: Гибридное обучение отображению и его якобиану в многослойных нейронных сетях
Аннотация: Рассмотрена задача обучения нейронных сетей при наличии дополнительной информации о якобиане отображения, которому должна обучиться нейронная сеть. Предложена штрафная функция, учитывающая ошибки самого отображения и его якобиана. Разработан модифицированный вариант метода обратного распространения для такой штрафной функции. Приведена сводка экспериментальных результатов, доказывающая быстродействие и точность обучения с помощью нового метода, а также повышение способности нейронной сети к обобщению обучающей информации. Южная Корея, Machine Control Lab., Dep. of Mechanical Eng., Korea Advanced Institute of Technology, Taejeon. Ил. 9. Библ. 15
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

КАРТИРОВАНИЕ

ЯКОБИАН

ГИБРИДНОЕ ОБУЧЕНИЕ



16.
РЖ ВИНИТИ 34 (BI38) 98.11-04А3.229

    Захаров, И. С.

    О формировании логических топологий в искусственных многослойных нейронных сетях [Текст] : [Докл.] I Междунар. симп. "Биофиз. полей и излучений и биоинформат., Тула, 1996 / И. С. Захаров, В. Н. Лопин // Вестн. нов. мед. технол. - 1996. - Т. 3, N 4. - С. 63
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

ЛОГИЧЕСКИЕ ТОПОЛОГИИ


Доп.точки доступа:
Лопин, В.Н.


17.
РЖ ВИНИТИ 34 (BI38) 99.01-04А3.190

    Kim, Hyo-Gyu.

    Identification and direct adaptive control using neural networks [Text] / Hyo-Gyu Kim, Se-Young Oh // Neural, Parall. and Sci. Comput. - 1998. - Vol. 6, N 1. - P121-142 . - ISSN 1061-5369
Перевод заглавия: Идентификация и прямое адаптивное управление с помощью нейронных сетей
Аннотация: Разработана система идентификации и прямого адаптивного управления с помощью многослойной нейронной сети, предназначенная для работы с нелинейными системами с частично или полностью неизвестными динамическими характеристиками. Доказана сходимость и устойчивость обучения, причем с небольшим числом обучающих образцов. Описаны реализации в изолированном режиме и в составе сложных систем. Представлены результаты испытаний на имитационной модели в задаче скользящего контроля. Южная Корея, Samsung Electronics Co., Ltd, Controller R&D Group, Production Eng. Center, Suwon, 442-742. Ил. 9. Библ. 12
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

ИДЕНТИФИКАЦИЯ

ПРЯМОЕ АДАПТИВНОЕ УПРАВЛЕНИЕ

НЕЛИНЕЙНЫЕ СИСТЕМЫ


Доп.точки доступа:
Oh, Se-Young


18.
РЖ ВИНИТИ 34 (BI38) 99.07-04А3.151

    Yin, T.

    Sensitivity and attenuation compensated training of multilayered networks [Text] / T. Yin, H. A. Babri, D. P. Mital // Neural, Parall. and Sci. Comput. - 1998. - Vol. 6, N 2. - P199-216 . - ISSN 1061-5369
Перевод заглавия: Обучение многослойных сетей с компенсацией чувствительности и затухания
Аннотация: Изучены специфические трудности, связанные с организацией обучения в нейронных сетях, имеющих более одного скрытого слоя. На основании полученных теоретических результатов разработан новый вариант обратного распространения ошибок, более эффективный в случае многих скрытых слоев. Новый метод использует 2 различных режима инициализации и обновления весов синапсов, а также векторные ограничения. Представлены результаты, полученные в ходе проведенных испытаний в задачах, связанных с обработкой информации о реальном мире. Новый метод особенно эффективен при сложном характере сходных данных. Сингапур, School of Electrical and Electronic Eng., Nanyang Technological Univ., Nanyang Ave., 639798. Ил. 6. Табл. 3. Библ. 19
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

ОБУЧЕНИЕ


Доп.точки доступа:
Babri, H.A.; Mital, D.P.


19.
РЖ ВИНИТИ 34 (BI38) 00.03-04А3.99

    Lam, Chi-Hang.

    Formation and dynamics of modules in a dual-tasking multilayer feed -forward neural network [Text] / Chi-Hang Lam, F. G. Shin // Phys. Rev. E. - 1998. - Vol. 58, N 3b. - P3673-3677 . - ISSN 1063-651X
Перевод заглавия: Образование и динамика модулей в многослойной нейронной сети с прямой прогонкой и дуальными заданиями
Аннотация: Рассмотрена динамика многослойной нейронной сети с прямой прогонкой и дуальными заданиями, решающей задачу одновременной аппроксимации 2-х различных независимых функций. Изучен процесс образования 2-х модулей. Изучена связь размеров этих модулей со сложностью аппроксимируемых функций. Показана возможность обобщения полученных результатов на более сложные модульные нейросетевые модели. Разработанная методика исследования пригодна для изучения образования динамических модулей в головном мозге животных. КНР, Dep. of Applied Physics, Hong Kong Polytechnic Univ., Hung Hom, Hong Kong. Ил. 7. Библ. 8
ГРНТИ  
ВИНИТИ 341.53.19.09 + 341.55.19.51
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

МОДУЛИ

ГОЛОВНОЙ МОЗГ

МОДЕЛИРОВАНИЕ


Доп.точки доступа:
Shin, F.G.


20.
РЖ ВИНИТИ 34 (BI38) 00.07-04А3.144

    Koene, Randal A.

    Discriminant component pruning: Regularization and interpretation of multilayered backpropagation networks [Text] / Randal A. Koene, Yoshio Takane // Neural Comput. - 1999. - Vol. 11, N 3. - P783-802 . - ISSN 0899-7667
Перевод заглавия: Дискриминантное уточнение компонент. Регуляризация и интерпретация многослойных сетей с обратным распространением
Аннотация: Рассмотрена задача о нахождении наилучшего соотношения между точностью решения задач классификации и сложностью нейронной сети. Предложен метод уточнения структуры нейронных сетей за счет отбрасывания избыточных элементов, в котором элементы, не вносящие существенного вклада в выходной сигнал, определяются с помощью дискриминантного анализа. Показана связь этой процедуры с регуляризацией. Алгоритм дает возможность одновременно определить наилучший вид функции активации. Кроме того, он позволяет получить достаточно наглядную интерпретацию результатов работы нейронной сети. Канада, Dep. of Physiology, McGill Univ., Montreal, PQ, H3A 1B1. Ил. 11. Библ. 19
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ СЕТИ

ОБРАТНОЕ РАСПРОСТРАНЕНИЕ

ДИСКРИМИНАНТНОЕ УТОЧНЕНИЕ КОМПОНЕНТ


Доп.точки доступа:
Takane, Yoshio


 1-20    21-40   41-60   61-70 
 




© Международная Ассоциация пользователей и разработчиков электронных библиотек и новых информационных технологий
(Ассоциация ЭБНИТ)