Главная Назад


Авторизация
Идентификатор пользователя / читателя
Пароль (для удалённых пользователей)
 

Вид поиска

Область поиска
в найденном
Найдено в других БД
Формат представления найденных документов:
библиографическое описаниекраткий полный
Отсортировать найденные документы по:
авторузаглавиюгоду изданиятипу документа
Поисковый запрос: (<.>S=МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ<.>)
Общее количество найденных документов : 32
Показаны документы с 1 по 20
 1-20    21-32 
1.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 95.01-04А3.080

Автор(ы) : Oh, SongHoon, Lee, Youngik
Заглавие : Effects of nonlinear transformations on correlation between weighted sums in multilayer perceptron
Источник статьи : IEEE Trans. Neural Networks. - 1994. - Vol. 5, N 3. - С. 508-510
Аннотация: Проведен анализ изменений корреляции между 2-мя независимыми распределенными по нормальному закону векторными величинами при выполнении нелинейного преобразования, к-рое можно аппроксимировать кусочно-линейными ф-циями. Получены условия, при выполнении к-рых корреляция уменьшается. Подробно рассмотрен случай, когда в качестве нелинейных преобразований выступают сигмоидальные ф-ции активации нейронов. Полученные результаты можно использовать для анализа информационной избыточности скрытых слоев в нейронных сетях с прямым распространением информации. Приведены результаты эксперим. исследований, подтверждающие сделанные теор. выводы. Южн. Корея, Res. Dep., Electronics and Telecommunications Res. Inst., Daeduk Sci. Town., Daejeon. Ил. 1. Библ. 8.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
НЕЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ
КОРРЕЛЯЦИЯ ВЗВЕШЕННЫХ СУММ
Дата ввода:

2.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 95.01-04А3.082

Автор(ы) : Chiang, Cheng-Chin, Fu, Hsin-Chia
Заглавие : Using multithreshold quadratic sigmoidal neurons to improve classification capability of multilayer perceptron
Источник статьи : IEEE Trans. Neural Networks. - 1994. - Vol. 5, N 3. - С. 516-519
Аннотация: Предложено использовать в многослойных перцептронах ф-цию активации со многими порогами f(net[i], 'ТЭТА'[i]= =1/[1+exp(net{2}[i]-g('ТЭТА'[i], х)), где net[i]=w[i][0]+'СИГМА'w[i][j]х[j], а g('ТЭТА'[i], х)='ТЭТА'[i][0]+'СИГМА''ТЭТА'[i][j]х[j]. Приведены примеры, показывающие, что сети с такими нейронами обладают лучшими способностями к классификации, чем обычные многослойные перцептроны. В проведенных экспериментах гибридные сети, включающие как описанные, так и станд. нейроны, обеспечили точность классификации в 2 раза большую, чем у обычно применяемых многослойных нейронных сетей. КНР, Computer and Communications Lab., ITRI, Chutung, Hsinghua, Taiwan 310. Библ. 6.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
КЛАССИФИКАЦИЯ
СИГМОИДАЛЬНЫЕ НЕЙРОНЫ
Дата ввода:

3.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 95.01-04А3.086

Автор(ы) : Parlos Alexander G., Fernandez, Benito, Atiya Amir F., Muthusami, Jayakamar, Tsai Wei K.
Заглавие : An accelerated learning algorithm for multilayer perceptron networks
Источник статьи : IEEE Trans. Neural Networks. - 1994. - Vol. 5, N 3. - С. 493-497
Аннотация: Предложен адаптивный вариант обратного распространения для обучения многослойных нейронных сетей с прямым распространением. Адаптация обеспечивается внишними силами, изменяющими функциональ общей ошибки. Веса обновляются по правилу w(t+1)=w(t)- 'ро'(Е)(dЕ/dw)/||(dЕ/dw)||{2}. Кроме того, на отдельных шагах используются дополнительные настраивающие параметры. Проведено теор. и эксперим. сравнение с др. вариантами обратного распространения. Приведены результаты, полученные в ходе имитационного моделирования, показывающие значительное увеличение скорости сходимости. США, Dep. of Nuclear Eng., Texas A&M Univ., College Station, TX. Ил. 2. Табл. 3. Библ. 4.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ОБУЧЕНИЕ
АЛГОРИТМ
Дата ввода:

4.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 95.05-04А3.062

Автор(ы) : Anderson Dennis W.
Заглавие : Improving the back propagation algorithm using scaler multiplication : Abstr. Ill. State Acad. Sci. 87th Annu. Meet. "Metab. Environ. Chem. and Cancer", Galesburg, Ill., Oct. 7-8, 1994
Источник статьи : Trans. Ill. State Acad. Sci. - 1994. - Vol. 87, Suppl. - С. 41
Аннотация: Проведены эксперименты по использованию в обучении с помощью обратного распространения счетчиков умножений. Изучены след. нейронные сети со структурой многослойного перцептрона: с числом нейронов 2 + 2 + 2, предназначенная для решения задачи сложения по модулю 2; 4 + 2 + 4; 3 + 3 + 5. Достигнутое увеличение быстродействия составило соответственно 35%, 35%, 37%. Для сети с размерами слоев 10 + 10 + 10 улучшение качества работы за счет нововведения было незначительным. США, Western Illinois Univ., Dep. of Computer Sci., Macomb, IL 61455.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
ОБРАТНОЕ РАСПРОСТРАНЕНИЕ
АЛГОРИТМ
УСОВЕРШЕНСТВОВАНИЕ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
Дата ввода:

5.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 95.08-04А3.120

Автор(ы) : Rognvaldssen, Thorsteinn
Заглавие : On langevin updating in multilayer perceptrons
Источник статьи : Neural Comput. - 1994. - Vol. 6, N 5. - С. 916-926
Аннотация: Показано, что ланжевеновское правило модификации со встроенным шумом в весах синапсов улучшает способность к обучению у нейронных сетей с гессианом с некорректными условиями. Это особенно полезно для многослойных перцептронов со многими скрытыми слоями, у к-рых часто возникает некорректность. Показано также, что сходным эффектом обладает манхэттенское правило модификации. Проведено эксперим. сравнение с др. правилами. Обнаружено, что метод сопряженных градиентов работает значительно хуже. Представлены результаты испытания на имитационных моделях. Швеция, Dep. of Theoretical Physics, Univ. of Lund, Solgatan 14, S-223 62 Lund. Ил. 4. Табл. 2. Библ. 24.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
МОДИФИКАЦИЯ
Дата ввода:

6.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 96.08-04А3.295

Автор(ы) : Lehtokangas, Mikko, Saarinen, Jukka, Kaski, Kimmo, Huuhtanen, Pentti
Заглавие : Initializing weights of a multilayer perceptron network by using the orthogonal least squares algorithm
Источник статьи : Neural Comput. - 1995. - Vol. 7, N 5. - С. 982-999
Аннотация: Описан новый метод инициализации весов многослойных перцептронов, значительно повышающий скорость сходимости при обучении и снижающий вероятность попадания в локальные экстремумы. Метод основан на ортогонализованном варианте алгоритма наименьших квадратов. Приведено подробное описание алгоритма. Представлены результаты, полученные в ходе проведенного имитацинного моделирования, показывающие значительное повышение качества и скорости обучения в типичных случаях. Финляндия, Tampere Univ. of Technology, Microelectronics Lab., P. O. Box 692, FIN-33101, Tampere. Ил. 8. Табл. 1. Библ. 16
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ИНИЦИАЛИЗАЦИЯ ВЕСОВ
ОРТОГОНАЛЬНЫЕ НАИМЕНЬШИЕ КВАДРАТЫ
Дата ввода:

7.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 97.02-04А3.123

Автор(ы) : Pal Sankar K.
Заглавие : Selection of optimal set of weights in a layered network using genetic algorithms
Источник статьи : Inf. Sci. - USA, 1994. - Vol. 80, N 3-4. - С. 213-234
Аннотация: Предложен новый метод обучения многослойного перцептрона в задачах распознавания, основанный на использовании генетических алгоритмов для выбора штрафной функции и ее минимизации. По сравнению с обратным распространением новый метод обеспечивает значительно большее быстродействие. Кроме того, устраняется зависимость от выбора обучающего набора образцов. Описаны используемые генетические операции преобразования наборов данных. Проведены эксперименты по оценке скорости сходимости генетического алгоритма обучения многослойного перцептрона. Индия, Machine Intelligence Unit, Indian Statistical Institute, 203 B. T. Road, Calcutta 700 035. Ил. 12. Библ. 11
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ОБУЧЕНИЕ
ОПТИМАЛЬНЫЙ НАБОР ВЕСОВ
ГЕНЕТИЧЕСКИЕ АЛГОРИТМЫ
Дата ввода:

8.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 97.08-04А3.158

Автор(ы) : Zhang D., Elamsry M.I.
Заглавие : A parallel digital layered perceptrons implementation
Источник статьи : Neural, Parall. and Sci. Comput. - 1996. - Vol. 4, N 4. - С. 493-504
Аннотация: Предложен метод обучения с учителем, основанный на анализе линейной разделимости обучающих образцов. Метод предназначен для обучения многослойных перцептронов и обеспечивает повышенную эффективность при аппаратной реализации на параллельных процессорах. Проведенные экспериментальные сравнения с обратным распространением и правилом Madaline II показали, что новый метод значительно эффективнее с точки зрения простоты реализации и обеспечивает приемлемые устойчивость, время обучения и сложность. Сянган, Dep. of Computer Sci., City Univ. of Hong Kong, Kowloon. Ил. 9. Табл. 1. Библ. 13
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ОБУЧЕНИЕ С УЧИТЕЛЕМ
Дата ввода:

9.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 97.09-04А3.105

Автор(ы) : Belue Lisa M., Bauer Kenneth W., Ruck Dennis W.
Заглавие : Selecting optimal experiments for multiple output multilayer perceptrons
Источник статьи : Neural Comput. - 1997. - Vol. 9, N 1. - С. 161-183
Аннотация: Рассмотрена задача выбора наилучших наборов для обучения многослойных перцептронов. Предложен статистический метод ее решения, основанный на представлении многослойного перцептрона в виде нелинейной регрессионной модели и байесовской оценке ее параметров. Метод вычисляет доверительные эллипсоиды для отдельных переменных. Описан также упрощенный вариант, сводящий задачу к операциям с матрицами Адамара. Приведена сводка результатов. США, Dep. of Operational Sci., Dep. of the Air Force, Air Force Institute of Technology, 2950 P - Street, Wright Patterson AFB, OH 45433-7765. Ил. 6. Табл. 6. Библ. 29
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ОПТИМАЛЬНЫЕ ЭКСПЕРИМЕНТЫ
Дата ввода:

10.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 99.07-04А3.150

Автор(ы) : Liu C.S., Tseng C.H.
Заглавие : A new training algorithm multilayer discrete perceptrons
Источник статьи : Neural, Parall. and Sci. Comput. - 1998. - Vol. 6, N 2. - С. 217-228
Аннотация: Предложен новый подход к обучению дискретных перцептронов, имеющих более одного скрытого слоя. Идея предлагаемого алгоритма заключается в декомпозиции исходного многослойного перцептрона и выделении набора простых подсетей, которые обучаются с помощью стандартного правила обучения перцептрона. Описаны шаги декомпозиции, инициализации, параллельного обучения подсетей, модификации весов синапсов, связывающих подсети, а также используемый критерий остановки обучения. Проведено экспериментальное сравнение с другими алгоритмами обучения многослойных перцептронов. КНР, Applied Optimum Design Lab., Dep. of Mechanical Eng., Nat. Chiao Fung Univ., Hsinchn 30050. Ил. 5. Табл. 3. Библ. 11
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ОБУЧЕНИЕ
АЛГОРИТМ
Дата ввода:

11.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 99.09-04А3.151

Автор(ы) : Yang, Howard Hua, Amari, Shun-ichi
Заглавие : Complexity issues in natural gradient descent method for training multilayer perceptrons
Источник статьи : Neural Comput. - 1998. - Vol. 10, N 8. - С. 2137-2157
Аннотация: Исследован метод "естественного градиентного спуска" для обучения многослойных перцептронов вида (m, m, 1), динамика которого описана уравнением z='СУММА'{m}[i=1]=a[i]'фи'(w{T}[i]x+b[i])+'дзета', где 'дзета' - гауссовский аддитивный шум. Предложена новая схема представления информационной матрицы Фишера для стохастического многослойного перцептрона, позволяющая вычислять естественный градиент без явных операций с информационной матрицей. Сложность обращения информационной матрицы Фишера в случае многослойного перцептрона равна O(n){2}. В случае, если размерность входного сигнала n намного больше числа скрытых нейронов m, сложность непосредственного вычисления естественного градиента равна O(n). США, Dep. of Computer, Sci., Oregon Graduate Inst., Portland, OR 97291. Библ. 9
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ОБУЧЕНИЕ
МЕТОД "ЕСТЕСТВЕННОГО" ГРАДИЕНТНОГО СПУСКА
Дата ввода:

12.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 00.02-04А3.156

Автор(ы) : Karras D.A., Zorkadis V.
Заглавие : On applying multilayer perceptron learning properties to (pseudo) random number generation and evaluation
Источник статьи : Neural, Parall. and Sci. Comput. - 1998. - Vol. 6, N 4. - С. 513-521
Аннотация: Предложен метод генерации и оценки (псевдо)случайных чисел для телематических систем. Метод основан на применении свойств обучения многослойного перцептрона. Показано, что получаемые с его помощью результаты удовлетворяют всем известным тестам. Описано также применение метода в построении криптографических протоколов. Греция, Univ. of Piraeus, Dep. of Business Administration, Dodu 2, Ano Iliupolis, Athens 16342. Ил. 12. Табл. 2. Библ. 10
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
КРИПТОГРАФИЧЕСКИЕ ПРОТОКОЛЫ
Дата ввода:

13.

Вид документа : Статья из сборника (однотомник)
РЖ ВИНИТИ 34 (BI38) 89.05-04А3.165

Автор(ы) : Lippmann Richard P., Gold, Ben
Заглавие : Neural-net classifiers useful for speech recognition
Источник статьи : IEEE Ist Int. Conf. Neural Networks, San Diego, Calif, June 21-24, 1987. - San Diego (Calif.), 1988. - Vol. 4. - С. 417-425
Аннотация: Описывается несколько типов нейронных сетей (НС), к-рые можно использовать для распознавания речи. Эти т. наз. многослойные перцептроны (П) и др. НС м. б. классификаторами. Однослойный П формирует обл. решения аналогично гауссовскому классификатору, трехслойный П - обл. произвольной конфигурации. Др. НС м. б. использованы как векторные квантователи. Т. наз. сеть Viterbi позволяет осуществить временное выравнивание входных последовательностей с помощью фиксированных задержек и пороговой логики. Распознаватель изолированно произносимых слов с подстройкой под диктора на основе сети Viterbi дает точность распознавания 99% на 35-словном трудном словаре (для 9 дикторов на 4095 фразах). США, Lincoln Lab. Massachusetts Inst. of Technology Lexington, МА 02173. Ил. 6. Табл. 1. Библ. 19.
ГРНТИ : 34.53.19
Предметные рубрики: РЕЧЬ
РАСПОЗНАВАНИЕ ОБРАЗОВ
КЛАССИФИКАТОРЫ
НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
Дата ввода:

14.

Вид документа : Статья из сборника (однотомник)
РЖ ВИНИТИ 34 (BI38) 91.03-04А3.165

Автор(ы) : Wright W.A.
Заглавие : Probabilistic learning on a neural network
Источник статьи : 1st IEE Int. Conf., Artif. Neural Networks, London, 16-18 Oct., 1989. - London, 1989. - С. 153-157
Аннотация: Предложен теоретико-информационный вероятностный механизм обучения нейронных сетей, совмещающий преимущества обратного распространения ошибки и машины Больцмана и предназаченный для систем, решающих задачи адаптивной обработки сигналов. В качестве целевой ф-ции используется условная энтропия. Показано, что для случая многослойных перцептронов описанная схема обучения сходна с обобщенным дельта-правилом Румельхарта. Проведено сравнение ее возможностей с др. алгоритмами в разных задачах обработки сигналов. Великобритания, Sowerby Res. Centre, British Aerospace. Ил. 3. Библ. 21.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
ВЕРОЯТНОСТНОЕ ОБУЧЕНИЕ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
Дата ввода:

15.

Вид документа : Статья из сборника (однотомник)
РЖ ВИНИТИ 34 (BI38) 91.03-04А3.168

Автор(ы) : Okamoto, Atsuya, Ohnishi, Noboru, Sugie, Noboru
Заглавие : Efficient presentations of learning samples to accelerate the convergence of learning in multilayer perceptron
Источник статьи : Images 21st Century. - New York (N. Y.), 1989. - Pt 6/6. - С. 2040-2041
Аннотация: Предложены 4 спец. способа предъявления образцов обучения для увеличения эффективности обучения, отличные от случайного порядка предъявления. В основе всех этих способов - избирательное предъявление специально сгруппированных положит. образцов и "сбивающих" примеров. Предложенные способы моделировались на модели обучения простого 3-слойного перцептрона с 2 входами и 2 выходами. Все методы превосходили по эффективности обычные способы предъявления материала обучения. Наиболее эффективными оказались способы, когда в 1-й половине в обычающей выборке предъявляют положит. примеры, а во 2-й - сбивающие примеры. Япония, Faculty of Eng., Nagoya Univ. Ил. 1. Библ. 2.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ОБУЧЕНИЕ
СХОДИМОСТЬ
Дата ввода:

16.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 91.11-04А3.142

Автор(ы) : Hwang, Jenq-Neng, Choi Jai J., Oh, Seho, Marks Robert J.
Заглавие : Query-based learning applied to partially trained multilayer perceptrons
Источник статьи : IEEE Trans, Neural Networks. - 1991. - Vol. 2, N 1. - С. 131-136
Аннотация: Разработан новый подход к обучению нейронных сетей, основанный на использовании оракула, отвечающего на вопросы. Для случая многослойных перцептронов с единственным выходом предложена процедура генерации входных сигналов, соотв. границе между классами. Разработана также процедура вычисления градиентов для характеризации граничной поверхности. С помощью этих 2-х алгоритмов строится оракул, выбирающий одну из 2-х возможностей. Приведены примеры, показывающие, что предлагаемый подход позволяет значительно сократить объем обучаемой выборки. Предполагаемое практическое применение системы - контроль энергетических станций. США, Dep. of Elect. Eng., FT-10, Univ. of Washington, Seattle, WA 98195. Библ. 13.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ОБУЧЕНИЕ
ОРА
Дата ввода:

17.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 91.11-04А3.149

Автор(ы) : Ruck Dennis W., Rogers Steven K., Kabrisky, Matthew, Oxley Mark E., Suter Bruce W.
Заглавие : The multilayer perceptron as an approximation to a Bayes optimal diseriminant function
Источник статьи : IEEE Trans. Neural Networks. - 1990. - Vol. 1, N 4. - С. 286-298
Аннотация: Доказано, что многослойный перцептрон с обучением, основанным на обратном распространении, в задачах классификации аппроксимирует байесовскую оптимальную дискриминантную ф-цию. Выходы перцептрона аппроксимируют апостериорную вероятность классов. Этот результат верен при произвольном числе классов, а также при любом числе слоев и произвольных типах ф-ций активации. Приведены примеры практического применения полученных выводов в различных задачах классификации и распознавания. Продолжающиеся работы связаны с исследованием скорости сходимости и со сравнением с др. методами аппроксимации. США, School of Eng., Air Force Inst. of Technology, Wright-Patterson AFB, OH 45433. Ил. 1. Библ. 10.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
БАЙЕСОВСКАЯ ОПТИМАЛЬНАЯ ДИСКРИМИНАНТНАЯ ФУНКЦИЯ
РАСПОЗНАВАНИЕ ОБРАЗОВ
КЛАССИФИКАЦИЯ
Дата ввода:

18.

Вид документа : Статья из сборника (однотомник)
РЖ ВИНИТИ 34 (BI38) 92.05-04А3.084

Автор(ы) : Chen, Yiwei, Bastani, Farokh
Заглавие : Optimal initialization for multi-layer perceptrons
Источник статьи : IEEE Int.Conf. Syst., Man, and Cybern., Los Angeles, Calif., Nov. 4-7, 1990. - New York (N. Y.), 1990. - С. 370-372
Аннотация: Предложен метод оптим. присвоения начальных весов связей в 3-слойном перцептроне - "алгоритм Уолша- Эрмита". Веса синапсов между входным и скрытым слоями - векторы матрицы Эрмита. Нейроны скрытого слоя имеют различные разделяющие ф-ции, построенные с помощью эрмитовых сплайнов степени 3. Веса связей скрытого и выходного слоев - коэф. интерполяции Эрмита. Эксперименты показали, что скорость обучения при таком начальном установлении весов близка к скорости при оптим. инициализации. США, Western Geophysical, 10001 Richmond Ave., Houston TX77042-4299. Ил. 2. Библ. 8.
ГРНТИ : 34.55.21
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ОПТИМАЛЬНАЯ ИНИЦИАЛИЗАЦИЯ
УОЛША-ЭРМИТА АЛГОРИТМ
Дата ввода:

19.

Вид документа : Статья из журнала
РЖ ВИНИТИ 34 (BI38) 92.07-04А3.100

Автор(ы) : Choi, Jin Young, Choi, Chong-Ho
Заглавие : Sensitivity analysis of multilayer perceptron with differentiable activation functions
Источник статьи : IEEE Trans. Neural Networks. - 1992. - Vol. 3, N 1. - С. 101-107
Аннотация: Рассматривается задача выбора для заданного отображения входного набора в выходной такой совокупности весов синапсов, к-рая обеспечивает правильное соответствие и наилучшую чувствительность. Изучен случай многослойного перцептрона. Предложен критерий оценки чувствительности, учитывающий влияние аддитивных и мультипликативных возмущений весов и входов и пригодный для произвольных входных сигналов и для случая нескольких выходов. Приведены эксперим. данные, подтверждающие результаты теор. анализа. Южн. Корея, Dep. of Control and Instrumentation Eng., Seoul Nat. Univ. Shinrim-dong, Kwanak-ku, Seoul 151-172. Ил. 2. Табл. 3. Библ. 7.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
АНАЛИЗ ЧУВСТВИТЕЛЬНОСТИ
Дата ввода:

20.

Вид документа : Статья из сборника (однотомник)
РЖ ВИНИТИ 34 (BI38) 93.11-04А3.155

Автор(ы) : Stalin, Suryan, Sreenivas T.V.
Заглавие : Vectorized backpropagation and automatic pruning for MLP network optimization
Источник статьи : IEEE Int. Conf. Neural Networks, San Francisco, Calif. March 28 - Apr. 1, 1993. - Piscataway (N. J.), 1993. - Vol. 3. - С. 1427-1432
Аннотация: Рассмотрены возможности усовершенствования обратного распространения для нейронных сетей, решающих сложные задачи типа распознавания речи. Предложена оригинальная процедура векторного обратного распространения, к-рая сходится быстрее, чем стандартный вариант: в проведенных опытах для сходимости требовалось от 20% до 50% числа итераций обычной схемы при том же качестве. Кроме того, разработан алгоритм утоньшения структуры многослойного перцептрона, к-рый оставляет в среднем 40% от начального числа нейронов. Приведена сводка экспериментальных результатов, полученных в ходе испытаний предложенных процедур в реальных прикладных задачах. Индия, Dep. of Electrical Communication Eng., Indian Institute of Sci., Bangalore-560012. Ил. 6. Библ. 6.
ГРНТИ : 34.53.19
Предметные рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ
ОПТИМИЗАЦИЯ
ВЕКТОРНОЕ ОБРАТНОЕ РАСПРОСТРАНЕНИЕ
РАСПОЗНАВАНИЕ ОБРАЗОВ
РЕЧЬ
Дата ввода:

 1-20    21-32 
 




© Международная Ассоциация пользователей и разработчиков электронных библиотек и новых информационных технологий
(Ассоциация ЭБНИТ)