Главная Назад


Авторизация
Идентификатор пользователя / читателя
Пароль (для удалённых пользователей)
 

Вид поиска

Область поиска
в найденном
Найдено в других БД
Формат представления найденных документов:
библиографическое описаниекраткийполный
Отсортировать найденные документы по:
авторузаглавиюгоду изданиятипу документа
Поисковый запрос: (<.>S=МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ<.>)
Общее количество найденных документов : 32
Показаны документы с 1 по 20
 1-20    21-32 
1.
РЖ ВИНИТИ 34 (BI38) 95.01-04А3.080

    Oh, SongHoon.

    Effects of nonlinear transformations on correlation between weighted sums in multilayer perceptron [Text] / SongHoon Oh, Youngik Lee // IEEE Trans. Neural Networks. - 1994. - Vol. 5, N 3. - P508-510 . - ISSN 1045-9227
Перевод заглавия: Эффект нелинейных преобразований на корреляции взвешенных сумм в многослойных перцептронах
Аннотация: Проведен анализ изменений корреляции между 2-мя независимыми распределенными по нормальному закону векторными величинами при выполнении нелинейного преобразования, к-рое можно аппроксимировать кусочно-линейными ф-циями. Получены условия, при выполнении к-рых корреляция уменьшается. Подробно рассмотрен случай, когда в качестве нелинейных преобразований выступают сигмоидальные ф-ции активации нейронов. Полученные результаты можно использовать для анализа информационной избыточности скрытых слоев в нейронных сетях с прямым распространением информации. Приведены результаты эксперим. исследований, подтверждающие сделанные теор. выводы. Южн. Корея, Res. Dep., Electronics and Telecommunications Res. Inst., Daeduk Sci. Town., Daejeon. Ил. 1. Библ. 8.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

НЕЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ

КОРРЕЛЯЦИЯ ВЗВЕШЕННЫХ СУММ


Доп.точки доступа:
Lee, Youngik

2.
РЖ ВИНИТИ 34 (BI38) 95.01-04А3.082

    Chiang, Cheng-Chin.

    Using multithreshold quadratic sigmoidal neurons to improve classification capability of multilayer perceptron [Text] / Cheng-Chin Chiang, Hsin-Chia Fu // IEEE Trans. Neural Networks. - 1994. - Vol. 5, N 3. - P516-519 . - ISSN 1045-9227
Перевод заглавия: Использование многопороговых квадратичных сигмоидальных нейронов для улучшения способности к классификации у многослойных перцептронов
Аннотация: Предложено использовать в многослойных перцептронах ф-цию активации со многими порогами f(net[i], 'ТЭТА'[i]= =1/[1+exp(net{2}[i]-g('ТЭТА'[i], х)), где net[i]=w[i][0]+'СИГМА'w[i][j]х[j], а g('ТЭТА'[i], х)='ТЭТА'[i][0]+'СИГМА''ТЭТА'[i][j]х[j]. Приведены примеры, показывающие, что сети с такими нейронами обладают лучшими способностями к классификации, чем обычные многослойные перцептроны. В проведенных экспериментах гибридные сети, включающие как описанные, так и станд. нейроны, обеспечили точность классификации в 2 раза большую, чем у обычно применяемых многослойных нейронных сетей. КНР, Computer and Communications Lab., ITRI, Chutung, Hsinghua, Taiwan 310. Библ. 6.
ГРНТИ  
ВИНИТИ 341.53.19.09 + 341.55.21.27.15
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

КЛАССИФИКАЦИЯ

СИГМОИДАЛЬНЫЕ НЕЙРОНЫ


Доп.точки доступа:
Fu, Hsin-Chia

3.
РЖ ВИНИТИ 34 (BI38) 95.01-04А3.086

   

    An accelerated learning algorithm for multilayer perceptron networks [Text] / Alexander G. Parlos [et al.] // IEEE Trans. Neural Networks. - 1994. - Vol. 5, N 3. - P493-497 . - ISSN 1045-9227
Перевод заглавия: Алгоритм ускоренного обучения для многослойных перцептронов
Аннотация: Предложен адаптивный вариант обратного распространения для обучения многослойных нейронных сетей с прямым распространением. Адаптация обеспечивается внишними силами, изменяющими функциональ общей ошибки. Веса обновляются по правилу w(t+1)=w(t)- 'ро'(Е)(dЕ/dw)/||(dЕ/dw)||{2}. Кроме того, на отдельных шагах используются дополнительные настраивающие параметры. Проведено теор. и эксперим. сравнение с др. вариантами обратного распространения. Приведены результаты, полученные в ходе имитационного моделирования, показывающие значительное увеличение скорости сходимости. США, Dep. of Nuclear Eng., Texas A&M Univ., College Station, TX. Ил. 2. Табл. 3. Библ. 4.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ОБУЧЕНИЕ

АЛГОРИТМ


Доп.точки доступа:
Parlos, Alexander G.; Fernandez, Benito; Atiya, Amir F.; Muthusami, Jayakamar; Tsai, Wei K.

4.
РЖ ВИНИТИ 34 (BI38) 95.05-04А3.062

    Anderson, Dennis W.

    Improving the back propagation algorithm using scaler multiplication [Text] : abstr. Ill. State Acad. Sci. 87th Annu. Meet. "Metab. Environ. Chem. and Cancer", Galesburg, Ill., Oct. 7-8, 1994 / Dennis W. Anderson // Trans. Ill. State Acad. Sci. - 1994. - Vol. 87, Suppl. - P41 . - ISSN 0019-2252
Перевод заглавия: Усовершенствование алгоритма обратного распространения за счет использования счетчиков умножения
Аннотация: Проведены эксперименты по использованию в обучении с помощью обратного распространения счетчиков умножений. Изучены след. нейронные сети со структурой многослойного перцептрона: с числом нейронов 2 + 2 + 2, предназначенная для решения задачи сложения по модулю 2; 4 + 2 + 4; 3 + 3 + 5. Достигнутое увеличение быстродействия составило соответственно 35%, 35%, 37%. Для сети с размерами слоев 10 + 10 + 10 улучшение качества работы за счет нововведения было незначительным. США, Western Illinois Univ., Dep. of Computer Sci., Macomb, IL 61455.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
ОБРАТНОЕ РАСПРОСТРАНЕНИЕ

АЛГОРИТМ

УСОВЕРШЕНСТВОВАНИЕ

МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ


5.
РЖ ВИНИТИ 34 (BI38) 95.08-04А3.120

    Rognvaldssen, Thorsteinn.

    On langevin updating in multilayer perceptrons [Text] / Thorsteinn Rognvaldssen // Neural Comput. - 1994. - Vol. 6, N 5. - P916-926 . - ISSN 0899-7667
Перевод заглавия: О ланжевеновской модификации многослойного перцептрона
Аннотация: Показано, что ланжевеновское правило модификации со встроенным шумом в весах синапсов улучшает способность к обучению у нейронных сетей с гессианом с некорректными условиями. Это особенно полезно для многослойных перцептронов со многими скрытыми слоями, у к-рых часто возникает некорректность. Показано также, что сходным эффектом обладает манхэттенское правило модификации. Проведено эксперим. сравнение с др. правилами. Обнаружено, что метод сопряженных градиентов работает значительно хуже. Представлены результаты испытания на имитационных моделях. Швеция, Dep. of Theoretical Physics, Univ. of Lund, Solgatan 14, S-223 62 Lund. Ил. 4. Табл. 2. Библ. 24.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

МОДИФИКАЦИЯ


6.
РЖ ВИНИТИ 34 (BI38) 96.08-04А3.295

   

    Initializing weights of a multilayer perceptron network by using the orthogonal least squares algorithm [Text] / Mikko Lehtokangas [et al.] // Neural Comput. - 1995. - Vol. 7, N 5. - P982-999 . - ISSN 0899-7667
Перевод заглавия: Инициализация весов многослойного перцептрона методом ортогонализованных наименьших квадратов
Аннотация: Описан новый метод инициализации весов многослойных перцептронов, значительно повышающий скорость сходимости при обучении и снижающий вероятность попадания в локальные экстремумы. Метод основан на ортогонализованном варианте алгоритма наименьших квадратов. Приведено подробное описание алгоритма. Представлены результаты, полученные в ходе проведенного имитацинного моделирования, показывающие значительное повышение качества и скорости обучения в типичных случаях. Финляндия, Tampere Univ. of Technology, Microelectronics Lab., P. O. Box 692, FIN-33101, Tampere. Ил. 8. Табл. 1. Библ. 16
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ИНИЦИАЛИЗАЦИЯ ВЕСОВ

ОРТОГОНАЛЬНЫЕ НАИМЕНЬШИЕ КВАДРАТЫ


Доп.точки доступа:
Lehtokangas, Mikko; Saarinen, Jukka; Kaski, Kimmo; Huuhtanen, Pentti

7.
РЖ ВИНИТИ 34 (BI38) 97.02-04А3.123

    Pal, Sankar K.

    Selection of optimal set of weights in a layered network using genetic algorithms [Text] / Sankar K. Pal // Inf. Sci. - 1994. - Vol. 80, N 3-4. - P213-234 . - ISSN 0020-0255
Перевод заглавия: Выбор оптимального набора весов в многослойной нейронной сети с помощью генетических алгоритмов
Аннотация: Предложен новый метод обучения многослойного перцептрона в задачах распознавания, основанный на использовании генетических алгоритмов для выбора штрафной функции и ее минимизации. По сравнению с обратным распространением новый метод обеспечивает значительно большее быстродействие. Кроме того, устраняется зависимость от выбора обучающего набора образцов. Описаны используемые генетические операции преобразования наборов данных. Проведены эксперименты по оценке скорости сходимости генетического алгоритма обучения многослойного перцептрона. Индия, Machine Intelligence Unit, Indian Statistical Institute, 203 B. T. Road, Calcutta 700 035. Ил. 12. Библ. 11
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ОБУЧЕНИЕ

ОПТИМАЛЬНЫЙ НАБОР ВЕСОВ

ГЕНЕТИЧЕСКИЕ АЛГОРИТМЫ


8.
РЖ ВИНИТИ 34 (BI38) 97.08-04А3.158

    Zhang, D.

    A parallel digital layered perceptrons implementation [Text] / D. Zhang, M. I. Elamsry // Neural, Parall. and Sci. Comput. - 1996. - Vol. 4, N 4. - P493-504 . - ISSN 1061-5369
Перевод заглавия: Параллельная цифровая реализация многослойных перцептронов
Аннотация: Предложен метод обучения с учителем, основанный на анализе линейной разделимости обучающих образцов. Метод предназначен для обучения многослойных перцептронов и обеспечивает повышенную эффективность при аппаратной реализации на параллельных процессорах. Проведенные экспериментальные сравнения с обратным распространением и правилом Madaline II показали, что новый метод значительно эффективнее с точки зрения простоты реализации и обеспечивает приемлемые устойчивость, время обучения и сложность. Сянган, Dep. of Computer Sci., City Univ. of Hong Kong, Kowloon. Ил. 9. Табл. 1. Библ. 13
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ОБУЧЕНИЕ С УЧИТЕЛЕМ


Доп.точки доступа:
Elamsry, M.I.

9.
РЖ ВИНИТИ 34 (BI38) 97.09-04А3.105

    Belue, Lisa M.

    Selecting optimal experiments for multiple output multilayer perceptrons [Text] / Lisa M. Belue, Kenneth W. Bauer, Dennis W. Ruck // Neural Comput. - 1997. - Vol. 9, N 1. - P161-183 . - ISSN 0899-7667
Перевод заглавия: Выбор оптимальных экспериментов для многослойных перцептронов с многими выходами
Аннотация: Рассмотрена задача выбора наилучших наборов для обучения многослойных перцептронов. Предложен статистический метод ее решения, основанный на представлении многослойного перцептрона в виде нелинейной регрессионной модели и байесовской оценке ее параметров. Метод вычисляет доверительные эллипсоиды для отдельных переменных. Описан также упрощенный вариант, сводящий задачу к операциям с матрицами Адамара. Приведена сводка результатов. США, Dep. of Operational Sci., Dep. of the Air Force, Air Force Institute of Technology, 2950 P - Street, Wright Patterson AFB, OH 45433-7765. Ил. 6. Табл. 6. Библ. 29
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ОПТИМАЛЬНЫЕ ЭКСПЕРИМЕНТЫ


Доп.точки доступа:
Bauer, Kenneth W.; Ruck, Dennis W.

10.
РЖ ВИНИТИ 34 (BI38) 99.07-04А3.150

    Liu, C. S.

    A new training algorithm multilayer discrete perceptrons [Text] / C. S. Liu, C. H. Tseng // Neural, Parall. and Sci. Comput. - 1998. - Vol. 6, N 2. - P217-228 . - ISSN 1061-5369
Перевод заглавия: Новый алгоритм обучения многослойных дискретных перцептронов
Аннотация: Предложен новый подход к обучению дискретных перцептронов, имеющих более одного скрытого слоя. Идея предлагаемого алгоритма заключается в декомпозиции исходного многослойного перцептрона и выделении набора простых подсетей, которые обучаются с помощью стандартного правила обучения перцептрона. Описаны шаги декомпозиции, инициализации, параллельного обучения подсетей, модификации весов синапсов, связывающих подсети, а также используемый критерий остановки обучения. Проведено экспериментальное сравнение с другими алгоритмами обучения многослойных перцептронов. КНР, Applied Optimum Design Lab., Dep. of Mechanical Eng., Nat. Chiao Fung Univ., Hsinchn 30050. Ил. 5. Табл. 3. Библ. 11
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ОБУЧЕНИЕ

АЛГОРИТМ


Доп.точки доступа:
Tseng, C.H.

11.
РЖ ВИНИТИ 34 (BI38) 99.09-04А3.151

    Yang, Howard Hua.

    Complexity issues in natural gradient descent method for training multilayer perceptrons [Text] / Howard Hua Yang, Shun-ichi Amari // Neural Comput. - 1998. - Vol. 10, N 8. - P2137-2157 . - ISSN 0899-7667
Перевод заглавия: Анализ сложности метода "естественного" градиентного спуска для обучения многослойных перцептронов
Аннотация: Исследован метод "естественного градиентного спуска" для обучения многослойных перцептронов вида (m, m, 1), динамика которого описана уравнением z='СУММА'{m}[i=1]=a[i]'фи'(w{T}[i]x+b[i])+'дзета', где 'дзета' - гауссовский аддитивный шум. Предложена новая схема представления информационной матрицы Фишера для стохастического многослойного перцептрона, позволяющая вычислять естественный градиент без явных операций с информационной матрицей. Сложность обращения информационной матрицы Фишера в случае многослойного перцептрона равна O(n){2}. В случае, если размерность входного сигнала n намного больше числа скрытых нейронов m, сложность непосредственного вычисления естественного градиента равна O(n). США, Dep. of Computer, Sci., Oregon Graduate Inst., Portland, OR 97291. Библ. 9
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ОБУЧЕНИЕ

МЕТОД "ЕСТЕСТВЕННОГО" ГРАДИЕНТНОГО СПУСКА


Доп.точки доступа:
Amari, Shun-ichi

12.
РЖ ВИНИТИ 34 (BI38) 00.02-04А3.156

    Karras, D. A.

    On applying multilayer perceptron learning properties to (pseudo) random number generation and evaluation [Text] / D. A. Karras, V. Zorkadis // Neural, Parall. and Sci. Comput. - 1998. - Vol. 6, N 4. - P513-521 . - ISSN 1061-5369
Перевод заглавия: О применении свойств обучения многослойного перцептрона в генерации и оценке (псевдо)случайных чисел
Аннотация: Предложен метод генерации и оценки (псевдо)случайных чисел для телематических систем. Метод основан на применении свойств обучения многослойного перцептрона. Показано, что получаемые с его помощью результаты удовлетворяют всем известным тестам. Описано также применение метода в построении криптографических протоколов. Греция, Univ. of Piraeus, Dep. of Business Administration, Dodu 2, Ano Iliupolis, Athens 16342. Ил. 12. Табл. 2. Библ. 10
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

КРИПТОГРАФИЧЕСКИЕ ПРОТОКОЛЫ


Доп.точки доступа:
Zorkadis, V.

13.
РЖ ВИНИТИ 34 (BI38) 89.05-04А3.165

    Lippmann, Richard P.

    Neural-net classifiers useful for speech recognition [Text] / Richard P. Lippmann, Ben Gold // IEEE Ist Int. Conf. Neural Networks, San Diego, Calif, June 21-24, 1987. - San Diego (Calif.), 1988. - Vol. 4. - P417-425
Перевод заглавия: Нейронно-сетевые классификаторы, пригодные для распознавания речи
Аннотация: Описывается несколько типов нейронных сетей (НС), к-рые можно использовать для распознавания речи. Эти т. наз. многослойные перцептроны (П) и др. НС м. б. классификаторами. Однослойный П формирует обл. решения аналогично гауссовскому классификатору, трехслойный П - обл. произвольной конфигурации. Др. НС м. б. использованы как векторные квантователи. Т. наз. сеть Viterbi позволяет осуществить временное выравнивание входных последовательностей с помощью фиксированных задержек и пороговой логики. Распознаватель изолированно произносимых слов с подстройкой под диктора на основе сети Viterbi дает точность распознавания 99% на 35-словном трудном словаре (для 9 дикторов на 4095 фразах). США, Lincoln Lab. Massachusetts Inst. of Technology Lexington, МА 02173. Ил. 6. Табл. 1. Библ. 19.
ГРНТИ  
ВИНИТИ 341.53.19 + 341.55.21.27.15
Рубрики: РЕЧЬ
РАСПОЗНАВАНИЕ ОБРАЗОВ

КЛАССИФИКАТОРЫ

НЕЙРОННЫЕ СЕТИ

МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ


Доп.точки доступа:
Gold, Ben

14.
РЖ ВИНИТИ 34 (BI38) 91.03-04А3.165

    Wright, W. A.

    Probabilistic learning on a neural network [Text] / W. A. Wright // 1st IEE Int. Conf., Artif. Neural Networks, London, 16-18 Oct., 1989. - London, 1989. - P153-157 . - ISBN 0-8529-6398-2
Перевод заглавия: Вероятностное обучение на нейронных сетях
Аннотация: Предложен теоретико-информационный вероятностный механизм обучения нейронных сетей, совмещающий преимущества обратного распространения ошибки и машины Больцмана и предназаченный для систем, решающих задачи адаптивной обработки сигналов. В качестве целевой ф-ции используется условная энтропия. Показано, что для случая многослойных перцептронов описанная схема обучения сходна с обобщенным дельта-правилом Румельхарта. Проведено сравнение ее возможностей с др. алгоритмами в разных задачах обработки сигналов. Великобритания, Sowerby Res. Centre, British Aerospace. Ил. 3. Библ. 21.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
ВЕРОЯТНОСТНОЕ ОБУЧЕНИЕ

МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ


15.
РЖ ВИНИТИ 34 (BI38) 91.03-04А3.168

    Okamoto, Atsuya.

    Efficient presentations of learning samples to accelerate the convergence of learning in multilayer perceptron [Text] / Atsuya Okamoto, Noboru Ohnishi, Noboru Sugie // Images 21st Century. - New York (N. Y.), 1989. - Pt 6/6. - P2040-2041
Перевод заглавия: Эффективное предъявление образцов при обучении для ускорения сходимости обучения в многослойном перцептроне
Аннотация: Предложены 4 спец. способа предъявления образцов обучения для увеличения эффективности обучения, отличные от случайного порядка предъявления. В основе всех этих способов - избирательное предъявление специально сгруппированных положит. образцов и "сбивающих" примеров. Предложенные способы моделировались на модели обучения простого 3-слойного перцептрона с 2 входами и 2 выходами. Все методы превосходили по эффективности обычные способы предъявления материала обучения. Наиболее эффективными оказались способы, когда в 1-й половине в обычающей выборке предъявляют положит. примеры, а во 2-й - сбивающие примеры. Япония, Faculty of Eng., Nagoya Univ. Ил. 1. Библ. 2.
ГРНТИ  
ВИНИТИ 341.53.19.09 + 341.55.21.27.11 + 341.55.19.09.13
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ОБУЧЕНИЕ

СХОДИМОСТЬ


Доп.точки доступа:
Ohnishi, Noboru; Sugie, Noboru

16.
РЖ ВИНИТИ 34 (BI38) 91.11-04А3.142

   

    Query-based learning applied to partially trained multilayer perceptrons [Text] / Jenq-Neng Hwang [et al.] // IEEE Trans, Neural Networks. - 1991. - Vol. 2, N 1. - P131-136 . - ISSN 1045-9227
Перевод заглавия: Обучение частично обученных многослойных перцептронов с помощью запросов
Аннотация: Разработан новый подход к обучению нейронных сетей, основанный на использовании оракула, отвечающего на вопросы. Для случая многослойных перцептронов с единственным выходом предложена процедура генерации входных сигналов, соотв. границе между классами. Разработана также процедура вычисления градиентов для характеризации граничной поверхности. С помощью этих 2-х алгоритмов строится оракул, выбирающий одну из 2-х возможностей. Приведены примеры, показывающие, что предлагаемый подход позволяет значительно сократить объем обучаемой выборки. Предполагаемое практическое применение системы - контроль энергетических станций. США, Dep. of Elect. Eng., FT-10, Univ. of Washington, Seattle, WA 98195. Библ. 13.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ОБУЧЕНИЕ

ОРА


Доп.точки доступа:
Hwang, Jenq-Neng; Choi, Jai J.; Oh, Seho; Marks, Robert J.

17.
РЖ ВИНИТИ 34 (BI38) 91.11-04А3.149

   

    The multilayer perceptron as an approximation to a Bayes optimal diseriminant function [Text] / Dennis W. Ruck [et al.] // IEEE Trans. Neural Networks. - 1990. - Vol. 1, N 4. - P286-298 . - ISSN 1045-9227
Перевод заглавия: Многослойный перцептрон как аппроксимация байесовской оптимальной дискриминантной функции
Аннотация: Доказано, что многослойный перцептрон с обучением, основанным на обратном распространении, в задачах классификации аппроксимирует байесовскую оптимальную дискриминантную ф-цию. Выходы перцептрона аппроксимируют апостериорную вероятность классов. Этот результат верен при произвольном числе классов, а также при любом числе слоев и произвольных типах ф-ций активации. Приведены примеры практического применения полученных выводов в различных задачах классификации и распознавания. Продолжающиеся работы связаны с исследованием скорости сходимости и со сравнением с др. методами аппроксимации. США, School of Eng., Air Force Inst. of Technology, Wright-Patterson AFB, OH 45433. Ил. 1. Библ. 10.
ГРНТИ  
ВИНИТИ 341.53.19.09 + 341.55.21.27.15
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

БАЙЕСОВСКАЯ ОПТИМАЛЬНАЯ ДИСКРИМИНАНТНАЯ ФУНКЦИЯ

РАСПОЗНАВАНИЕ ОБРАЗОВ

КЛАССИФИКАЦИЯ


Доп.точки доступа:
Ruck, Dennis W.; Rogers, Steven K.; Kabrisky, Matthew; Oxley, Mark E.; Suter, Bruce W.

18.
РЖ ВИНИТИ 34 (BI38) 92.05-04А3.084

    Chen, Yiwei.

    Optimal initialization for multi-layer perceptrons [Text] / Yiwei Chen, Farokh Bastani // IEEE Int.Conf. Syst., Man, and Cybern., Los Angeles, Calif., Nov. 4-7, 1990. - New York (N. Y.), 1990. - P370-372 . - ISBN 0-87942-598-9
Перевод заглавия: Оптимальная инициализация многослойных перцептронов
Аннотация: Предложен метод оптим. присвоения начальных весов связей в 3-слойном перцептроне - "алгоритм Уолша- Эрмита". Веса синапсов между входным и скрытым слоями - векторы матрицы Эрмита. Нейроны скрытого слоя имеют различные разделяющие ф-ции, построенные с помощью эрмитовых сплайнов степени 3. Веса связей скрытого и выходного слоев - коэф. интерполяции Эрмита. Эксперименты показали, что скорость обучения при таком начальном установлении весов близка к скорости при оптим. инициализации. США, Western Geophysical, 10001 Richmond Ave., Houston TX77042-4299. Ил. 2. Библ. 8.
ГРНТИ  
ВИНИТИ 341.55.21.27.15 + 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ОПТИМАЛЬНАЯ ИНИЦИАЛИЗАЦИЯ

УОЛША-ЭРМИТА АЛГОРИТМ


Доп.точки доступа:
Bastani, Farokh

19.
РЖ ВИНИТИ 34 (BI38) 92.07-04А3.100

    Choi, Jin Young.

    Sensitivity analysis of multilayer perceptron with differentiable activation functions [Text] / Jin Young Choi, Chong-Ho Choi // IEEE Trans. Neural Networks. - 1992. - Vol. 3, N 1. - P101-107 . - ISSN 1045-9227
Перевод заглавия: Анализ чувствительности многослойного перцептрона с дифференцируемыми функциями активации
Аннотация: Рассматривается задача выбора для заданного отображения входного набора в выходной такой совокупности весов синапсов, к-рая обеспечивает правильное соответствие и наилучшую чувствительность. Изучен случай многослойного перцептрона. Предложен критерий оценки чувствительности, учитывающий влияние аддитивных и мультипликативных возмущений весов и входов и пригодный для произвольных входных сигналов и для случая нескольких выходов. Приведены эксперим. данные, подтверждающие результаты теор. анализа. Южн. Корея, Dep. of Control and Instrumentation Eng., Seoul Nat. Univ. Shinrim-dong, Kwanak-ku, Seoul 151-172. Ил. 2. Табл. 3. Библ. 7.
ГРНТИ  
ВИНИТИ 341.53.19.09
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

АНАЛИЗ ЧУВСТВИТЕЛЬНОСТИ


Доп.точки доступа:
Choi, Chong-Ho

20.
РЖ ВИНИТИ 34 (BI38) 93.11-04А3.155

    Stalin, Suryan.

    Vectorized backpropagation and automatic pruning for MLP network optimization [Text] / Suryan Stalin, T. V. Sreenivas // IEEE Int. Conf. Neural Networks, San Francisco, Calif. March 28 - Apr. 1, 1993. - Piscataway (N. J.), 1993. - Vol. 3. - P1427-1432
Перевод заглавия: Векторное обратное распространение и автоматическое отбрасывание лишних элементов для оптимизации многослойных перцептронов
Аннотация: Рассмотрены возможности усовершенствования обратного распространения для нейронных сетей, решающих сложные задачи типа распознавания речи. Предложена оригинальная процедура векторного обратного распространения, к-рая сходится быстрее, чем стандартный вариант: в проведенных опытах для сходимости требовалось от 20% до 50% числа итераций обычной схемы при том же качестве. Кроме того, разработан алгоритм утоньшения структуры многослойного перцептрона, к-рый оставляет в среднем 40% от начального числа нейронов. Приведена сводка экспериментальных результатов, полученных в ходе испытаний предложенных процедур в реальных прикладных задачах. Индия, Dep. of Electrical Communication Eng., Indian Institute of Sci., Bangalore-560012. Ил. 6. Библ. 6.
ГРНТИ  
ВИНИТИ 341.53.19.09 + 341.55.21.27.15
Рубрики: НЕЙРОННЫЕ СЕТИ
МНОГОСЛОЙНЫЕ ПЕРЦЕПТРОНЫ

ОПТИМИЗАЦИЯ

ВЕКТОРНОЕ ОБРАТНОЕ РАСПРОСТРАНЕНИЕ

РАСПОЗНАВАНИЕ ОБРАЗОВ

РЕЧЬ


Доп.точки доступа:
Sreenivas, T.V.

 1-20    21-32 
 




© Международная Ассоциация пользователей и разработчиков электронных библиотек и новых информационных технологий
(Ассоциация ЭБНИТ)