Please use this identifier to cite or link to this item: https://er.nau.edu.ua/handle/NAU/28282
Full metadata record
DC FieldValueLanguage
dc.contributor.authorAzarskov, V. N.-
dc.contributor.authorZhiteckii, L. S.-
dc.contributor.authorNikolaienko, S. A.-
dc.date.accessioned2017-05-26T07:16:13Z-
dc.date.available2017-05-26T07:16:13Z-
dc.date.issued2013-10-
dc.identifier.issn1990-5548-
dc.identifier.urihttp://er.nau.edu.ua/handle/NAU/28282-
dc.description.abstractAsymptotic properties of the online gradient algorithm with a constant step size employed for learning in neural network models of nonlinear systems having one hidden layer are examined. Some conditions guaranteeing the convergence of this algorithm are established.uk_UA
dc.description.abstractВивчено асимптотичні властивості градієнтного алгоритму зі сталим кроковим коефіцієнтом, що використовується для навчання в реальному часі нейромережних моделей нелінійних систем з одним прихованим шаром. Встановлено деякі умови, що гарантують збіжність цього алгоритму.uk_UA
dc.language.isoenuk_UA
dc.publisherВД "Освіта України"uk_UA
dc.subjectnonlinear system; neural network model; gradient algorithm; learning; convergenceuk_UA
dc.subjectнелінійна система, нейромережна модель, градієнтний алгоритм, навчання, збіжністьuk_UA
dc.titleSEQUENTIAL LEARNING PROCESSES IN NEURAL NETWORKS APPLIED AS MODELS OF NONLINEAR SYSTEMSuk_UA
dc.title.alternativeПроцеси послідовного навчання в нейронних мережах, що застосовуються як моделі нелінійних системuk_UA
dc.typeArticleuk_UA
Appears in Collections:Наукові статті кафедри аерокосмічних систем управління

Files in This Item:
File Description SizeFormat 
Azarskov_EACS 3_2013.pdf1.04 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.