Наукова електронна бібліотека
періодичних видань НАН України

Scalability of Parallel Batch Pattern Neural Network Training Algorithm

Репозиторій DSpace/Manakin

Показати простий запис статті

dc.contributor.author Turchenko, V.
dc.date.accessioned 2010-04-22T14:01:02Z
dc.date.available 2010-04-22T14:01:02Z
dc.date.issued 2009
dc.identifier.citation Scalability of Parallel Batch Pattern Neural Network Training Algorithm / V. Turchenko // Штучний інтелект. — 2009. — № 2. — С. 144-150. — Бібліогр.: 12 назв. — англ. uk_UA
dc.identifier.issn 1561-5359
dc.identifier.uri http://dspace.nbuv.gov.ua/handle/123456789/7935
dc.description.abstract The development of parallel batch pattern back propagation training algorithm of multilayer perceptron and its scalability research on general-purpose parallel computer are presented in this paper. The model of multilayer perceptron and batch pattern training algorithm are theoretically described. The algorithmic description of the parallel batch pattern training method is presented. The scalability research of the developed parallel algorithm is fulfilled at progressive increasing the dimension of the parallelized problem on general-purpose parallel computer NEC TX-7. uk_UA
dc.description.abstract Разработка параллельного группового алгоритма обучения обратного распространения ошибки многослойного персептрона и исследование его масштабированности на параллельном компьютере общего назначения представлены в этой статье. Модель многослойного персептрона и групповой алгоритм его обучения описаны формализованным образом. Параллельный групповой алгоритм обучения представлен в алгоритмическом виде. Исследование масштабированности разработанного параллельного алгоритма осуществлено для пропорционально увеличивающегося размера задачи параллелизации на параллельном компьютере общего назначения NEC TX-7. uk_UA
dc.description.abstract Розробка паралельного групового алгоритму навчання зворотного поширення помилки багатошарового персептрону та дослідження його масштабованості на паралельному комп’ютері загального призначення розглянуті в цій статті. Модель багатошарового персептрону та груповий алгоритм його навчання описані формалізованим чином. Паралельний груповий алгоритм навчання представлено в алгоритмічному вигляді. Дослідження масштабованості розробленого паралельного алгоритму здійснено для пропорційно збільшуваного розміру задачі паралелізації на паралельному комп’ютері загального призначення NEC TX-7. uk_UA
dc.language.iso en uk_UA
dc.publisher Інститут проблем штучного інтелекту МОН України та НАН України uk_UA
dc.subject Нейросетевые и нечеткие системы uk_UA
dc.title Scalability of Parallel Batch Pattern Neural Network Training Algorithm uk_UA
dc.title.alternative Масштабированность параллельного группового алгоритма обучения нейронной сети uk_UA
dc.title.alternative Масштабованість паралельного групового алгоритму навчання нейронної мережі uk_UA
dc.type Article uk_UA
dc.status published earlier uk_UA
dc.identifier.udc 681.3


Файли у цій статті

Ця стаття з'являється у наступних колекціях

Показати простий запис статті

Пошук


Розширений пошук

Перегляд

Мій обліковий запис