Показати простий запис статті
dc.contributor.author |
Самолюк, Т.А. |
|
dc.date.accessioned |
2018-03-23T19:41:31Z |
|
dc.date.available |
2018-03-23T19:41:31Z |
|
dc.date.issued |
2017 |
|
dc.identifier.citation |
Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей / Т.А. Самолюк // Комп’ютерні засоби, мережі та системи. — 2017. — № 16. — С. 97-105. — Бібліогр.: 14 назв. — рос. |
uk_UA |
dc.identifier.issn |
1817-9908 |
|
dc.identifier.uri |
http://dspace.nbuv.gov.ua/handle/123456789/131514 |
|
dc.description.abstract |
Проанализированы стохастические градиентные методы оптимизации обучения искусственных нейронных сетей. Значительное внимание уделено методу SAG (стохастического среднего градиента). |
uk_UA |
dc.description.abstract |
Проаналізовано стохастичні градієнтні методи оптимізації навчання штучних нейронних мереж. Значна увага приділена методу SAG (стохастичного середнього градієнта). |
uk_UA |
dc.description.abstract |
Stochastic gradient methods for optimizing the learning of artificial neural networks are analyzed. Considerable attention is paid to the SAG (stochastic mean gradient method). |
uk_UA |
dc.language.iso |
ru |
uk_UA |
dc.publisher |
Інститут кібернетики ім. В.М. Глушкова НАН України |
uk_UA |
dc.relation.ispartof |
Комп’ютерні засоби, мережі та системи |
|
dc.title |
Исследование стохастических градиентных методов оптимизации алгоритмов обучения искусственных нейронных сетей |
uk_UA |
dc.title.alternative |
Study of stochastic gradient methods for optimization of algorithms of learning artificial neural networks |
uk_UA |
dc.type |
Article |
uk_UA |
dc.status |
published earlier |
uk_UA |
dc.identifier.udc |
519. 7004. 62 |
|
Файли у цій статті
Ця стаття з'являється у наступних колекціях
Показати простий запис статті