Наукова електронна бібліотека
періодичних видань НАН України

On the finite convergence of the NN classification learning on mistakes

Репозиторій DSpace/Manakin

Показати простий запис статті

dc.contributor.author Norkin, V.I.
dc.date.accessioned 2022-08-26T14:01:50Z
dc.date.available 2022-08-26T14:01:50Z
dc.date.issued 2022
dc.identifier.citation On the finite convergence of the NN classification learning on mistakes / V.I. Norkin // Доповіді Національної академії наук України. — 2022. — № 1. — С. 34-38. — Бібліогр.: 10 назв. — англ. uk_UA
dc.identifier.issn 1025-6415
dc.identifier.other DOI: doi.org/10.15407/dopovidi2022.01.034
dc.identifier.uri http://dspace.nbuv.gov.ua/handle/123456789/184927
dc.description.abstract The paper establishes an analog of well-known Novikoff’s theorem on the perceptron learning algorithm’s finite convergence in linearly separated classes. We obtain a similar result concerning the nearest neighbor classification algorithm in the case of compact classes in a general metric space for the case of non-intersecting classes. The learning process consists of gradual modification of the algorithm in misclassification cases. The process is studied in the deterministic setting. Classes are understood as compacts in complete metric space, and class separation is defined as the non-intersection of compacts. The number of learning steps is bounded by the number of elements in some ε-net for the considered classes. uk_UA
dc.description.abstract Встановлено аналог відомої теореми Новікова про скінченну збіжність алгоритму навчання персептрона у випадку лінійно розділених класів. Ми отримуємо аналогічний результат щодо алгоритму класифікації за принципом найближчого сусіда у випадку компактних класів у загальному метричному просторі для класів, що не перетинаються. Процес навчання полягає у поступовій модифікації алгоритму у випадках помилкової класифікації. Процес вивчається в детермінованій постановці. Класи розуміються як компакти в повному метричному просторі. Розділення класів визначається як неперетин компактів. Кількість кроків навчання обмежена числом елементів в деякій ε-сітці для розглянутих класів. uk_UA
dc.description.sponsorship The work was supported by the grant of the National Research Foundation of Ukraine No. 2020.02/0121 “Analytical methods and machine learning in control theory and decision-making in conditions of conflict and uncertainty”. uk_UA
dc.language.iso en uk_UA
dc.publisher Видавничий дім "Академперіодика" НАН України uk_UA
dc.relation.ispartof Доповіді НАН України
dc.subject Інформатика та кібернетика uk_UA
dc.title On the finite convergence of the NN classification learning on mistakes uk_UA
dc.title.alternative Про скінченну збіжність процесу навчання NN класифікації на помилках uk_UA
dc.type Article uk_UA
dc.status published earlier uk_UA
dc.identifier.udc 519.7


Файли у цій статті

Ця стаття з'являється у наступних колекціях

Показати простий запис статті

Пошук


Розширений пошук

Перегляд

Мій обліковий запис