Рассмотрена задача поиска дискриминантной функции оптимальной сложности в условиях неза-
висимых признаков. Рассмотрен способ сравнения дискриминантных функций, который основан на
разбиении наблюдений на обучающие и проверочные подвыборки: обучающие подвыборки используются
для оценивания коэффициентов дискриминантной функции, а проверочные подвыборки – для оценивания
ее качества классификации. В данной статье общие результаты, полученные автором, применены для
частного случая, когда признаки статистически независимы.
Розглянуто задачу пошуку дискримінантної функції оптимальної складності в умовах незалежних ознак.
Розглянуто спосіб порівняння дискримінантних функцій, що заснований на розбивці спостережень на
навчальні і перевірні підвибірки: навчальні підвибірки використовуються для оцінювання коефіцієнтів
дискримінантної функції, а перевірні підвибірки – для оцінювання її якості класифікації. У даній статті
загальні результати, які отримані автором, застосовані для часткового випадку, коли ознаки статистично
незалежні.
The problem of search of a discriminant function of optimum complexity in conditions of independent
futures is considered. Comparison of quality of discriminant functions is based on partition of initial sample
of the data on learning and checking parts: on learning subsample the coefficients of discriminant functions
estimate, and on checking subsample the quality of discriminant functions estimate. In the given article the
general rezults obtained by the author, are applied for a particular case, when the futures are statistically
independent.