Наукова електронна бібліотека
періодичних видань НАН України

Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами

Репозиторій DSpace/Manakin

Показати простий запис статті

dc.contributor.author Крыжановский, Б.В.
dc.contributor.author Крыжановский, В.М.
dc.date.accessioned 2010-03-24T18:12:54Z
dc.date.available 2010-03-24T18:12:54Z
dc.date.issued 2008
dc.identifier.citation Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами / Б.В. Крыжановский, В.М. Крыжановский // Штучний інтелект. — 2008. — № 3. — С. 540-547. — Бібліогр.: 13 назв. — рос. uk_UA
dc.identifier.issn 1561-5359
dc.identifier.uri http://dspace.nbuv.gov.ua/handle/123456789/7148
dc.description.abstract Практическое применение q-нарных моделей Поттса осложняется высокими требованиями к оперативной памяти (необходимо 32N^2q^2 бит, где N – число нейронов, q – число состояний нейрона). В работе исследуется модифицированная модель Поттса с бинаризованными синаптическими коэффициентами. Процедура бинаризации позволяет в 32 раза уменьшить размер требуемой оперативной памяти (N^2q^2 бит) и более чем в q раз ускорить алгоритм. Ожидалось, что бинаризация приведет к ухудшению распознающих характеристик. Однако анализ показал неожиданные результаты: процедура бинаризации приводит к увеличению объема нейросетевой памяти в 2 раза. Полученные результаты согласуются с проведенными экспериментами. uk_UA
dc.description.abstract Практичне застосування q-нарних моделей Поттса ускладнюється високими вимогами до оперативної пам’яті (необхідно 32N^2q^2 біт, де N – число нейронів, q – число станів нейрона). У роботі досліджується модифікована модель Поттса з бінаризованими синаптичними коефіцієнтами. Процедура бінаризації дозволяє в 32 рази зменшити розмір необхідної оперативної пам’яті (N^2q^2 біт) і більш ніж в q разів прискорити алгоритм. Очікувалося, що бінаризація призведе до погіршення розпізнавальних характеристик. Проте аналіз показав несподівані результати: процедура бінаризації приводить до збільшення об’єму нейромережної пам’яті в 2 рази. Отримані результати узгоджуються з проведеними експериментами. uk_UA
dc.description.abstract Practical applications of q-state Potts models are complicated, as they require very large RAM (32N^2q^2 bits, where N is the number of neurons and q is the number of the states of a neuron). In this work we examine a modified Potts model with binarized synaptic coefficients. The procedure of binarization allows one to make the required RAM 32 times smaller (N^2q^2 bits), and the algorithm more than q times faster. One would expect that the binarization worsens the recognizing properties. However, our analysis shows an unexpected result: the binarization procedure leads to the increase of the storage capacity by a factor of 2. The obtained results are in a good agreement with the results of computer simulations. uk_UA
dc.description.sponsorship Работа поддержана грантом РФФИ (06-01-00109). uk_UA
dc.language.iso ru uk_UA
dc.publisher Інститут проблем штучного інтелекту МОН України та НАН України uk_UA
dc.subject Нейросетевые и нечеткие системы uk_UA
dc.title Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами uk_UA
dc.title.alternative Модифікована q-нарна модель Поттса з бінаризованими синаптичними коефіцієнтами uk_UA
dc.title.alternative Modified q-state Potts Model with Binarized Synaptic Coefficients uk_UA
dc.type Article uk_UA
dc.status published earlier uk_UA
dc.identifier.udc 681.3


Файли у цій статті

Ця стаття з'являється у наступних колекціях

Показати простий запис статті

Пошук


Розширений пошук

Перегляд

Мій обліковий запис