Показати простий запис статті
dc.contributor.author |
Крыжановский, Б.В. |
|
dc.contributor.author |
Крыжановский, В.М. |
|
dc.date.accessioned |
2010-03-24T18:12:54Z |
|
dc.date.available |
2010-03-24T18:12:54Z |
|
dc.date.issued |
2008 |
|
dc.identifier.citation |
Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами / Б.В. Крыжановский, В.М. Крыжановский // Штучний інтелект. — 2008. — № 3. — С. 540-547. — Бібліогр.: 13 назв. — рос. |
uk_UA |
dc.identifier.issn |
1561-5359 |
|
dc.identifier.uri |
http://dspace.nbuv.gov.ua/handle/123456789/7148 |
|
dc.description.abstract |
Практическое применение q-нарных моделей Поттса осложняется высокими требованиями к оперативной
памяти (необходимо 32N^2q^2 бит, где N – число нейронов, q – число состояний нейрона). В работе
исследуется модифицированная модель Поттса с бинаризованными синаптическими коэффициентами.
Процедура бинаризации позволяет в 32 раза уменьшить размер требуемой оперативной памяти (N^2q^2 бит) и
более чем в q раз ускорить алгоритм. Ожидалось, что бинаризация приведет к ухудшению распознающих
характеристик. Однако анализ показал неожиданные результаты: процедура бинаризации приводит к
увеличению объема нейросетевой памяти в 2 раза. Полученные результаты согласуются с проведенными
экспериментами. |
uk_UA |
dc.description.abstract |
Практичне застосування q-нарних моделей Поттса ускладнюється високими вимогами до оперативної
пам’яті (необхідно 32N^2q^2 біт, де N – число нейронів, q – число станів нейрона). У роботі досліджується
модифікована модель Поттса з бінаризованими синаптичними коефіцієнтами. Процедура бінаризації
дозволяє в 32 рази зменшити розмір необхідної оперативної пам’яті (N^2q^2 біт) і більш ніж в q разів
прискорити алгоритм. Очікувалося, що бінаризація призведе до погіршення розпізнавальних характеристик.
Проте аналіз показав несподівані результати: процедура бінаризації приводить до збільшення об’єму
нейромережної пам’яті в 2 рази. Отримані результати узгоджуються з проведеними експериментами. |
uk_UA |
dc.description.abstract |
Practical applications of q-state Potts models are complicated, as they require very large RAM (32N^2q^2 bits,
where N is the number of neurons and q is the number of the states of a neuron). In this work we examine a
modified Potts model with binarized synaptic coefficients. The procedure of binarization allows one to make
the required RAM 32 times smaller (N^2q^2 bits), and the algorithm more than q times faster. One would expect
that the binarization worsens the recognizing properties. However, our analysis shows an unexpected result:
the binarization procedure leads to the increase of the storage capacity by a factor of 2. The obtained results
are in a good agreement with the results of computer simulations. |
uk_UA |
dc.description.sponsorship |
Работа поддержана грантом РФФИ (06-01-00109). |
uk_UA |
dc.language.iso |
ru |
uk_UA |
dc.publisher |
Інститут проблем штучного інтелекту МОН України та НАН України |
uk_UA |
dc.subject |
Нейросетевые и нечеткие системы |
uk_UA |
dc.title |
Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами |
uk_UA |
dc.title.alternative |
Модифікована q-нарна модель Поттса з бінаризованими синаптичними коефіцієнтами |
uk_UA |
dc.title.alternative |
Modified q-state Potts Model with Binarized Synaptic Coefficients |
uk_UA |
dc.type |
Article |
uk_UA |
dc.status |
published earlier |
uk_UA |
dc.identifier.udc |
681.3 |
|
Файли у цій статті
Ця стаття з'являється у наступних колекціях
Показати простий запис статті