Сентябрь лишь начался, а робот Федя показывает странные результаты.

nk_2014_9_001

 

 

 

 

 

 

 

—————————————————————————————————

За неполных два дня  показывает 11% профита.

Такие высокие показатели были характерны для 2008 и 2009 годов.

 

 

 

 

 

 

 

 

 

 

 

 

Не очень часто, но пишущие мне иногда интересуются как построить робота.

Поэтому решил кое-что рассказать.

Давным- давно, одним из первых подходов в создании прогнозирующих систем,  который я изучил, был Метода Группового Учета Аргументов (МГУА) Ивахненко А.Г., Ивахненко Г.А.

Подходы , изложенные в данном методе послужили отправной точкой в дальнейших моих исследованиях и разработках в этой области.

Помятуя это,  я в свою очередь, предлагаю желающим строить умных роботов начать с освоения МГУА.

Привожу кратко один из обзоров по задачам, которые решаются в настоящее время с помощью МГУА.

———————————————————————————

Решение  практических  задач  и  разработка  теоретических  вопросов  Метода  Группового  Учета Аргументов (МГУА),  привели  к  появлению  широкого  спектра  вычислительных  алгоритмов, каждый  из  которых  предназначен  для  определенных  условий  применения.

Выбор алгоритма  зависит  как  от  точности  и  полноты  информации,  представленной  в  выборке экспериментальных данных, так и от вида решаемой задачи.

Предварительно опишем основные черты рассматриваемых алгоритмов.

1.1. Полиномиальная опорная функция.

Метод основан на переборе, т.е. последовательном опробовании  моделей,  выбираемых  из  множества  моделей-кандидатов  по  заданному  критерию.

Почти все известные алгоритмы МГУА используют полиномиальные  опорные  функции.

Общая связь  между  входными  и  выходными  переменными  находится  в  виде  функционального  ряда Вольтерра, дискретный аналог которого известен как полином Колмогорова-Габора.  Применяются различные опорные функции, например гармонические или логистические.

Сложность структуры модели оценивается по числу используемых членов полинома.

Переборная процедура состоит в расчете критерия при постепенном изменении структуры модели.

1.2.Перебор моделей по группам равной структуры.

Будучи итерационным методом,  МГУА близок  к  методу  выбора  лучшей  регрессии,  однако  отличается  от  него  целесообразной организацией поиска оптимальной структуры модели и, кроме того, применением как внутренних, так и особых внешних критериев перебора.

Модели перебираются по группам или рядам равной сложности структуры и для каждого ряда находится лучшая по критерию модель.

Теоретически доказано, что при зашумленых данных и короткой выборке минимум математического ожидания внешнего критерия единственен.

Единственность  минимума  сохраняется  и  при  достаточно  больших  группах  моделей,  что  и используется для выбора единственной оптимальной модели.

Если же модели оценивать по одной,  то найти оптимальную модель практически невозможно.

1.3. Внешние и внутренние критерии.

Напомним, что критерий называется внутренним, если он  рассчитывается  по  всей  выборке  данных.  Внешний  критерий  рассчитывается  по  новой информации,  которая  не  была  использована  для  оценки  коэффициентов  модели.

Например,  для расчета  критерия  регулярности  точки (строки)  выборки  ранжируются  по  дисперсии  и  каждая третья  точка  поступает  в  проверочную  подвыборку,  служащую  для  оценки  структуры  модели.

Остальные точки выборки используются для оценки коэффициентов моделей.

1.4.  Физические  и  нефизические  модели.

По  структуре  алгоритмы  МГУА  близки  к алгоритмам  самообучения  многорядных  систем  распознавания  образов — к  перцептронам  или нейросетям.

Существенное  отличие  состоит  в  том,  что  полиномиальные  алгоритмы  МГУА оперируют  с  непрерывными  переменными.  Дискретный  характер  выходной  переменной перцептрона,  указывающей  принадлежность  данного  изображения  к  тому  или  иному  образу, исключает  возможность  более  тонкого  учета  неточности  распознавания  для  выбора  структуры перцептрона.

После  дискретизации  или  кластеризации  получение  нефизических  моделей исключено.  Только  непрерывные  переменные  позволяют  найти  минимум  внешнего  критерия, определяющий оптимальную структуру нефизических моделей.

Физическая  модель  соответствует  понятию  математического  описания,  принятого  в математической физике. Иногда физической моделью объекта также называют ее аппроксимацию при  помощи  полиномов  или  на  языке  кластеризаций.

Физическая  модель — единственная  для каждого объекта и языка его описания.

Основной  результат  теории  МГУА  состоит  в  том,  что  при  неточных  зашумленых  данных  и коротких выборках минимум критерия указывает так называемую нефизическую модель, точность которой  выше  и  структура  которой  проще  структуры  полной  физической  модели.

Нефизические модели можно получить только по МГУА.

Структура  нефизической  модели  тем  проще,  чем  больше  дисперсия  помех.  Увеличение  длины выборки  равносильно  уменьшению  помех.  Структура  нефизической  модели  при  росте  выборки приближается  к  структуре  физической  модели.  Таким  образом  для  данного  объекта  могут существовать много нефизических  моделей,  что  зависит  от  дисперсии  помех  и  длины  выборки.

Нефизические модели получают не только при помощи исключения некоторых членов физической модели,  но  и  случайным  образом,  так  чтобы  получить  более  глубокий  минимум  внешнего критерия.

1.5.  Дедуктивные  и  индуктивные  алгоритмы  МГУА.

Самоорганизацию  моделей  можно определить, как их построение при всемерном уменьшении необходимой априорной информации.

В частности, число указаний автора моделирования уменьшаются до минимума.  В дедуктивных алгоритмах,  называемых  алгоритмами  типа  МГУА, для  перебора  моделей  применяются внутренние  точностные  критерии,  причем  результат  расчета  используется  только  один  раз:  для выбора лучшей модели каждого ряда итерации. Число рядов указывает субъективно эксперт или автор моделирования. Все же объем необходимой априорной информации сравнительно невелик, что позволяет говорить о самоорганизации моделей как по индуктивным, так и по дедуктивным алгоритмам типа МГУА.

В отличие от этого, в индуктивных алгоритмах МГУА, перебор моделей выполняется по внешним точностным  критериям,  причем  результаты  расчета  критерия  используются  два  раза:  как  для выбора  лучших  моделей  каждого  ряда,  так  и  для  объективного  выбора  числа  рядов  итерации.

Оптимальная, наиболее точная нефизическая модель, соответствует минимуму внешнего критерия.

Закономерности  описываемые  дифференциальными  уравнениями  идентифицируются  в  виде  их разностных  аналогов,  т.е.  в  форме  алгебраических  полиномов,  содержащих  запаздывающие аргументы.

1.5.1.  Комбинаторный  алгоритм  МГУА.

Основной  Комбинаторный  алгоритм  МГУА  имеет многорядную  итерационную  структуру.  Его  особенность  состоит  в  том,  что  правило  итерации (частное описание), не остается постоянным, а расширяется с каждым новым рядом.  На первом ряду перебору подлежат все модели простейшей структуры и выбирается некоторое количество F лучших по критерию моделей.

На  втором  ряду  перебираются  модели  более  сложной  структуры,  построенные  для  выходных переменных лучших моделей первого ряда.

На третьем ряду перебору подлежат еще более сложные структуры и  так  далее.  Наращивание  рядов  продолжается  до  тех  пор,  пока  снижается  значение  минимума критерия. При больших значениях «свободы выбора» F=M алгоритм обеспечивает полный перебор всех моделей полиномиального вида.

1.5.2.  Итерационный  многорядный  алгоритм  МГУА.

В  многорядном  алгоритме,  правило итерации (частное описание) остается для всех рядов одним и тем же. Например, на первом ряду используется частное описание  и  так  далее,  т.е.  на  каждом  последующем  ряду  аргументами  служат  выходные  величины предыдущего ряда. При таком способе итерации, часть моделей может пропускаться, что приводит к возможному появлению так называемой «ошибки многорядности».  Существует необходимость исследования  сходимости  процедуры  самоорганизации  моделей  к  результатам,  получаемым  при том же критерии перебора по регрессионному анализу.

1.5.3. Алгоритм Объективного Системного Анализа (ОСА).

В алгоритме подлежат перебору не отдельные уравнения, а системы уравнений, полученные с помощью  неявных  разностных  схем- шаблонов  и так далее. На каждом шагу перемещения разностной схемы (шаблона) вдоль выборки требуется решить систему линейных уравнений. Результат оценивается по свертке критериев рассчитанных для отдельных уравнений.

 ИДЕНТИФИКАЦИЯ  ФИЗИЧЕСКИХ  ЗАКОНОМЕРНОСТЕЙ

Требуется  найти  линейный  по  коэффициентам  полином,  аппроксимирующий  зависимость выходной  величины  от  нескольких  входных  переменных-аргументов  так,  чтобы  получить минимум  заданного  точностного  критерия.  Такой  полином  может  представлять  собой  сумму простых  нелинейных  функций.  Исходная  информация  задана  в  выборке  данных  наблюдений работы объекта.

Традиционный подход к решению задачи состоит в переборе множества моделей-кандидатов для выбора одной из них, лучшей по критерию. Как указывалось, целесообразно организовать перебор моделей  по  группам  равной  структуры,  что  во  многих  случаях  обеспечивает  единственность минимума критерия.

В  случаях  когда  минимум  выражен  не  ясно  можно  применить  вспомогательную  процедуру доопределения  минимума.  Нижняя  часть  переборной  характеристики  аппроксимируется уравнением параболы второй степени и определяется координата минимума параболы: Модель,  соответствующая  минимуму  есть  искомая  нефизическая  модель,  точность  которой оценивается по критерию вариации ошибки прогноза.

При малой дисперсии помех 0 ≤ δ ≤ 0.1 и при длинных выборках, можно применить дедуктивный метод, т.е. выбирать лучшие физические модели из каждой группы по внутреннему критерию, а останов  итераций  поручить  эксперту.

При  более  существенном  шуме  следует  перейти  к специальным способам поиска физической модели. При больших помехах, характерных для плохо обусловленных  объектов,  вместо  самоорганизации  физической  модели  следует  применить алгоритм  поиска  физической  кластеризации  выборки  данных.  Эти  рекомендации  относятся  к решению задачи нахождения и идентификации закономерностей.

2.1.  Специальные  способы  поиска  физической  модели  при  зашумленных  данных  и коротких выборках для идентификации закономерностей.  Для выяснения механизма действия объекта требуется знание его физической модели.  Для ее нахождения используются описываемые ниже алгоритмы, которые основаны на применении критерия баланса переменных.

Критерий  требует  выбора  такой  структуры  модели,  при  которой  она  остается  оптимальной  при последующем поступлении новых наблюдений с объекта. Для расчета критерия баланса выборка делится  на  две  равные  части — подвыборки  А  и  В.  На  каждой  подвыборке  по  Комбинаторному алгоритму МГУА получают ряд постепенно усложняющихся моделей.

Физическая модель находится по критерию сходства или баланса.

При малой дисперсии помех критерий баланса многозначный, т.е. много моделей  дают  его  нулевое  значение.  Для  достижения  единственности (регуляризации)  выбора,разработаны специальные способы:

1.  Для  перебора  моделей  применяется  комбинированный  критерий  равный  сумме  критерия баланса и критерия регулярности, взятого с небольшим весом;

2.  Перебор моделей по критерию баланса переменных для выбора оптимальной модели при другом  способе  регуляризации,  например  при  помощи  наложения  нормального  шума  на исходную выборку данных или сокращения числа используемых строк выборки;

3.  Дискретизация  переменных  заданных  в  выборке  на  небольшое  число  уровней,  с использованием  внутренних  критериев.  Дискретизация  фильтрует  помехи  после  чего минимум критерия указывает только физическую модель;

4.  Экстраполяция  геометрического  места  минимумов (ГММ)  до  его  пересечения  с  осью абсцисс  плоскости  перебора «критерий — сложность  структуры  модели».  При  изменении дисперсии  помех,  а  также  при  изменении  длины  выборки (числа  учитываемых  точек), минимум  точностных  критериев  перемещается  по  ГММ,  что  используется  для экстраполяции ГММ и определения структуры физической модели.

 АППРОКСИМАЦИЯ  МНОГОМЕРНЫХ  ПРОЦЕССОВ

Требуется  при  помощи  перебора  вариантов  найти  многомерную  полиномиальную  функцию времени, которая наиболее точно аппроксимирует функцию представленную в выборке данных.

При  малой  дисперсии  помех  и  длинной  выборке,  для  решения  задачи  можно  применить дедуктивный  метод  самоорганизации  физической  модели.  В  случае  значительной  дисперсии следует применить индуктивный метод с поиском нефизической модели. При большой дисперсии приходится  отказаться  от  полиномиальных  моделей  и  перейти  от  параметрических полиномиальных моделей к непараметрическим кластеризациям и поиску аналогов в предыстории. Эти рекомендации относятся к решению задач аппроксимации и прогнозирования процессов.

 КРАТКОСРОЧНЫЙ  ПОШАГОВЫЙ  ПРОГНОЗ   ПРОЦЕССОВ

Исходная информация — та же что и в задаче аппроксимации процессов: задана выборка данных и указан точностной критерий, внутренний (при малых помехах) или внешний (при значительных).

О  величине  дисперсии  помех  можно  судить  ориентировочно  по  величине  критерия  вариации ошибки  прогноза  выходной  переменной,  которую  можно  рассчитать  только  после  прогноза.

Основное различие решения задач аппроксимации и прогноза состоит в способе расчета критерия.

Для  решения  задачи  аппроксимации  ошибка  рассчитывается  в  каждый  текущий  момент.  Для выбора прогнозирующей модели, ошибка рассчитывается на прогнозе с упреждением на один шаг времени  вперед,  т.е.  для  краткосрочного  прогноза.  Для  выбора  множества  эффективных регрессоров  (аргументов)  и  для  самоорганизации  разностной  прогнозирующей  модели рекомендуется  использовать  Комбинаторный  алгоритм  МГУА  с  учетом  запаздывающих аргументов. Задается полный полином содержащий все аргументы и их запаздывающие значения, измеренные с отставанием на один и два шага.

Для  повышения  точности  прогнозов  следует  расширить  область  регрессии:  в  исходный  полный полином  могут  быть  введены  текущие  и  запаздывающие  значения  других  переменных, коррелированных с прогнозируемой переменной. Рекомендуется также предложить компьютеру на выбор  парные  произведения (ковариации)  аргументов.  Алгоритм  оставит  в  нефизической прогнозирующей модели только те слагаемые, которые обеспечивают наиболее глубокий минимум критерия.

В  случае  слишком  большой  выборки  данных,  рекомендуется  перейти  к  отсчету  времени  по нескольким  шкалам.  Например,  для  прогноза  уровня  воды  в  реке  последний  измерялся  с усреднением по месяцам и годам. Для каждого месяца получена отдельная модель. Модели затем используются  по  очереди,  для  пошагового  прогноза  с  заблаговременностью  в  один  год.

Применение  нескольких  шкал  отсчета  времени  есть  один  из  эффективных  способов  обработки больших массивов данных.

 ДОЛГОСРОЧНЫЙ  ПОШАГОВЫЙ  ПРОГНОЗ

Прогноз называют долгосрочным если его время упреждения равно или больше десяти интервалов (шагов)  измерения  переменных  в  выборке  данных.  На  протяжении  всего  прогноза  критерий вариации ошибки прогноза должен быть меньше единицы. Долгосрочный прогноз получают при помощи многократного повторения одношагового краткосрочного прогноза. Однако, при этом с каждым шагом точность падает. Здесь возникает задача увеличения времени упреждения прогноза.

Кроме  того,  для  многих  структур  разностных  прогнозирующих  моделей  появляется  опасность возникновения самопроизвольных автоколебаний прогноза, с некоторого его шага. Устойчивость разностных схем (называемых шаблонами) подробно исследована в дискретной математике.  Назовем два способа повышения устойчивости:

1)  Применение двух шкал отсчета времени с переходом к неявным шаблонам;

2)  Введение  обратной  связи  исключающей  определенную  строку  в  выборке  после  каждого шага прогноза.

Для  описания  первого  способа   используем  задачу  прогноза  речного  стока,  который измеряется в среднем по месяцам и по годам. Выборка заполняет прямоугольник содержащий 12•N, (M=12)  цифр.  По  Комбинаторному  алгоритму  МГУА  одновременно  получаются  12 помесячных  разностных  моделей.  Исходные  полные  уравнения  соответствуют  Г-образным неявным шаблонам, плечо которых направлено внутрь указанного прямоугольника. Целесообразно  учитывать  только  элементы  прямоугольника  расположенные  по  ортогональным осям.

Второй  способ  обеспечения  устойчивости  применим  только  для  долгосрочного  прогноза стационарных  процессов,  к  которым,  во  многих  случаях,  можно  отнести  процесс  изменения отклонений прогнозируемой величины от средней линии — тренда.  Здесь применяется принцип сохранения  распределения  дискретных  значений  прогнозируемой  переменной.  Согласно принципу, на интервале прогноза, равном по длине выборке исходных данных, должны повторится все  дискреты  и  в  том  же  числе  случаев.  Пошаговый  прогноз  ведется  как  обычно,  но  дискрета, однажды  выбранная  для  прогноза  на  последующих  его  шагах  уже  пропускается.  Выбирается следующая по величине критерия дискрета. Алгоритм использовался для прогноза среднегодового стока р.Волга при дискретизации его уровня на десять значений. При прогнозе многомерных процессов в каждом узле шаблона указываются значения нескольких переменных, что повышает устойчивость долгосрочного пошагового прогноза.

Альтернативой  к  использованию  разностных  уравнений  для  долгосрочного  прогноза  служит гармонический  алгоритм  МГУА. Область  его  применения — одномерные  колебательные процессы.  Колебательность  процессов  можно  оценить  при  помощи  расчета  интеграла интенсивности гармоник.

 ЭКСТРАПОЛЯЦИЯ  ФИЗИЧЕСКИХ  ПОЛЕЙ

Физическое  поле  представляется  прямоугольной  сеткой  измерений,  в  некоторых  узлах  которой указаны значения одной или нескольких коррелированных между собой выходных переменных.

Задача состоит в том, чтобы найти их значения в тех узлах, где они не известны.

Задача ближней экстраполяции на одно деление сетки подобна задаче краткосрочного прогноза на один  шаг  времени  вперед.  Она  решается  по  тем  же  алгоритмам,  причем  в  случае  неточных измерений,  наиболее  точную  экстраполяцию  дает  нефизическая  модель.  Дальняя  экстраполяция подобна  долгосрочному  прогнозу.  Здесь  также  возможны  автоколебания  зависящие  от  выбора разностной схемы, т.е. шаблона.

КЛАСТЕРИЗАЦИЯ ВЫБОРКИ ДАННЫХ И ПОИСКА ФИЗИЧЕСКОЙ КЛАСТЕРИЗАЦИИ, СООТВЕТСТВУЮЩЕЙ ФИЗИЧЕСКОЙ МОДЕЛИ ОБЪЕКТА

Кластеризация  выборки  данных  означает  разделение  ее  на  кластеры,  число  которых  и  состав входящих  в  них  точек  выборки  выбираются  так,  чтобы  каждый  кластер  включал  в  себя компактную группу близко расположенных точек выборки. Каждая точка входит только в один кластер.  Кластеризацию  можно  рассматривать  как  дискретное  описание  объекта.  Среди всевозможных кластеризаций можно найти дискретный аналог физической модели объекта — его физическую кластеризацию.

Перебор вариантов кластеризации реализует алгоритм Объективной Компьютерной Кластеризации (ОКК). Построение иерархического дерева кластеризаций упорядочивает и сокращает перебор, причем  оптимальная  по  критерию  кластеризация  не  теряется.  Физическая  кластеризация находится  по  критерию  баланса  кластеризаций.  Для  расчета  критерия  выборка  делится  на  две равные  части.  На  каждой  подвыборке  строится  дерево  кластеризаций  и  на  каждом  шагу рассчитывается  критерий  баланса  при  одинаковом  числе  кластеров.  Критерий  требует  найти кластеризацию при которой будут совпадать как число так и координаты центров (средних точек) соответствующих друг другу кластеров.

Физическую  кластеризацию  можно  рекомендовать  для  прогноза  процессов  в  случаях  очень больших помех, при  δ2> 0.8, когда уже физическая и нефизическая полиномиальная модель не достаточно  точны.  Кластеризация  позволяет  заменить  задачу  прогноза  многомерных  процессов задачей одномерного прогноза следующих один за другим номеров кластеров. Для такого прогноза подходят алгоритмы эволюционного моделирования.

РАСПОЗНАВАНИЕ ОБРАЗОВ

При решении задачи распознавания образов можно непосредственно применять алгоритмы МГУА, если  перейти  от  дискретной  постановки  задачи  к  использованию  непрерывной  функции принадлежности (membership measure function) изображений к тому или иному образу. Только при непрерывных  переменных  можно  получить  преимущества  нефизических  моделей  и  решающих правил.

Достаточно  известны  два  подхода  к  решению  задачи  распознавания  образов:  статистический  и детерминистский. Переборные  методы  МГУА  реализуют  оба  подхода.  При  статистическом подходе используется Многорядная Теория Статистических Решений (МТСР) для распределений вероятности парных случайных событий.

При детерминистском подходе используется гипотеза компактности.

Критерии  минимума  эмпирического  риска  рассчитывается  на  обучающей  выборке (внутренний критерий) или на отдельной проверочной выборке (внешний критерий). Особенно остро в теории распознавания стоит задача об распознавании новых изображений.

Статистический подход к распознаванию образов решает задачу выбора решающего правила по условию минимизации ошибки как на обучающей выборке, так и на выборке новых изображений, причем априори предполагается достаточность обучающей выборки и малый уровень дисперсии помех. Таким образом, чтобы минимизировать ошибку на новых данных необходимо что-то о них знать.  Детерминистский  подход  также  позволяет  минимизировать  ошибку  на  новых  данных,  но здесь требуется другая априорная информация. Наличие информации определяет выбор подхода.

8.1. Распознавание образов в случае непрерывных переменных. В этом случае возможен учет априорной информации о величине дисперсии помех. Для каждого уровня дисперсии (как и для значительных  изменений  длины  обучающей  выборки  изображений)  можно  пользуясь полиномиальными алгоритмами МГУА найти наиболее точное упрощенное решающее правило, соответствующее  нефизической  модели.  Правило  будет  оптимальным  для  каждого  уровня дисперсии  помех,  т.е.  для  каждого  состояния  объекта  распознавания.  Главное  преимущество нефизических решающих правил в том, что будучи получены на выборке с некоторым уровнем дисперсии помех они остаются оптимальными и на последующей выборке, если уровень помех не изменится.

Непрерывные  переменные  несут  в  себе  информацию  о  помехах,  которая  теряется  при дискретизации  переменных  на  малое  число  уровней.  Устранение  порогов  для  возврата  к непрерывному  измерению  переменных,  а  также  переход  к  непрерывным  функциям принадлежности  каждого  изображения  к  тому  или  иному  образу  позволяет  получить  указанное преимущество.

8.2.  Распознавание  образов  при  дискретных  переменных.  В  этом  случае  можно  учесть априорную информацию о наличии физической кластеризации как на обучающей выборке, так и на выборке новых данных. Выходная переменная, указывающая класс, обычно дискретизирована и потому найти точное нефизическое решающее правило по алгоритмам МГУА нельзя. Приходится пользоваться менее точным физическим решающим правилом (моделью), которая не упрощается при  росте  дисперсии  помех.  Его  можно  найти  многими  способами,  например  при  помощи перебора вариантов по критерию баланса кластеризаций.

Такой способ удобен при использования распознающей системы типа нейросети или перцептрона для  решения  задачи  классификации  изображений.  Поток  изображений,  поступающий  на  вход перцептрона можно разделить на ряд выборок, содержащих равное число изображений. На каждой выборке строится иерархическое дерево кластеризаций. Сравнивая кластеризации двух соседних деревьев, шаг за шагом их построения, по критерию баланса кластеризаций находят общую или физическую  кластеризацию.  Классификация  изображений  возможна  только  при  наличии физической  кластеризации  на  всех  выборках  изображений.  При  самоорганизации  перцептрона предназначенного для классификации изображений, число внутренних А-элементов целесообразно выбрать  равным  числу  кластеров,  а  коэффициенты  связей  с S-элементами  принять  равными координатам  средних  точек (центров)  кластеров.  Такая  настройка  минимизирует  ошибку распознавания на всех выборках, в том числе и на выборке новых данных.

8.3.  Распознавание  и  диагностика  на  основе  Многорядной  Теории  Статистических Решений. Как указывалось, для построения переборных алгоритмов МГУА могут использоваться различные  опорные  функции:  полиномы,  гармонические  или  логистические  функции.  Также находят применение формулы Бейеса или теории статистических решений Вальда.

При разработке алгоритма оказалось, что резкое сокращение объема вычислений апостериорной вероятности достигается, если единичным случайным событием принято не достижение заданного уровня  одной  переменной,  а  достижение  двух  заданных  уровней  двумя  переменными.

Вероятностные  переборные  алгоритмы  МГУА  с  парными  случайными  событиями  нашли применение для медицинской диагностики и для оценки способа лечения назначенного врачом.

8.4. Нейросети с пассивными бинарными или логистическими нейронами (перцептроны).

В  пассивные  нейроны  не  заложен  процесс  оптимизации  множества  входных  переменных.  Оно устанавливается в сложном процессе самоорганизации всей системы многих нейронов в целом. Врезультате полиномиальное решающее правило заменяется кусочно-линейным.

Структурная  оптимизация  по  внешнему  критерию  и  получение  оптимальных  нефизических моделей в перцептронах не предусмотрено. Осуществляется только параметрическая оптимизация при помощи обратного пересчета ошибки (“back propagation”).

По  точности  перцептроны  почти  не  уступают  полиномиальным  алгоритмам  МГУА  если обучающая выборка достаточно длинна, дисперсия помех — мала, а выборка содержит переменные

1 Напомним различие: в первой удельные вероятности событий перемножаются, а во второй — суммируются.

Формулы используются на каждом ряду перебора в соответствии с МТСР дискретизированные  на  малое  число  уровней,  т.е.  в  случаях,  когда  оптимальной  получается физическая  модель.  Преимущество  по  точности  моделей  МГУА  достигается  при  коротких выборках  непрерывных  зашумленых  переменных,  т.е.  в  случае,  когда  оптимальной  получается нефизическая  модель.  Достоинства  перцептронов  и  полиномиальных  алгоритмов  МГУА объединяются в нейросетях с активными нейронами.

 САМООРГАНИЗАЦИЯ МНОГОРЯДНЫХ НЕЙРОСЕТЕЙ С АКТИВНЫМИ НЕЙРОНАМИ

В результате действия описанных выше алгоритмов МГУА достигается высокая точность решения перечисленных задач в заданной области регрессии. Эту область можно расширить при помощи расчета  дополнительных  регрессоров.  Известно,  например,  расширение  множества  регрессоров при помощи расчета парных произведений (ковариаций) или обратных значений переменных. При этом  возникает  задача  выбора  простых  нелинейных  преобразований  входных  переменных  для получения новых, обобщенных признаков. Расчеты показали, что весьма эффективно расширение множества переменных за счет  введения  в  него  выходных  величин,  получаемых  по  алгоритмам МГУА.

Для  реализации  этой  идеи  формируется  нейросеть,  представляющая  собой   коллектив  активных нейронов, каждый из которых действует по алгоритму МГУА. Число нейронов каждого ряда сети равно числу переменных, заданных в выборке. Каждый нейрон прогнозирует одну из переменных.

Выходные переменные каждого ряда добавляются к множеству переменных последующего ряда.

Наращивание рядов происходит до тех пор, пока оно помогает повысить точность аппроксимации или прогноза интересующей нас выходной переменной.

Для одной переменной следует построить несколько рядов, а для другой — построение сети может не  потребоваться  вовсе.  Учитывая  ограниченные  возможности  компьютеров,  вместе  с расширением  множества  переменных  на  каждом  ряду  сети  происходит  его  сужение  за  счет исключения  переменных  оказавшихся  малоэффективными  на  предыдущих  рядах.  В  обычных алгоритмах МГУА полное множество переменных выбирается только один раз. В нейросети такой выбор  происходит  на  каждом  ряду  при  помощи  введения  процедуры “расширение-сужение” множества переменных.

Нейросеть  предназначена  для  решения  той  же  задачи,  которую  решают  ее  нейроны:  если используются алгоритмы МГУА, то нейросеть решает задачу аппроксимации или прогноза. Если в качестве активных нейронов используются перцептроны или другие распознающие системы, то и нейросеть в целом решает эту же задачу распознавания образов, но решает ее более точно,  чем входящие  в  нее  нейроны.  Прогнозирующая  нейросеть  служит  средством  увеличения  времени упреждения пошагового прогноза. Это время равно числу шагов при которых критерий вариации  δ< 1.0.

Нейросети  с  активными  нейронами  дважды  многорядны:  многорядные  нейроны  соединены  в многорядную сеть. Построение нейросети на каждом шагу прогноза увеличивает точность каждого шага и тем самым удлиняет время упреждения.

Преимущество  нейросети  с  активными  нейронами,  по  сравнению  с  обычной  нейросетью  с бинарными  нейронами  состоит  в  том,  что  самоорганизация  сети  упрощается:  каждый  нейрон находит требуемые связи сам, в процессе своей самоорганизации. Таким образом, решается одна из трудных задач теории построения искусственного интеллекта.

НОРМАТИВНЫЙ ПРОГНОЗ ПРОЦЕССОВ ПРИ ПОМОЩИ УПРОЩЕННОГО ЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ И СПЕЦИФИКАЦИИ ОГРАНИЧЕНИЙ ПО АЛГОРИТМАМ МГУА

Спецификация ограничений области оптимизации представляет собой основное затруднение при практическом применении линейного программирования. Согласно работе, она может быть выполнена  по  алгоритмам  МГУА.  В  результате  получается  аппарат,  который  можно рекомендовать как основной для нормативного прогноза («если — то») процессов и компьютерного управления  разомкнутыми  объектами . Особенно  перспективно  применение  алгоритма упрощенного  линейного  программирования,  при  котором  число  регулируемых  входных переменных  выбирается  равным  числу  оптимизируемых  выходных  переменных.  Отпадает необходимость  перебора  вершин  области  оптимизации  и  применения  симплекс-метода,  т.к. оптимальный режим единственный.

10.1.  Нормативный  векторный  прогноз  результатов  физических  экспериментов.  Задача состоит  в  том,  чтобы  зная  значения  множества  переменных,  измеренных  до  проведения эксперимента,  определить  значения  переменных  другого  множества,  измеренных  после эксперимента.  Необходимая  для  решения  такой  задачи  многомерная  функция  задана  в  виде выборки  наблюдений  небольшого  числа  экспериментов. Выборка  обрабатывается  по алгоритму упрощенного линейного программирования со спецификацией ограничений по МГУА.

10.2.  Нормативный  векторный  прогноз  для  макроэкономической  системы. Переменные характеризующие систему делятся на три множества:

.  регулируемые переменные, которые можно назначать (налоги, учетные ставки, проценты на депозиты, выпуск денежной массы и т.п.);

.  переменные, которые требуется оптимизировать (национальный доход, расход ресурсов и т.п.); и .  внешние возмущающие воздействия (мировые цены на нефть и т.п.).

По  закону  необходимого  разнообразия  число  входных  переменных (а)  должно  быть  не  меньше числа  выходных  переменных (б).  Закон  соблюдается  при  применении  упрощенного  алгоритма линейного  программирования. Методика  его  применения  предусматривает  ряд  попыток или  сценариев.  Назначив  слишком  хорошие  результаты  прогноза,  мы  получим  невыполнимые соотношения  значений  выходных  переменных.  В  качестве  оптимального  образца  берут  лучшее соотношение регулирующих переменных из предыстории.

10.3.  Поддержка решений в системах автоматического управления разомкнутыми

объектами.  Интервал  оптимизации  определяется  как  отрезок  времени,  на  котором  заданы значения  управляемых  выходных  переменных (ресурсов)  и  для  которого  следует  найти оптимальные  значения  регулирующих  воздействий.  Для  макроэкономических  систем  интервал оптимизации может быть равен кварталу или году. Если период собственных колебаний системы во много раз превышает интервал, отведенный на оптимизацию, то целесообразно рассматривать только  задачу  поведения  объекта  в  пределах  этого  интервала,  т.е.  считать  объект  разомкнутым или,  точнее  говоря  квази разомкнутым.  Задача  управления  сводится  к  расчету  вектора регулирующих переменных на один или несколько шагов.

Для  управления  разомкнутыми  объектами  можно  применить  алгоритмы  математического программирования  с  использованием  алгоритмов  пошагового  прогноза.  Компьютерное автоматическое управление разомкнутыми объектами включает в себя два этапа: на первом этапе необходимо получить краткосрочный прогноз внешних возмущений на один шаг времени вперед, на  втором  этапе  выполняется  расчет  оптимальных  значений  регулирующих  переменных  по упрощенному алгоритму линейного программирования с применением МГУА для спецификации ограничений.  Управление  должно  быть  многомерным  или  векторным,  с  соблюдением  закона необходимого разнообразия: число регулирующих переменных должно быть равно или не меньше числа  оптимизируемых  переменных.  Для  оптимизации  работы  объекта  на  длительный  срок требуется долгосрочный пошаговый (или гармонический) прогноз возмущающих воздействий.

БЕЗМОДЕЛЬНОЕ ПРОГНОЗИРОВАНИЕ ПРОЦЕССОВ ПРИ ПОМОЩИ КОМПЛЕКСИРОВАНИЯ АНАЛОГОВ

Состояние  сложного  объекта  описывается  вектором  характеристических  переменных представленных в выборке данных наблюдений. Для того, чтобы узнать прогноз, достаточно найти один  или  несколько  близких  аналогов  его  состояния  в  предыстории  и  посмотреть  что  было дальше. При этом модель объекта не нужна, ее роль выполняет сам объект. Прогноз по аналогам из  предыстории  разрабатывался  в  метереологии  для  прогноза  погоды.  В  модифицированном алгоритме Комплексирования аналогов подлежат переборной оптимизации дискретные значения следующих параметров: а) варианты множества входных переменных; б) число моментов времени учитываемых в аналогах; в) число комплексируемых аналогов; г) значения коэффициентов веса с которыми аналоги комплексируются, т.е. суммируются.

Взаимосвязанные параметры (б) и (в) приходится перебирать на плоскости двух параметров, что увеличивает  объем  вычислений.  Перебор  параметров  алгоритма  прогноза  выполняется  один  раз для объектов каждого нового типа.