Автор: Николай Камынин
Как известно , нейронные сети строятся на основе модели нейрона мозга, предложенной Розенблаттом в 1957 году и названной им персептроном.

Простейший классический персептрон содержит элементы трех типов , назначение которых в целом соответствует нейронам рефлекторной нейронной сети.
S-элементы формируют сетчатку сенсорных клеток, принимающих сигналы от внешнего мира. Далее сигналы поступают в слой ассоциативных или A-элементов .
А- элементы, выполняют нелинейную обработку информации и имеют изменяемые веса связей.
R-элементы с фиксированными весами формируют сигнал реакции персептрона на входной сигнал.
Каждый нейрон персептрона является пороговым элементом, принимающим единичные значения в случае, если суммарный взвешенный вход больше некоторого порогового значения:

Таким образом, при заданных значениях весов и порогов, нейрон имеет определенное значение выходной активности для каждого возможного вектора входов. Множество входных векторов, при которых нейрон активен (y=1), отделено от множества векторов, на которых нейрон пассивен (y=0) гиперплоскостью, уравнение которой есть, суть:

Следовательно, нейрон способен отделить только такие два множества векторов входов, для которых имеется гиперплоскость, отсекающая одно множество от другого. Такие множества называют линейно разделимыми.
Применяя различные хитроумные преобразования к входным данным теоретически можно разделить образы сложной нелинейной поверхностью.
Такой же эффект можно получить, используя последовательное включение персептронов.
Доказано, что такой элемент способен обучаться. Т е. предъявляя обучающие сигналы и перестраивая весовые коэффициенты мы можем достигнуть такого устойчивого состояния, что на новые данные, подобные обучаемым, но не совпадающие с ними, персептрон будет реагировать также как на обучающую последовательность.
Далее следует мечта .
Если набрать таких персептронов много и их обучить, то получим систему способную распознать новые образы, похожие на обучающиеся.
А теперь, давайте подумаем немного о способностях такого разума.
В человеческом мозгу десятки миллиардов таких персептронов с десятками миллионов взаимных связей. Допустим Вы сможете создать сеть у которой будет тысяча узлов и тысяча сигналов на входе. Т.е. получится такой убогий мозг, который по своей убогости превзойдет все известные живые существа. И вот такой мозг Вы будете пытаться научить на основе первичной информации из ценовых графиков построить законы движения и предсказания рынков.
Вопрос. Какой шанс, что эта нейронная сеть способно обучится на уровне среднего трейдера?
Я думаю, что шансов значительно меньше, чем выиграть в телевизионный лохотрон.
По-моему мнению, есть только два способа повышающие вероятность успеха создания торговых роботов на основе нейронных сетей.
Первый способ заключается в существенном увеличении вычислительной мощности компьютера.
Это многопроцессорные компьютеры ( процессоров не менее 1000 ), такой супер компьютер для индивидуального применения сейчас стоит примерно 15 тысяч евро.
Второй способ заключается в выявлении законов движения рынков и программирование сетей на основе баз знаний, включающих эти законы.
Как говорится, -“Ученье и труд – все перетрут”
Успехов Всем.