ПОЗНАВАТЕЛЬНОЕ Сила воли ведет к действию, а позитивные действия формируют позитивное отношение Как определить диапазон голоса - ваш вокал
Игровые автоматы с быстрым выводом Как цель узнает о ваших желаниях прежде, чем вы начнете действовать. Как компании прогнозируют привычки и манипулируют ими Целительная привычка Как самому избавиться от обидчивости Противоречивые взгляды на качества, присущие мужчинам Тренинг уверенности в себе Вкуснейший "Салат из свеклы с чесноком" Натюрморт и его изобразительные возможности Применение, как принимать мумие? Мумие для волос, лица, при переломах, при кровотечении и т.д. Как научиться брать на себя ответственность Зачем нужны границы в отношениях с детьми? Световозвращающие элементы на детской одежде Как победить свой возраст? Восемь уникальных способов, которые помогут достичь долголетия Как слышать голос Бога Классификация ожирения по ИМТ (ВОЗ) Глава 3. Завет мужчины с женщиной
Оси и плоскости тела человека - Тело человека состоит из определенных топографических частей и участков, в которых расположены органы, мышцы, сосуды, нервы и т.д. Отёска стен и прирубка косяков - Когда на доме не достаёт окон и дверей, красивое высокое крыльцо ещё только в воображении, приходится подниматься с улицы в дом по трапу. Дифференциальные уравнения второго порядка (модель рынка с прогнозируемыми ценами) - В простых моделях рынка спрос и предложение обычно полагают зависящими только от текущей цены на товар. | Простейшие нейрокомпьютеры В простейшем случае нейрокомпьютер представляет собой сеть элементарных процессоров (ЭП), называемых по биологической терминологии нейронами, объединенных в одно- или многослойную структуру. В идеальном случае все нейроны связаны между собой линиями передачи данных по принципу «каждый с каждым». Нейрон, получив данные от других нейронов, с которыми он связан, выполняет вычисления некоторой функции F, значениями которой могут быть в простейшем случае 0 либо 1. Связям, идущим от других нейронов к некоторому i-му нейрону, присваиваются весовые коэффициенты Wi. Эти весовые коэффициенты, умноженные на значения, поступающие от других нейронов, суммируются, и полученная сумма становится аргументом функции, вычисляемой принимающим нейроном. В каждый момент времени все нейроны работают одновременно, обеспечивая максимальный параллелизм нейрокомпьютерной системы. Схематически один i-тый элементарный процессор (ЭП) нейросети,илинейрон, можно представить так, как это показано на рис.6.6. Используемые на рис. 6.6 обозначения, имеют следующий смысл: Wji - веса, поступающие на i-ый ЭП от j-ого ЭП. Величины Хij обозначают значение функции Fi, рассылаемое другим нейронам, связанным с данным. Рис. 6.6. Схема нейрона (процессорного элемента нейрокомпьютера) Веса назначаются при подготовке (настройке) нейросети к работе. Эта настройка происходит по некоторым алгоритмам «обучения» сети. В качестве функция Fi(xi)=Xi чаще всего используют пороговую функцию, принимающую значения 0 или 1, и определяемую следующим образом: | (6.3) | Параметр Viназывается порогом. Пороговая функция переводит нейрон в два состояния - активное или пассивное. Функция Fi(xi)=Xi называетсяиначе функцией активации. Нейрокомпьютерная сеть обычно работает по тактам (дискретно). За такт происходит вычисление одновременно всех функций Fi(xi)=Xi При этом новые значения этих функций будут участвовать в следующем такте работы нейронной сети. Если функции Fi(xi)=Xi таковы, что могут принимать только два значения, например 0 или 1, то они называются бинарными. Нейрон, принявший значение 0, становится пассивным. Это равносильно тому, что он как бы перестает передавать информацию другим, связанным с ним нейронам. Во многих нейросетях полагают все функции Fi однотипными для всех нейронов. В нейросетевых вычислениях значение выхода функции Fi(xi)=Xi не обязательно дискретно, и не обязательно определяется порогом. Функция активации Fi может быть задана аналитически различным образом (например, в виде линейной функции или сигмоиды). Считается, что сеть пришла в равновесное состояние, когда от шага к шагу ее работы перестают изменяться значения выходов. Это эквивалентно тому, что некий итерационный процесс сошелся. Распределяя нужным образом веса связей и варьируя правила вычисления функций всех узлов, можно настраивать такую сеть на решение широкого круга задач указанных выше классов. Нейронные сети можно «обучать», автоматически изменяя веса и значения порогов таким образом, чтобы на обучающих примерах сеть давала правильный ответ на поставленный вопрос. В этом случае можно надеяться на то, что сеть будет давать правильные ответы на аналогичные вопросы, касающиеся других объектов с другими параметрами. Рис. 6.7. Систематизация архитектур сетей прямого распространения и рекуррентных (с обратной связью) |