Главная Промышленная автоматика.

s = 12,5ei + 25e2, s <u„

Один из способов синтеза нечеткого управления основан на аппроксимации непрерывного закона управления ступенчатой функцией (рис.11.24, а). В результате на фазовой плоскости (ei. €2) можно построить области, имеющие значения сигнала управления из ступенчатой кривой рис.11.24, б. В окрестности прямой S = О получим uij = О, а в промежутке между прямыми s = VI s = Um сигнал управления принимает значения из ступенчатой характеристики, как показано на рис.11.24, а.

,«2


Рис.11.24. Замена непрерывного сигнала ступенчатым (а) и фазовая плоскость системы с нечетким управлением (б)

Преимущество нечеткого управления перед непрерывным заключается в простоте его программной реализации, так как оно не требует арифметических действий, а также в возможности изменять параметры управляющего устройства без изменения программы.

11.9. ПРИМЕНЕНИЕ ИСКУССТВЕННОЙ НЕЙРОННОЙ СЕТИ В КАЧЕСТВЕ УПРАВЛЯЮЩЕГО УСТРОЙСТВА

Искусственный нейрон показан на рис.11.25. Он содержит весовой сумматор, на входы которого поступают составляющие

12.....входного вектора х . Весовые множители Wij являются

перенастраиваемыми. На выходе сумматора получается величина

S = WyXi + W2X2 + ... + Wnny (11.19)

преобразуемая звеном с нелинейной характеристикой и = f(s) . Активационная функция /(s) может иметь различный вид, но



должна иметь насыщение. Поэтому выходнгся величина нейрона и всегда ограничена по модулю. Возможные типы активационной функции показаны на рис.11.25. Это однополярная или двухпо-лярная релейные характеристики (рис.11.25, б, в)

и = as) =

l,s>0, fl.s>0,

и = sgn s = < 0,s<0, [-l,s<0.

a также гладкие функции рис. 11.25, г, д, описываемые выражениями

exp(s) - exp(-s)

и = f{s) = ths =

и = /(s) = (1 -t- exp(-s))

exp(s) -i- exp(-s)

Кроме того, применяются искусственные нейроны, содержащие звено запаздывания (рис.11.25, е). Возможны непрерывная реализация нейрона и дискретная, когда его состояние изменяется только в фиксированные моменты времени.



Рис.11.25. Искусственный нейрон, а - его структура, б, в, г, д - основные виды активационных функций, е - структура искусственного нейрона со звеном запаздывания

Будучи соединены в сеть, нейроны позволяют решать широкий круг задач, однако основное их назначение - задача классификации и распознавания образов. Отдельно взятый нейрон имеет на выходе высокий либо низкий уровень сигнала в зависимости от того, какой части пространства принадлежит входной вектор. Поскольку выражение (11.19) при s = О есть уравнение гиперплоскости в пространстве переменной х, нейрон позволяет




Рис. 11.26. Искусственная нейронная сеть (ИНС) определить, какому из двух подпространств принадлежит входной вектор, S > О или s < 0.

Искусственная нейронная сеть показана на рис.11.26. В сети нейроны группируются по слоям. Во входной слой поступает входной вектор х, а выходы этого слоя служат входами следующего слоя. Обычно применяется сеть из 2 или 3 слоев. Возможно применение обратных связей, когда выходы последующих слоев соединяются со входами предыдущих.

В зависимости от настройки весовых множителей одна и та же сеть может решать разнообразные вычислительные задачи, содержащие алгебраические, логические операции. Настройка весовых множителей осуществляется в процессе обучения нейронной сети. Существуют методы обучения нейронной сети с учителем и без учителя. Для обучения с учителем используется обучающее множество входных и выходных векторов. Для каждого входного вектора из обучающего множества известен выходной вектор. Настройка весовых множителей заканчивается, когда каждому входному вектору из обучающего множества соответствует требуемый выходной вектор. Если обучающее множество построено правильно, после обучения задача должна правильно решаться для произвольного входного вектора. Примером метода обучения с учителем служит следующее выражение для определения весового множителя на (к + 1)-м шаге:

Здесь а - постоянный вектор, определяющий скорость обучения, Uf, Щ - требуемое и фактическое значения выходного вектора, Xij - входной сигнал звена Wi. Методы обучения без учителя на каждом шаге используют результаты предыдущих шагов. Примером может служить выражение

где щ, Uj - выходы нейронов источника и приемника, а - постоянный коэффициент. В соответствии с последним выражением





0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 [113] 114 115

0.538