Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


Исследование и экспериментальная оптимизация систем управления



 

Постановка задачи

Решение многих задач управления, проектирования, планиро­вания в той или иной мере связано с оптимизацией, т.е. с нахож­дением наилучших в определенном смысле значений различных параметров. Для химического реактора, например, оптимизация означает выбор таких значений температуры, давления, расходов и концентраций компонентов реакции, при которых реакция будет протекать с максимальным выходом целевого продукта, либо про­дукция будет соответствовать определенным требованиям к каче­ству, либо, наконец, реакция будет протекать за минимальное время. Обычно задается некоторый критерий оптимизации (целевая функ­ция) Y, зависящий от ряда управляемых факторов: .Тогда задача оптимизации сводится к отысканию та­ких значений компонентов вектора управляемых факторов , при которых целевая функция достигает экстремума. Функция

образует некоторую поверхность в n+1-мерном пространстве уп­равляемых факторов и целевой функции Y. Эту поверхность обыч­но называют поверхностью отклика, а отдельные значения Y, соот­ветствующие некоторой комбинации компонентов вектора , — просто откликом.

Целевые функции, такие, как производительность, прибыль, час­то связаны с величинами, характеризующими качество продукции. Например, необходимо найти такой режим работы некоторого ап­парата, при котором производительность его будет максимальной, а качество продукции — соответствовать требованиям стандартов. Здесь одна целевая функция, а именно: характеристика качества продукции выступает в роли ограничения. Такого вида ограничения называются функциональными, так как характеристика качества продукции, так же как и целевая функция (производительность), являются некоторыми функциями от вектора управляемых факто­ров . Кроме функциональных ограничений могут быть также и факторные, т. е. ограничения, накладываемые да одну, несколько или все составляющие вектора . Учитывая все вышесказанное, задачу оптимизации в самом общем виде можно записать следу­ющим образом:

Yjmin≤ Yj≤ Yjmax, j=1(1)m;

ximin≤ xi≤ ximax, i=1(1)k, k≤ n.

 

В тех случаях, когда зависимость задана в аналитической форме, координаты оптимальной точки ( ) в фактор­ном пространстве можно найти, решив систему дифференциальных уравнений вида

Такое решение задачи оптимизации возможно в том случае, если отсутствуют факторные и функциональные ограничения. Если ре­шается задача отыскания оптимума при ограничениях, то исполь­зуются методы математического программирования, либо задача поиска условного экстремума с помощью множителей Лагранжа сводится к задаче поиска безусловного экстремума.

Однако в большинстве практических случаев аналитическая зависимость Y(X) неизвестна, и исследователь располагает толь­ко возможностью наблюдать значения отклика при различных комбинациях управляемых факторов . При этом процедура измерения наблюдаемого значения отклика предо­ставляет собой сумму истинного значения отклика и случайной ошибки опыта ε .

У=М{У}+ε.

Для решения задачи оптимизации используют два принципи­ально различных подхода:

1 Оптимальные условия определяют с помощью математичес­кой модели объекта. Для этого вначале каким-либо образом нахо­дят математическую модель, а затем аналитическим или числен­ным методом решают задачу оптимизации.

2. Экспериментальный поиск оптимальных условий осуществля­ют непосредственно на объекте без использования модели объекта.

Поисковые методы, или методы экспериментальной оптимиза­ции, в отличие от аналитических требуют вначале локального изу­чения поверхности отклика по результатам ряда экспериментов, специально спланированных вблизи исходной точки. Точка спект­ра плана в этом случае выбирается, таким образом, который по­зволит организовать движение в направлении экстремума функ­ции отклика. Экстремальное значение функции отклика до­стигается с помощью многократной последовательной процедуры изучения поверхности отклика и продвижения в факторном прост­ранстве. Рассмотрим методы поиска максимума функции отклика (поиск минимума функции отклика ничем принципиально не от­личается).

Все поисковые методы позволяют найти экстремум функции отклика в результате поэтапного движения. На каждом этапе реа­лизуются две операции. Первая операция — исследование поверх­ности отклика в окрестности некоторой точки факторного простран­ства в целях определения направления движения к экстремуму функции отклика. Вторая операция — организация движения к экс­тремуму в выбранном направлении. Все методы поиска экстремума отличаются характером первой или второй операции.

 

Метод Гаусса—Зайделя

 

Метод Гаусса — Зайделя, или метод покоординатного поиска, является классическим методом поиска экстремума функции. По­следовательное движение к экстремуму осуществляют путем пооче­редного варьирования каждым трактором до достижения частного экстремума функции отклика. При этом все остальные факто­ры стабилизируют на некоторых уровнях. Достигнув частного экс­тремума по последнему фактору Хп, переходят к варьированию первым Х1. Направление движения по каждой из координат фак­торного пространства определяют путем постановки в окрестности исходной точки двух пробных опытов с координатами (Хi - дельта Хi) и (Хi + дельта Хi). Движение осуществляется в том направлении, в котором наблюдается большое значение отклика. Идея метода Гаусса — Зайделя может быть показана на примере двухфакторной задачи (рис. 7.1).

Рис. 7.1. Движение к оптимуму методом Гаусса—Зайделя (цифрами обозначены линии равного уровня поверхности от­клика в некоторых относительных единицах)

 

При использовании метода Гаусса — Зайделя для оптимизации двухфакторного процесса последовательность операций следую­щая:

1. Определяется начальная точка Х1 движения к экстремуму функции отклика. В качестве начальной точки выбирается наилуч­шая из известных рабочих точек.

2. Задается шаг варьирования дельта Хi, по каждому управляемому фактору Хi (i = 1, 2).

3. Для определения направления движения первого рабочего цикла (по координате Х1 совершается два пробных опыта с цент­ром в начальной точке, т. е. совершаются два пробных шага в точки в которых производится по одному измерению отклика у.

4. Сравниваются значения отклика в пробных точках и форми­руется функция Sign(Y1 - Y2).

5. Осуществляется первый цикл рабочего движения (с тем же или большим шагом) в направлении возрастания уровня выхода Y(Х).

6. После каждого рабочего шага производится измерение значения отклика Y(Х).

7. Первый цикл рабочего движения прекращается по достижении в некоторой точке Хh частного экстремума функции отклика по соответствующей переменной. Движение к экстремуму в данном направлении прекращается, если выполняется неравенство

Уh+1 < Уh

8. Точка Хh является исходной для следующего цикла рабоче­го движения (по координате Х2). Из данной точки делаются два пробных шага в точки X1 = const

9. Движение вдоль координаты Х2 производится аналогично описанному выше.

10. По окончании второго цикла рабочего движения переходят к третьему (по координате Х1) и т. д.

Критерием окончания поиска оптимума методом Гаусса — Зайделя является неудачная попытка организовать движение из некоторой точки Хk, любое движение из которой приводит к умень­шению значения функции отклика. Данная точка принимается за точку максимума целевой функции, определенную с точностью до максимального шага варьирования дельта Хi.

Эффективность метода Гаусса — Зайделя существенно зависит от вида поверхности отклика и от выбора начальной точки поиска. Данный метод является классическим. Он позволяет, постепенно переходя от одной переменной к другой, при нахождении локального оптимума решать задачу экспериментальной оптимизации.

Однако с ростом числа переменных Хi эффективность метода снижается из-за роста числа опытов на поиск оптимума.

 

Метод градиента

При поиске оптимума (максимума) методом градиента движение осуществляется в направлении наиболее быстрого воз­растания значения отклика, т. е. в направлении градиента функции отклика (целевой функции). Движение по градиенту производит­ся на один шаг, пропорциональный вектору градиента. Направле­ние движения корректируют после каждого рабочего шага, т. е. после каждого шага заново вычисляют значение вектора grad Y(Х) по результатам специально спланированных пробных эксперимен­тов.

Так как компоненты вектора градиента есть не что иное, как коэффициенты при линейных членах разло­жения функции Y(Х) в ряд Тэйлора то степеням Xi (i = 1- n), то их можно получить как линейные коэффициенты регрессии

Grad Y(X) =b1*i1 + b2*i2 + … + bn*in

Для получения оценок линейных коэффициентов регрессии мож­но воспользоваться любым из известных методов эксперименталь­ного получения математической модели объекта. Например, мож­но реализовать ПФЭ и ДФЭ с центром в начальной точке поиска.

Поиск оптимума методом градиента выполняется по следую­щей схеме:

1. Задаются шаги варьирования дельта Xi, для всех управляемых факторов. Величина шага то каждому фактору выбирается из тех же соображений, что и при ПФЭ или ДФЭ.

2. Задается параметр рабочего шага лямбда. Рабочий шаг должен быть пропорционален вектору градиента.

3. В начальной точке поиска Х1, которая выбирается так же, как и в методе Гаусса — Зайделя, реализуется пробный экспери­мент для определения направления первого рабочего шага.

4. По результатам пробного эксперимента вычисляется оценка вектора

Grad Y(X) =b1*i1 + b2*i2 + … + bn*in

5. Совершается рабочий шаг в направлении Grad Y(X).

6. В точке Х2 процедура определения направления дальнейше­го движения к оптимуму полностью повторяется.

 

7. Поиск прекращается, когда модуль градиента у становится малой величиной, т. е. когда оценки коэффициентов регрессии ста­новятся незначимыми.

Достигнутая точка принимается за абсолютный экстремум с точностью до величины последнего рабочего шага. Метод градиен­та более оптимален, чем метод Гаусса — Зайделя в смысле пути движения к оптимуму и в том смысле, что конечный шаг меньше начального (в методе Гаусса—Зайделя—постоянный).

Конечный шаг определяет точность нахождения оптимума.

Характер движения к оптимуму при использовании метода гра­диента показан на рис. 7.3.

Рис. 7.3. Движение к оптимуму методом градиента

Для выбора параметра рабочего шага лямбда необходимо ориентиро­ваться на физические и технологические ограничения, накладыва­емые на факторы. Параметр лямбда выбирают таким образом, чтобы до границы было сделано несколько шагов.

Эффективность метода снижается при работе исследователя в условиях больших погрешностях измерений факторов и с ростом числа самих факторов (более трёх).

 

Метод случайного поиска

Существует множество модификаций случайного поиска. Характерной особенностью случайного поиска является случайный выбор направления движения к экстремуму. Имеются алго­ритмы случайного поиска, в которых информация, полученная на предыдущих этапах, используется для адаптации процедуры поис­ка, что позволяет повысить его эффективность. Рассмотрим один из наиболее простых методов случайного поиска. В этом методе рабо­чий шаг из некоторой точки Хh совершается после пробного экспе­римента в точке

Хh+1 = Хh + p

гдеp - случайный вектор фиксированной длины

Отклики, полученные в точках Хh+1 и Хh, сравниваются, после чего совершается рабочий шаг в точку Хh+1 по направлению вектора p в сторону возрастания отклика. Длина рабочего шага лямбда выбирается большей или равной длине пробного шага р.

Алгоритм метода случайного поиска следующий:

1. Определяется начальная точка поиска Х1 которая выбирается на основе априорной информации и соответствует максимальному из известных значений отклика.

2. Определяются длины соответственно пробного р и рабочего лямбда шагов, причем р больше или равно лямбда.

3. Вычисляются компоненты лямбда1, лямбда2, … лямбда п случайного вектора p, определяющего направление пробного шага из начальной точки

Х1. Вектор лямбда представляет собой случайный вектор длиной р, равно­мерно распределенный на n-мерной сфере.

Указанный способ формирования случайного вектора не обес­печивает строго равномерного распределения его по окружности радиуса р, однако для практических задач такое приближение впол­не достаточно.

4. Производится два пробных эксперимента в точках Х1 и Х1+ лямбда

5. Совершается рабочий шаг в направлении возрастания отклика

6. В точке Х2 повторяется процедура формирования случайного вектора p и совершается рабочий шаг в следующую точку.

 

Рис. 7.6. Движение к оптимуму методом случайного поиска

7. Критерием окончания поиска является возрастание числа не­удачных шагов, т. е. многократное повторение ситуации без улучшения результатов исследований.

Траектория движения к экстремуму методом случайного поиска для двухфакторной задачи показана на рис. 7.6.

Достоинством метода случайного поиска является возможность решения задачи оптимизации с большим числом исследуемых факторов (сто и более), при этом движение к оптимуму начинается уже после проведения первых двух опытов.

Симплексный метод

Симплексный метод поиска оптимума можно для оптимизации одновременно по нескольким выходным параметрам оптимизации. Его применение требует проведения минимального числа опытов для определения направления движения.

Прежде чем перейти к описанию алгоритма симплексного мето­да дадим несколько определений. N-мерным симплексом называет­ся многогранник, образованный в N-мерном пространстве N+1 вер шинами, которые не лежат ни в одном пространстве меньшей раз­мерности. Например, для n = 1 симплексом является отрезок прямой, для n = 2—треугольник, для n = 3—пирамида.

Симплекс называется правильным, если расстояние между все­ми соседними вершинами одинаково. Если отбросить любую верши­ну симплекса и построить новую точку, зеркальную относительно оставшейся грани, то оставшаяся грань и зеркальная точка образу­ют симплекс той же размерности. Правильный симплекс всегда можно получить из произвольного путем преобразования системы координат (в дальнейшем будем рассматривать только правильные симплексы). В симплексном методе поиска оптимума все опыты проводят в точках факторного пространства, являющихся вершинами пра­вильного симплекса.


 

Алгоритм поиска следующий:

1. Выбирается исходная точка поиска из тех же соображений, что

и в ранее рассмотренных методах, В окрестности исходной точки Х^ необходимо построить начальный симплекс. Для построения симп­лекса необходимо прежде всего задать его размер. Размер симплек­са выбирается так же, как и шаг варьирования. Необходимо также задать первоначальное положение симплекса в пространстве. Суще­ствует несколько способов построения исходного симплекса. Рас­смотрим один из них.

 

Рис. 7.6. Симплекс с вершиной (а) и центром (б) в начале координат

 

Длина ребра симплекса / (размер симплекса) здесь принята за еди­ницу. Центр симплекса помещается в начале коор­динат, а h+1 вершина - на оси Хп (рис. 7.6.). Остальные верши­ны располагаются симметрично относительно координатных осей. Координаты вершины определяются матрицей

 

№ вершины Координаты
X1 X2 X3 Xn-1 Xn
- r1 - r2 r3 rn-1 - rn
R1 - r2 r3 rn-1 - rn
R2
n Rn-1 - rn
n+1 Rn

 

При длине ребра симплекса L = 1 величины Ri и ri определяются выражениями


ri = 1/sq{2*i*(i+1)} i = 1, n

 

Ri = 1/sq{2*(i+1)} i = 1, n

 

где sq – квадратный корень.


2. В каждой вершине, координаты которых рассчитываются проводится по одному опыту. Наблюдаемые значения отклика в вершинах симплекса обозначим через Yhi, где h—номер симплекса, i —номер вершины h-го симплекса.

3. Движение к экстремуму осуществляется путем перехода от старого симплекса к новому. В старом симплексе отбрасывается вер­шина с наименьшим откликом и строится новая вершина, «зеркальная» отброшенной относительно оставшейся грани. Оставшаяся грань и зеркальная точка образуют новый симплекс. Координаты зеркальной точки Xi (i =1, п) вы­числяются по формуле


Xh+1, j, i = 2/n * { Xh, 1, i + Xh, 2, i + … + Xh, j-1, i + Xh, j+1, i + … + Xh, h+1, i} - Xh, j, i

 


Для того чтобы найти i-ю координату зеркальной точки, необхо­димо i-е координаты оставшихся точек старого симплекса сложить, умножить на величину 2/п и из полученного результата отбросить i-ю координату отброшенной точки.

4. Если наименьшее значение отклика наблюдается в нескольких вершинах одновременно, то вопрос об отбрасывании той или иной вершины решается случайным образом с равной вероятностью.

5. При движении к оптимуму может возникуть ситуация, когда наименьшее значение отклика наблюдается в зеркальной точке но­вого симплекса. В этом случае необходимо вернуться к предыдуще­му симплексу и отбросить в нем вершину со следующим по малости откликом.

6. Преобразование поступательного движения симплекса во вра­щательное вокруг некоторой точки X* факторного пространства мо­жет свидетельствовать о выходе симплекса в область оптимума. Однако может оказаться, что в этой точке неправильно определено значение отклика. В точке вращения необходимо поставить несколь­ко параллельных опытов. Если в результате такого уточнения наи­большее значение отклика подтверждается, то это означает, что до­стигнута оптимальная область. Если наибольшее значение отклика в точке вращения не подтверждается, то поступают так же, как в п. 5, т. е. возвращаются к предыдущему симплексу и отбрасывают вершину со следующим по малости откликом.

7. При достижении области оптимума размер симплекса умень­шается в 2 раза и движение продолжается по тому же алго­ритму.

8. Оптимум считается достигнутым, если выполняется условие: разброс результатов в вершинах симплекса примерно равна ошибке измерения выходного (оптимизируемого) параметра.

9. В условиях большой ошибки эксперимента рекомендуется в каждой вершине симплекса проводить несколько параллельных опытов и использовать усредненное значение отклика.


Рис. 7.7. Движение к оптимуму симплекс-методом

 

Вопросы для самоконтроля:

1. Нужна ли математическая модель объекта исследования при решении задач экспериментальной оптимизации?

2. Назовите условия целесообразного применения каждого из методов оптимизации.

3. Какой метод работает в условиях больших ошибок измерения факторов?

4. Какой метод успешно работает при большом количестве исследуемых факторов?

5. Как будет двигаться симплекс в условиях ограничений на управляемые факторы?

6. В каком случае Вы выберете градиентный метод оптимизации?

7. Как будет вести себя симплекс в условиях дрейфа области оптимума?

 

 


Поделиться:



Популярное:

Последнее изменение этой страницы: 2016-07-14; Просмотров: 1147; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.062 с.)
Главная | Случайная страница | Обратная связь