Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Исследование и экспериментальная оптимизация систем управления ⇐ ПредыдущаяСтр 8 из 8
Постановка задачи Решение многих задач управления, проектирования, планирования в той или иной мере связано с оптимизацией, т.е. с нахождением наилучших в определенном смысле значений различных параметров. Для химического реактора, например, оптимизация означает выбор таких значений температуры, давления, расходов и концентраций компонентов реакции, при которых реакция будет протекать с максимальным выходом целевого продукта, либо продукция будет соответствовать определенным требованиям к качеству, либо, наконец, реакция будет протекать за минимальное время. Обычно задается некоторый критерий оптимизации (целевая функция) Y, зависящий от ряда управляемых факторов: .Тогда задача оптимизации сводится к отысканию таких значений компонентов вектора управляемых факторов , при которых целевая функция достигает экстремума. Функция образует некоторую поверхность в n+1-мерном пространстве управляемых факторов и целевой функции Y. Эту поверхность обычно называют поверхностью отклика, а отдельные значения Y, соответствующие некоторой комбинации компонентов вектора , — просто откликом. Целевые функции, такие, как производительность, прибыль, часто связаны с величинами, характеризующими качество продукции. Например, необходимо найти такой режим работы некоторого аппарата, при котором производительность его будет максимальной, а качество продукции — соответствовать требованиям стандартов. Здесь одна целевая функция, а именно: характеристика качества продукции выступает в роли ограничения. Такого вида ограничения называются функциональными, так как характеристика качества продукции, так же как и целевая функция (производительность), являются некоторыми функциями от вектора управляемых факторов . Кроме функциональных ограничений могут быть также и факторные, т. е. ограничения, накладываемые да одну, несколько или все составляющие вектора . Учитывая все вышесказанное, задачу оптимизации в самом общем виде можно записать следующим образом: Yjmin≤ Yj≤ Yjmax, j=1(1)m; ximin≤ xi≤ ximax, i=1(1)k, k≤ n.
В тех случаях, когда зависимость задана в аналитической форме, координаты оптимальной точки ( ) в факторном пространстве можно найти, решив систему дифференциальных уравнений вида Такое решение задачи оптимизации возможно в том случае, если отсутствуют факторные и функциональные ограничения. Если решается задача отыскания оптимума при ограничениях, то используются методы математического программирования, либо задача поиска условного экстремума с помощью множителей Лагранжа сводится к задаче поиска безусловного экстремума. Однако в большинстве практических случаев аналитическая зависимость Y(X) неизвестна, и исследователь располагает только возможностью наблюдать значения отклика при различных комбинациях управляемых факторов . При этом процедура измерения наблюдаемого значения отклика предоставляет собой сумму истинного значения отклика и случайной ошибки опыта ε . У=М{У}+ε. Для решения задачи оптимизации используют два принципиально различных подхода: 1 Оптимальные условия определяют с помощью математической модели объекта. Для этого вначале каким-либо образом находят математическую модель, а затем аналитическим или численным методом решают задачу оптимизации. 2. Экспериментальный поиск оптимальных условий осуществляют непосредственно на объекте без использования модели объекта. Поисковые методы, или методы экспериментальной оптимизации, в отличие от аналитических требуют вначале локального изучения поверхности отклика по результатам ряда экспериментов, специально спланированных вблизи исходной точки. Точка спектра плана в этом случае выбирается, таким образом, который позволит организовать движение в направлении экстремума функции отклика. Экстремальное значение функции отклика достигается с помощью многократной последовательной процедуры изучения поверхности отклика и продвижения в факторном пространстве. Рассмотрим методы поиска максимума функции отклика (поиск минимума функции отклика ничем принципиально не отличается). Все поисковые методы позволяют найти экстремум функции отклика в результате поэтапного движения. На каждом этапе реализуются две операции. Первая операция — исследование поверхности отклика в окрестности некоторой точки факторного пространства в целях определения направления движения к экстремуму функции отклика. Вторая операция — организация движения к экстремуму в выбранном направлении. Все методы поиска экстремума отличаются характером первой или второй операции.
Метод Гаусса—Зайделя
Метод Гаусса — Зайделя, или метод покоординатного поиска, является классическим методом поиска экстремума функции. Последовательное движение к экстремуму осуществляют путем поочередного варьирования каждым трактором до достижения частного экстремума функции отклика. При этом все остальные факторы стабилизируют на некоторых уровнях. Достигнув частного экстремума по последнему фактору Хп, переходят к варьированию первым Х1. Направление движения по каждой из координат факторного пространства определяют путем постановки в окрестности исходной точки двух пробных опытов с координатами (Хi - дельта Хi) и (Хi + дельта Хi). Движение осуществляется в том направлении, в котором наблюдается большое значение отклика. Идея метода Гаусса — Зайделя может быть показана на примере двухфакторной задачи (рис. 7.1). Рис. 7.1. Движение к оптимуму методом Гаусса—Зайделя (цифрами обозначены линии равного уровня поверхности отклика в некоторых относительных единицах)
При использовании метода Гаусса — Зайделя для оптимизации двухфакторного процесса последовательность операций следующая: 1. Определяется начальная точка Х1 движения к экстремуму функции отклика. В качестве начальной точки выбирается наилучшая из известных рабочих точек. 2. Задается шаг варьирования дельта Хi, по каждому управляемому фактору Хi (i = 1, 2). 3. Для определения направления движения первого рабочего цикла (по координате Х1 совершается два пробных опыта с центром в начальной точке, т. е. совершаются два пробных шага в точки в которых производится по одному измерению отклика у. 4. Сравниваются значения отклика в пробных точках и формируется функция Sign(Y1 - Y2). 5. Осуществляется первый цикл рабочего движения (с тем же или большим шагом) в направлении возрастания уровня выхода Y(Х). 6. После каждого рабочего шага производится измерение значения отклика Y(Х). 7. Первый цикл рабочего движения прекращается по достижении в некоторой точке Хh частного экстремума функции отклика по соответствующей переменной. Движение к экстремуму в данном направлении прекращается, если выполняется неравенство Уh+1 < Уh 8. Точка Хh является исходной для следующего цикла рабочего движения (по координате Х2). Из данной точки делаются два пробных шага в точки X1 = const 9. Движение вдоль координаты Х2 производится аналогично описанному выше. 10. По окончании второго цикла рабочего движения переходят к третьему (по координате Х1) и т. д. Критерием окончания поиска оптимума методом Гаусса — Зайделя является неудачная попытка организовать движение из некоторой точки Хk, любое движение из которой приводит к уменьшению значения функции отклика. Данная точка принимается за точку максимума целевой функции, определенную с точностью до максимального шага варьирования дельта Хi. Эффективность метода Гаусса — Зайделя существенно зависит от вида поверхности отклика и от выбора начальной точки поиска. Данный метод является классическим. Он позволяет, постепенно переходя от одной переменной к другой, при нахождении локального оптимума решать задачу экспериментальной оптимизации. Однако с ростом числа переменных Хi эффективность метода снижается из-за роста числа опытов на поиск оптимума.
Метод градиента При поиске оптимума (максимума) методом градиента движение осуществляется в направлении наиболее быстрого возрастания значения отклика, т. е. в направлении градиента функции отклика (целевой функции). Движение по градиенту производится на один шаг, пропорциональный вектору градиента. Направление движения корректируют после каждого рабочего шага, т. е. после каждого шага заново вычисляют значение вектора grad Y(Х) по результатам специально спланированных пробных экспериментов. Так как компоненты вектора градиента есть не что иное, как коэффициенты при линейных членах разложения функции Y(Х) в ряд Тэйлора то степеням Xi (i = 1- n), то их можно получить как линейные коэффициенты регрессии Grad Y(X) =b1*i1 + b2*i2 + … + bn*in Для получения оценок линейных коэффициентов регрессии можно воспользоваться любым из известных методов экспериментального получения математической модели объекта. Например, можно реализовать ПФЭ и ДФЭ с центром в начальной точке поиска. Поиск оптимума методом градиента выполняется по следующей схеме: 1. Задаются шаги варьирования дельта Xi, для всех управляемых факторов. Величина шага то каждому фактору выбирается из тех же соображений, что и при ПФЭ или ДФЭ. 2. Задается параметр рабочего шага лямбда. Рабочий шаг должен быть пропорционален вектору градиента. 3. В начальной точке поиска Х1, которая выбирается так же, как и в методе Гаусса — Зайделя, реализуется пробный эксперимент для определения направления первого рабочего шага. 4. По результатам пробного эксперимента вычисляется оценка вектора Grad Y(X) =b1*i1 + b2*i2 + … + bn*in 5. Совершается рабочий шаг в направлении Grad Y(X). 6. В точке Х2 процедура определения направления дальнейшего движения к оптимуму полностью повторяется.
7. Поиск прекращается, когда модуль градиента у становится малой величиной, т. е. когда оценки коэффициентов регрессии становятся незначимыми. Достигнутая точка принимается за абсолютный экстремум с точностью до величины последнего рабочего шага. Метод градиента более оптимален, чем метод Гаусса — Зайделя в смысле пути движения к оптимуму и в том смысле, что конечный шаг меньше начального (в методе Гаусса—Зайделя—постоянный). Конечный шаг определяет точность нахождения оптимума. Характер движения к оптимуму при использовании метода градиента показан на рис. 7.3. Рис. 7.3. Движение к оптимуму методом градиента Для выбора параметра рабочего шага лямбда необходимо ориентироваться на физические и технологические ограничения, накладываемые на факторы. Параметр лямбда выбирают таким образом, чтобы до границы было сделано несколько шагов. Эффективность метода снижается при работе исследователя в условиях больших погрешностях измерений факторов и с ростом числа самих факторов (более трёх).
Метод случайного поиска Существует множество модификаций случайного поиска. Характерной особенностью случайного поиска является случайный выбор направления движения к экстремуму. Имеются алгоритмы случайного поиска, в которых информация, полученная на предыдущих этапах, используется для адаптации процедуры поиска, что позволяет повысить его эффективность. Рассмотрим один из наиболее простых методов случайного поиска. В этом методе рабочий шаг из некоторой точки Хh совершается после пробного эксперимента в точке Хh+1 = Хh + p гдеp - случайный вектор фиксированной длины Отклики, полученные в точках Хh+1 и Хh, сравниваются, после чего совершается рабочий шаг в точку Хh+1 по направлению вектора p в сторону возрастания отклика. Длина рабочего шага лямбда выбирается большей или равной длине пробного шага р. Алгоритм метода случайного поиска следующий: 1. Определяется начальная точка поиска Х1 которая выбирается на основе априорной информации и соответствует максимальному из известных значений отклика. 2. Определяются длины соответственно пробного р и рабочего лямбда шагов, причем р больше или равно лямбда. 3. Вычисляются компоненты лямбда1, лямбда2, … лямбда п случайного вектора p, определяющего направление пробного шага из начальной точки Х1. Вектор лямбда представляет собой случайный вектор длиной р, равномерно распределенный на n-мерной сфере. Указанный способ формирования случайного вектора не обеспечивает строго равномерного распределения его по окружности радиуса р, однако для практических задач такое приближение вполне достаточно. 4. Производится два пробных эксперимента в точках Х1 и Х1+ лямбда 5. Совершается рабочий шаг в направлении возрастания отклика 6. В точке Х2 повторяется процедура формирования случайного вектора p и совершается рабочий шаг в следующую точку.
Рис. 7.6. Движение к оптимуму методом случайного поиска 7. Критерием окончания поиска является возрастание числа неудачных шагов, т. е. многократное повторение ситуации без улучшения результатов исследований. Траектория движения к экстремуму методом случайного поиска для двухфакторной задачи показана на рис. 7.6. Достоинством метода случайного поиска является возможность решения задачи оптимизации с большим числом исследуемых факторов (сто и более), при этом движение к оптимуму начинается уже после проведения первых двух опытов. Симплексный метод Симплексный метод поиска оптимума можно для оптимизации одновременно по нескольким выходным параметрам оптимизации. Его применение требует проведения минимального числа опытов для определения направления движения. Прежде чем перейти к описанию алгоритма симплексного метода дадим несколько определений. N-мерным симплексом называется многогранник, образованный в N-мерном пространстве N+1 вер шинами, которые не лежат ни в одном пространстве меньшей размерности. Например, для n = 1 симплексом является отрезок прямой, для n = 2—треугольник, для n = 3—пирамида. Симплекс называется правильным, если расстояние между всеми соседними вершинами одинаково. Если отбросить любую вершину симплекса и построить новую точку, зеркальную относительно оставшейся грани, то оставшаяся грань и зеркальная точка образуют симплекс той же размерности. Правильный симплекс всегда можно получить из произвольного путем преобразования системы координат (в дальнейшем будем рассматривать только правильные симплексы). В симплексном методе поиска оптимума все опыты проводят в точках факторного пространства, являющихся вершинами правильного симплекса.
Алгоритм поиска следующий: 1. Выбирается исходная точка поиска из тех же соображений, что и в ранее рассмотренных методах, В окрестности исходной точки Х^ необходимо построить начальный симплекс. Для построения симплекса необходимо прежде всего задать его размер. Размер симплекса выбирается так же, как и шаг варьирования. Необходимо также задать первоначальное положение симплекса в пространстве. Существует несколько способов построения исходного симплекса. Рассмотрим один из них.
Рис. 7.6. Симплекс с вершиной (а) и центром (б) в начале координат
Длина ребра симплекса / (размер симплекса) здесь принята за единицу. Центр симплекса помещается в начале координат, а h+1 вершина - на оси Хп (рис. 7.6.). Остальные вершины располагаются симметрично относительно координатных осей. Координаты вершины определяются матрицей
При длине ребра симплекса L = 1 величины Ri и ri определяются выражениями ri = 1/sq{2*i*(i+1)} i = 1, n
Ri = 1/sq{2*(i+1)} i = 1, n
где sq – квадратный корень. 2. В каждой вершине, координаты которых рассчитываются проводится по одному опыту. Наблюдаемые значения отклика в вершинах симплекса обозначим через Yhi, где h—номер симплекса, i —номер вершины h-го симплекса. 3. Движение к экстремуму осуществляется путем перехода от старого симплекса к новому. В старом симплексе отбрасывается вершина с наименьшим откликом и строится новая вершина, «зеркальная» отброшенной относительно оставшейся грани. Оставшаяся грань и зеркальная точка образуют новый симплекс. Координаты зеркальной точки Xi (i =1, п) вычисляются по формуле Xh+1, j, i = 2/n * { Xh, 1, i + Xh, 2, i + … + Xh, j-1, i + Xh, j+1, i + … + Xh, h+1, i} - Xh, j, i
Для того чтобы найти i-ю координату зеркальной точки, необходимо i-е координаты оставшихся точек старого симплекса сложить, умножить на величину 2/п и из полученного результата отбросить i-ю координату отброшенной точки. 4. Если наименьшее значение отклика наблюдается в нескольких вершинах одновременно, то вопрос об отбрасывании той или иной вершины решается случайным образом с равной вероятностью. 5. При движении к оптимуму может возникуть ситуация, когда наименьшее значение отклика наблюдается в зеркальной точке нового симплекса. В этом случае необходимо вернуться к предыдущему симплексу и отбросить в нем вершину со следующим по малости откликом. 6. Преобразование поступательного движения симплекса во вращательное вокруг некоторой точки X* факторного пространства может свидетельствовать о выходе симплекса в область оптимума. Однако может оказаться, что в этой точке неправильно определено значение отклика. В точке вращения необходимо поставить несколько параллельных опытов. Если в результате такого уточнения наибольшее значение отклика подтверждается, то это означает, что достигнута оптимальная область. Если наибольшее значение отклика в точке вращения не подтверждается, то поступают так же, как в п. 5, т. е. возвращаются к предыдущему симплексу и отбрасывают вершину со следующим по малости откликом. 7. При достижении области оптимума размер симплекса уменьшается в 2 раза и движение продолжается по тому же алгоритму. 8. Оптимум считается достигнутым, если выполняется условие: разброс результатов в вершинах симплекса примерно равна ошибке измерения выходного (оптимизируемого) параметра. 9. В условиях большой ошибки эксперимента рекомендуется в каждой вершине симплекса проводить несколько параллельных опытов и использовать усредненное значение отклика. Рис. 7.7. Движение к оптимуму симплекс-методом
Вопросы для самоконтроля: 1. Нужна ли математическая модель объекта исследования при решении задач экспериментальной оптимизации? 2. Назовите условия целесообразного применения каждого из методов оптимизации. 3. Какой метод работает в условиях больших ошибок измерения факторов? 4. Какой метод успешно работает при большом количестве исследуемых факторов? 5. Как будет двигаться симплекс в условиях ограничений на управляемые факторы? 6. В каком случае Вы выберете градиентный метод оптимизации? 7. Как будет вести себя симплекс в условиях дрейфа области оптимума?
Популярное:
|
Последнее изменение этой страницы: 2016-07-14; Просмотров: 1147; Нарушение авторского права страницы