Справочник от Автор24
Поделись лекцией за скидку на Автор24

Оптимальные и адаптивные системы управления

  • 👀 683 просмотра
  • 📌 655 загрузок
Выбери формат для чтения
Загружаем конспект в формате doc
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Оптимальные и адаптивные системы управления» doc
ОПТИМАЛЬНЫЕ И АДАПТИВНЫЕ СИСТЕМЫ УПРАВЛЕНИЯ (КУРС ЛЕКЦИЙ) Лекции – 18 час Практика – 32 час. Экзамен. Лекция 1. Введение. В классической теории автоматического управления (ТАУ) за­дачи оптимизации и адаптации ставились в основном примени­тельно к управлению «в малом». Это означает, что оптимальная программа изменения режимов технологического процесса, вы­раженная в задающих воздействиях регуляторов, считалась из­вестной, определенной на стадии проектирования. Задача управ­ления заключалась в выполнении этой программы, стабилизации программного движения. При этом допускались лишь малые от­клонения от заданного движения, и переходные процессы «в ма­лом» оптимизировались по тем или иным критериям. В конце 50-х - начале 60-х гг. XX столетия появились работы Л.С. Понтрягина (принцип максимума), Р. Беллмана (динамичес­кое программирование), Р. Калмана (оптимальная фильтрация, управляемость и наблюдаемость), которые заложили основы со­временной теории автоматического управления, общепринятого определения понятия которой пока не существует. Некоторым характерным признаком современной теории автоматического управления считают также описание процессов в пространстве состояний, развитие теории адаптивного управления, т. е. управ­ления при неполной априорной информации. Наиболее точно современную теорию автоматического управ­ления можно отделить от классической ТАУ, учитывая требования научно-технического прогресса, современной и перспектив­ной автоматизации. Важнейшим из таких требований является оптимальное использование всех располагаемых ресурсов (энер­гетических, информационных, вычислительных) для достижения главной обобщенной конечной цели при соблюдении ограниче­ний. Например, запуск или выход на новый режим работы маши­ны, агрегата, станции с минимальными затратами, достижение заданной в 3-мерном пространстве навигационной точки в задан­ное время с заданным курсом при минимальном расходе топли­ва. В связи с этим оптимизация «в большом», осуществляемая в реальном времени в процессе управления, становится централь­ной проблемой современной теории автоматического управления. Эта фундаментальная проблема порождает ряд крупных проблем, задач и методов их решения. Прежде всего указанная оптимиза­ция требует полного использования имеющейся априорной ин­формации в виде математической модели управляемого процес­са или объекта. Использование таких моделей не только на стадии проектирования, но и в процессе функционирования систем, яв­ляется одной из характерных черт современной теории автомати­ческого управления. Оптимальное управление возможно лишь при оптимальной обработке информации. Поэтому теория оптимального (и субоп­тимального) оценивания (фильтрации) динамических процессов является составной частью современной теории автоматического управления. Особо важной является параметрическая идентифи­кация (оценивание параметров и характеристик по эксперимен­тальным данным), выполняемая в реальном масштабе времени в эксплуатационных режимах ОУ. Центральной частью современной теории автоматического управления является, собственно, теория оптимального или суб­оптимального управления «в большом» детерминированными или стохастическими нелинейными процессами. Подлинная оп­тимизация автоматического управления в условиях неполной априорной информации возможна только в процессе функциони­рования системы в текущей обстановке и возникшей ситуации. Следовательно, современная теория автоматического управления должна рассматривать адаптивное оптимальное (субоптимальное) управление «в большом». Кроме того, современная теория авто­матического управления должна рассматривать методы резерви­рования и структурного обеспечения надежности (особенно прин­ципы автоматической реконфигурации системы при отказах). 1. ОПТИМАЛЬНЫЕ СИСТЕМЫ УПРАВЛЕНИЯ Определение, особенности и общая характеристика оптимальных систем. Оптимальной называется наилучшая в некотором технико-эко­номическом смысле система. Основной ее особенностью являет­ся наличие двух целей управления, которые эти системы реша­ют автоматически. Основная цель управления — поддержание управляемой ве­личины на заданном значении и устранение возникающих откло­нений этой величины. Цель оптимизации - обеспечение наилучшего качества уп­равления, определяемое по достижению экстремума некоторого технико-экономического показателя, называемого критерием оптимальности (КО). Оптимальные системы разделяют в зависимости от вида КО на два класса: оптимальные в статике системы и оптимальные в ди­намике системы. У оптимальных в статике систем КО является функцией пара­метров или управляющих воздействий. Этот критерий имеет экст­ремум в статическом режиме работы системы, причем статическая характеристика, выражающая зависимость КО от управляющих воздействий оптимизации, может непредвиденным образом сме­щаться под действием возмущений. Оптимальная система должна этот экстремум находить и поддерживать. Такие системы приме­нимы, если возмущения, смещающие указанную характеристи­ку, изменяются сравнительно медленно по сравнению с длитель­ностью переходных процессов в системе. Тогда система будет успевать отслеживать экстремум практически в статическом ре­жиме. Такие условия обычно выполняются на верхней ступени иерархии управления. Оптимальные в динамике системы отличаются тем, что их критерий оптимальности представляет собой функционал, т. е. функцию от функций времени. Это значит, что, задав функции времени, от которых данный функционал зависит, получим чис­ловое значение функционала. Эти системы могут применяться при сравнительно быстро меняющихся внешних воздействиях, не выходящих, однако, за допустимые пределы. Поэтому они ис­пользуются на нижних уровнях управления. Лекция 2 Критерии оптимальности оптимальных в динамике систем Обычно эти функционалы имеют вид определенных интегра­лов по времени где x(t), u(t) - векторы состояния и управления данной системы; Т - длительность процесса (в частности, может быть Т = ). В зависимости от подынтегральной функции f0 эти критерии имеют следующие основные виды. 1. Линейные функционалы, у которых f0 - линейная функция переменных: - критерий максимального быстродействия при f0 1, т.е. , который равен длительности процесса, а соответствующие системы называют оптимальными по быстродействию; - линейные интегральные оценки - критерий максимальной производительности , где q(t) - количество произведенной продукции. 2. Квадратичные функционалы, у которых f0 - квадратичная форма от входящих в нее переменных: - квадратичные интегральные оценки качества переходного процесса ; -критерий энергозатрат на управление, у которого , где u - управляющее воздействие, а и2 - мощность, затрачи­ваемая на управление; • обобщенный квадратичный критерий, равный сумме двух предшествующих, взятых с некоторыми весовыми коэффи­циентами. Он компромиссно характеризует качество пере­ходного процесса и энергозатраты на него, т. е. , где Q и R - положительно определенные квадратные матрицы. Функционалы, не содержащие интегралов: - критерий минимакса, при оптимизации по которому надо обеспечить минимальное значение максимума модуля (нор­мы) вектора отклонения управляемого процесса от его эта­лонного закона изменения, т. е. , где xэ – эталонный закон изменения. Простейшим примером этого критерия для скалярного случая является известное максимальное перерегулирова­ние переходного процесса; - функция от конечного состояния , которая является функционалом потому, что конечное со­стояние объекта х(Т) является функцией от управляющего воздействия u(t). Этот критерий оптимальности может применяться в сумме с одним из рассмотренных выше критериев, имеющих вид определенного интеграла. Выбор того или иного критерия оптимальности для конкретного объекта или системы производится на основании соответствующего изучения работы объекта и предъявляемых к нему требований технико-экономического характера. Этот вопрос не может быть решен в рамках только теории автоматического управления. В зависимости от физического смысла критерия оптимальности его требуется либо минимизировать, либо максимизировать. В первом случае он выражает потери, во втором случае технико-экономическую выгоду. Формально, поменяв знак перед функционалом, можно задачу по максимизации свести к задаче по минимизации. 1.3. Краевые условия и ограничения для оптимальных в динамике систем Основная цель управления в таких системах обычно формулируется как задача перевода изображающей точки из некоторого начального состояния х(О) в некоторое конечное х(Т) состояние. Начальное состояние принято называть левым концом оптимальной траектории, а конечное - правым. Вместе взятые эти данные и образуют краевые условия. Задачи управления могут отличаться видом краевых условий. 1. Задача с закрепленными концами траектории имеет место, когда х(0) и х(Т) фиксированные точки пространства. 2. Задача с подвижными концами траектории получается, когда х(0) и х(Т) принадлежат некоторым известным линиям или поверхностям пространства. 3. Задача со свободными концами траектории возникает, когда указанные точки занимают произвольные положения. На практике встречаются и смешанные задачи, например х(0) - фиксирован, а х(Т) подвижен. Такая задача будет иметь место, если объект из заданного фиксированного состояния должен «догнать» некоторую эталонную траекторию (рис. 1). Рис. 1. Ограничениями называются дополнительные условия, кото­рым должны удовлетворять управляющие воздействия и управ­ляемые величины. Встречаются два вида ограничений. 1. Безусловные (естественные) ограничения, которые выпол­няются в силу физических законов для процессов в объекте уп­равления (ОУ). Эти ограничения показывают, что некоторые ве­личины и их функции не могут выйти за границы, определяемые равенствами или неравенствами. Например, уравнение двигате­ля постоянного тока (ДПТ): , ограничение на скорость асинхронного двигателя , где - синхронная скорость. 2. Условные (искусственные) ограничения, выражающие та­кие требования к величинам или функциям от них, согласно ко­торым они не должны превосходить границ, определенных равен­ствами или неравенствами по условиям долговечной и безопасной эксплуатации объектов. Например, ограничение на питающее напряжение , ограничения на допустимую скорость, уско­рение и т. п. Для обеспечения условных ограничений необходимо прини­мать меры схемного или программного характера при реализации соответствующего управляющего устройства. Ограничения, независимо от их вида, выражаемые равенства­ми, называются классическими, а неравенствами - неклассичес­кими. Лекция 3 Общая постановка задачи оптимального автоматического управления При заданных ограничениях на управляющие воздействия , управляемые величины Г(х), а также заданных уравнении объекта управления , критерии оптимальности и краевых условиях х(0) и х(Т) необходимо опре­делить оптимальное управление и оптимальную траекторию или оптимальный алгоритм управления , обеспе­чивающие экстремум заданного критерия оптимальности. Решение первой задачи приводит к разомкнутой САУ (рис. 2, а), решение второй - к замкнутой САУ (рис. 2, б), в которых АУУ - автоматическое управляющее устройство. Рис. 2 Для решения задач оптимального управления применяются следующие методы оптимизации: Эйлера-Лагранжа, динамичес­кого программирования Р. Беллмана, принцип максимума Л.С. Понтрягина. Задача на безусловный экстремум функционала Эту задачу отличает отсутствие всяких ограничений, что яв­ляется недостатком, так как отсутствие ограничений обычно ли­шает задачу практического смысла. Итак, задан минимизируе­мый функционал . Подынтегральная функция F в нем дифференцируема как по х, так и по . Требуется найти экстремаль , которая минимизирует данный функционал при заданных краевых услови­ях x(0), х(Т) и известном значении времени Т. Идея вывода расчетного уравнения использует предположение о том, что к экстремали добавляется дополнительная функция с весовым коэффициентом . В результате аргумент функционала получает вариацию и будет равен: , Где - дифференцируемая функция с нулевыми краевыми значениями, т.е. , (рис. 3). Рис. 3. Рис. 4 Соответственно функционал получает положительное прира­щение (вариацию), являющееся функцией коэффициента : . Эта функция имеет экстремум - минимум при = 0 (рис. 4). Исследуя эту функцию на экстремум, Эйлер получил следующее дифференциальное уравнение для нахождения экстремалей: Компактная условная запись этого уравнения имеет вид: , где индексы обозначают производные по и . Уравнение Эйлера в общем случае является нелинейным уравнением второго порядка, общее решение которого содержит две постоянные интегрирования, определяемые из краевых условий. В задаче на безусловный экстремум может быть задан функционал, зависящий от нескольких функций и их первых производных: , В этом случае необходимо решить систему уравнений Эйлера: . В более общем случае функционал может зависеть и от произ­водных высших порядков. В этом случае вместо уравнений Эйле­ра составляют и решают уравнения Эйлера-Пуассона: , где k- порядковый номер функции; пk - порядок старшей произ- водной от хk; т - число функций. Задача на условный экстремум. Метод Эйлера-Лагранжа Помимо минимизируемого функционала , подынтегральная функция которого зависит от нескольких фун­кций и их первых производных по времени, задано произвольное число классических ограничений: . Требуется найти n экстремалей при заданных краевых условиях. Метод решения этой задачи требует формирования нового фун­кционала , где - неизвестные функции, называемые множителями Лагранжа. Благодаря такой замене задача сводится к предыдущей. При этом уравнения Эйлера должны быть составлены как для иско­мых экстремалей, так и для множителей Лагранжа: , (1) , (2) Но , а , т. е. уравнения (2) совпадают с уравнениями ограничений. Поэтому может быть выполнено совмест­ное решение системы уравнений Эйлера (1) и заданных ограни­чений. Исключая время из уравнений экстремалей, можно найти алгоритм управления оптимального автоматического регулятора. Лекция 4 Синтез оптимальных систем при одном интегральном ограничении Изопериметрическая задача Здесь наряду с ограничениями, принятыми в предыдущей лекции, имеется определенный интеграл по времени: Для того чтобы эту задачу свести к предыдущей, вводим допол­нительную переменную, определяемую интегральным уравнени­ем Для новой переменной справедливы краевые условия Затем, дифференцируя по времени интегральное уравнение для новой переменной, получим , или в стандартной форме записи ограничений: Подынтегральная функция нового функционала . Уравнение Эйлера для новой переменной примет вид: где и даст результат В этом и состоит особенность интегрального ограничения: мно­жители Лагранжа для интегральных ограничений постоянны. В остальном решение аналогично, т. е. уравнения Эйлера для ис­комых экстремалей решаются совместно с уравнениями всех ог­раничений. При этом новую переменную хп+1 можно не вводить, считая . Данная задача при одном интегральном ограничении получи­ла название изопериметрической задачи, так как исторически в этой задаче требовалось найти уравнение линии постоянного пе­риметра, которая вместе с отрезком прямой, соединяющим дан­ные точки, ограничивала бы максимальную площадь на плоско­сти. Такой линией является дуга окружности. Принцип оптимальности. Метод динамического программирования (МДП) В основу метода динамического программирования положен принцип оптимальности. Согласно ему любой конечный отрезок оптимальной траектории (от произвольной промежуточной точ­ки до одной и той же конечной точки процесса) является сам по себе оптимальной траекторией для своих краевых условий. Для доказательства предположим, что при движении по оптимальной траектории М0М1М2О (рис. 6) достигается минимум заданно­го критерия оптимальности. Рис.6 Докажем, что конечный отрезок М1 М2 0 является оптималь­ной траекторией для своих краевых условий. Допустим, что это не так, и минимум критерия оптимальности достигается при дви­жении по траектории М1 М'2 0. Но тогда и при движении из точ­ки М0 меньшее значение критерия будет получено на траектории М0 М1 М2' О, что противоречит первоначальному предположению и заставляет отвергнуть сделанное допущение. Метод динамического программирования позволяет решать задачи трех видов: дискретную, дискретно-непрерывную и непре­рывную. 1. Дискретная задача. Она отличается дискретностью всех ве­личин (времени, управляющих воздействий, управляемых вели­чин). К числу исходных данных относятся: а) состояния выхода объекта управления; б) значения управляющих воздействий; в) алгоритм перехода из предыдущего состояния в последую­щее: где k - номер шага, k = 1,N, причем эти переходы задают­ся таблицей или диаграммой переходов; г) начальное состояние х0 и число шагов процесса N; д) критерий оптимальности j, зависящий от состояний и уп­равлений в оптимальном процессе. Рис. 7. Пусть для примера выходная величина объекта может иметь четыре состояния: х = {а1,а2,а3,а4}. Управляющее воздействие может иметь два значения: и = {-1, 1}. Диаграмма переходов по­казана на рис. 7. Примем х0 = a1, N = 2. Критерий оптимальности управления объектом примем в виде функции от конечного состояния объекта , которая за­дана таблично (табл. 1) и должна быть минимизирована. Таблица 1. Для решения задачи около каждого конечного состояния х2 на диаграмме оптимальных переходов (рис. 8) записываем в соответствии с таблицей значения критерия оптимальности J. Затем рассматриваются все возможные переходы из каждого предыдущего состояния х1 в последующие х2. Из них выбираются только те, которые оптимальны в смысле минимума J. Эти переходы отмечаются стрелками, около которых ставятся соответствующие Рис. 8 значения управления, а около предшествующего состояния указывается значение J . После этого находится аналогично, оптимальный переход из начального состояния x0 в x1 Оптимальная траектория обозначена двойными стрелками и получается при управлении Лекция 5 2. Дискретно-непрерывная задача МДП. В этой задаче управляющее воздействие и управляемые величины могут иметь бесчисленное количество значений в пределах заданных ограниче­ний. Время изменяется дискретно с малым шагом , что соответствует численным методам решения задач на ЭВМ. Зада­на продолжительность процесса Т, уравнение объекта управления (4) Ограничение на управление и начальное состояние x(0)=x0. Задан в виде функционала минимизируемый критерий оптимальности (5) Требуется найти оптимальные управление u0(t) и траекторию x0(t). Прежде всего от дифференциального уравнения (4) перехо­дим к разностному уравнению, заменяя dх на хк+1- хк, dt на t, х и и на xk и uk, где , , относительное диск­ретное время k=0,1,2, .... Обозначив , получим из (4) разностное урав­нение . (6) Критерий оптимальности (5) вместо интеграла необходимо представить в виде конечной суммы , (7) где . Переход к уравнениям (6) и (7) означает дискретизацию задачи по времени. В соответствии с принципом оптимальности последовательно оптимизируем конечные отрезки процесса, начинающиеся от конеч­ной точки t=T и постепенно увеличивающиеся на (рис.9). Рис. 9 Первым рассматриваем отрезок . На этом отрезке из всего функционала (7) минимизируется частичная сумма за счет изменения управления с учетом ограничений, где хN заменено согласно (6). В результате минимизации получаем следующую функцию от состояния xN-1: , (8) Данную зависимость необходимо запомнить до получения ана­логичной функции на следующем шаге расчета. Кроме (8) оп­ределится и оптимальное управление . (9) Функция (9) должна храниться в памяти до окончания рас­чета процесса. Затем переходим к отрезку , на котором минимизируется . Минимум этой частичной суммы должен быть найден по двум переменным и , но с учетом уже сделанной минимиза­ции по в виде (8) остается минимизировать ее только по одному аргументу . В результате получим . (10) Функция (10) заменяет в памяти функцию (8), и находит­ся оптимальное управление . Аналогично на отрезке находим , . Наконец для всего процесса находим , . (11) Таким образом, получен алгоритм расчета по рекуррентным формулам, который и называется динамическим программирова­нием. При его применении по формуле (11) находим оптималь­ное управление , затем по уравнению объекта (6) находим состояние объекта х1, далее находим и т. д., вплоть до . 3. Непрерывная задача. Задано уравнение объекта управления где x=[x1,…,xn]T, u=[u1,…um]T, f=[f1,…,fn]T, и краевые условия: x(t0) - закрепленный левый конец траекто­рии, x(tf) - подвижный правый конец. Задано ограничение на управление и минимизируе­мый функционал общего вида (функционал Больца): . Найти оптимальное управление u0(t), траекторию x0(t) или за­кон оптимального управления u0=u(x, t) Для вывода уравнения Беллмана рассмотрим две точки на ис­комой оптимальной траектории x(t) и x(t1) (рис. 10), причем , где - малое приращение времени. Введем обозначение , Рис. 10 которое указывает на то, что минимум критерия оптимальности зависит только от начального состояния и начального момента времени процесса. Применяя принцип оптимальности, можно выразить минимальное значение функционала для конечных от­резков траектории, начинающихся в точках х(t) и x(t1): , . Сравнение этих равенств позволяет выразить первый минимум через второй: . Входящий в это равенство интеграл можно заменить произве­дением его подынтегральной функции на (вследствие малости последнего). Кроме того, функцию, входящую в левую часть, как независящую от управления, можно ввести под знак минимума для того, чтобы получить приращение функции S, называемой функцией Беллмана. После этого придем к следующему резуль­тату: . Поделив почленно равенство на и устремив 0, получим: (12) Считая функцию Беллмана S непрерывной и дифференцируемой функцией всех своих аргументов, выразим производную как производную сложной функции, причем производную , как независящую от управления u, перенесем в правую часть равенства: . Заменив входящие сюда производные переменных состояния на соответствующие функции из уравнений объекта управления, получим уравнение Беллмана в общем виде: . (13) Применяется и другая запись уравнения Беллмана с использованием скалярного произведения, в которое входит градиент функции S: . (14) В частном случае, когда объект стационарен и подынтегральная функция функционала f0 не зависит от времени, искомая функция Беллмана S также не будет явно зависеть от времени. Следовательно, и уравнение Беллмана упрощается, что соответствует так называемой задаче Лагранжа: . (15) Для задачи максимального быстродействия , и уравнение Беллмана (15) приобретает вид: . (16) Из уравнения Беллмана должна быть найдена функция Бел­лмана S и оптимальное управление, что на практике выполняет­ся в следующем порядке при оптимизации обобщенного квадра­тичного функционала. 1. В соответствии с исходными данными выбираем то или иное уравнение Беллмана (13)-(16). 2. Минимизируем по управляющему воздействию и левую часть уравнения Беллмана, выражая при этом искомое оптималь­ное управление через производные неизвестной функции S. 3. Подставляем в уравнение Беллмана найденное выражение для оптимального управления. При этом знак min опускается. 4. Решаем полученное уравнение относительно функции Бел­лмана S. Решение ищется в виде положительно определенной квадратичной формы . После подстановки выражения для функции S в уравнение Беллмана элементы симметричной матрицы С могут быть найдены приравниванием к 0 всех коэф­фициентов квадратичной формы, образовавших левую часть урав­нения Беллмана. 5. Подставляем функцию Беллмана, как функцию переменных состояния, в выражение для оптимального управления, найден­ного в п. 2. В результате получим оптимальный алгоритм управ­ления. Соответствующая система устойчива, так как удовлетво­ряет требованиям прямого метода Ляпунова. Действительно, приняв функцию Беллмана за функцию Ляпунова, т. е. Считая S=V, получаем согласно (12) при положительной опре­деленности f0(х, и, t). Лекция 6 2. АДАПТИВНЫЕ СИСТЕМЫ АВТОМАТИЧЕКОГО УПРАВЛЕНИЯ Определение, основные особенности и классификация Адаптивной называется такая система автоматического управ­ления, которая обладает способностью автоматического приспо­собления к изменяющимся в широких пределах характеристикам объекта управления и внешних воздействий Основной особенностью адаптивных систем является наличие у них двух целей управления: 1. Основная цель, которая заключается в поддержании управ­ляемой величины на заданном значении. 2. Цель адаптации, которая состоит в автоматическом поддер­жании качества управления на требуемом уровне. Классификация адаптивных систем автоматического управле­ния (АСАУ) отображена на рис. 25. Обучением называют автоматический процесс накопления опыта и совершенствования алгоритма адаптации в процессе ра­боты системы. Самообучение построено по принципу выработки условных рефлексов у живых организмов. В обучаемых системах присутствует на первой стадии человек-оператор и обучаемая ЭВМ, снабженная соответствующей программой обучения. На этой стадии человек-оператор принимает решения по управлению объектом, и соответствующая информация поступает на ЭВМ. После достаточно продолжительной совместной работы ЭВМ мо­жет принимать решения самостоятельно. Системы без обучения называются самонастраивающимися си­стемами (СНС). В СНС цель адаптации заключается в поддержании Рис. 25 некоторого технико-экономического показателя, характеризующе­го качество управления и называемого критерием самонастройки, на экстремальном или заданном значении. Этот критерий являет­ся функцией управляющих воздействий адаптации. Если критерий самонастройки должен поддерживаться на экстремальном значении, то СНС является в то же время оптималь­ной в статике (см. п.1). У такой СНС критерий оптимальности совпадает с критерием самонастройки. В поисковой СНС экстремальное значение критерия самонаст­ройки обеспечивается путем автоматического поиска экстремума, соответствующей статической характеристики, который может непредвиденно смещаться. Автоматический поиск экстремума заключается в последовательном выполнении трех операций • пробное воздействие на объект; • определение результатов этого воздействия; • рабочее воздействие на объект по результатам пробного воз­действия, направленное на достижение экстремума крите­рия самонастройки. В частном случае пробное и рабочее воздействия могут быть совмещены. В беспоисковых системах критерий самонастройки, может под­держиваться как на заданном, так и на экстремальном значении но поиск экстремума не применяется. В первом случае используются известные принципы регулирования по отклонению или (и) возмущению. Во втором случае применяются аналитическое определение скорости и направления управляющих воздействий с це­лью достижения экстремума критерия самонастройки. Беспоиско­вые системы более совершенны в смысле быстроты и точности адаптации, чем поисковые, но для их проектирования требуется большой объем априорной информации об объекте управления. Функциональные схемы и примеры самонастраивающихся систем Укрупненно СНС можно рассматривать состоящей из объекта адаптации и адаптивного управляющего устройства. В роли объекта адаптации (ОА) выступает некоторая САР, замкнутая или разомкнутая, состоящая из автоматического регулятора АР и объекта регулирования ОР (рис. 26). Рис. 26 Причем характеристики ОР, а также внешних воздействий g и v подвержены изменениям в процессе работы, что и требует адаптации (самонастройки) за счет изменения параметров автоматического регулятора. Самонастройку осуществляют два основных блока адаптивного управляющего устройства: блок измерений и вычислений БИВ (анализатор) и блок настройки БН (синтезатор). БИВ выполняет следующие функции, используя поступающую на него информацию, условно показанную штриховыми линиями: - снятие статических и динамических характеристик объектов адаптации и регулирования; - снятие статистических характеристик случайных воздей­ствий g(t) и v(t); - измерение критерия самонастройки, его производных и от­клонения от экстремума; - измерение отклонения выходных величин объекта адапта­ции и его эталонной модели. В поисковых СНС функции блока настройки выполняет авто­матический оптимизатор АО (рис. 27), причем вся система в целом называется системой автоматической оптимизации (САО). Рис. 27 В качестве примера поисковой САО можно привести адаптив­ную систему управления толщиной проката (рис. 28). Объектом адаптации в этом примере является разомкнутая система регулирования по возмущению, содержащая автоматический регулятор АР и исполнительный двигатель ИД, который через винтовую передачу перемещает в вертикальном направлении подвижный валок клети прокатного стана. Именно это промышленное устройство является объектом регулирования, а регулируемой величиной здесь следует считать толщину h стальной полосы на выходе. Основным возмущением является толщина полосы Н на входе, причем разомкнутая система регулирования по возмущению использует ее как входную величину. Рис. 28 В состав адаптивного управляющего устройства данной СНС входят блоки БИВ и АО. Анализатор БИВ измеряет толщину проката на выходе и вычисляет ее дисперсию Dh как критерий самонастройки. Автоматический оптимизатор, воспринимая эту информацию, осуществляет поиск минимума статической характеристики при непредвиденных смещениях этой характеристики путем изменения параметра настройки автоматического регулятора АР (рис. 29). Рис. 29 В частном случае в поисковой СНС в качестве объекта адаптации может выступать сам объект регулирования. Такой объект должен иметь статическую характеристику с максимумом или минимумом, который необходимо поддерживать с помощью адаптивного автоматического управления. Указанная характеристика смещается непредвиденным образом, что и требует адаптации. Такие системы получили название систем экстремального регулирования (СЭР), а входящие в них автоматические оптимизаторы называют экстремальными регуляторами. Примерами объектов регулирования с экстремальной характеристикой (рис. 8.30) являются: Рис. 30 - топочное устройство, в которое подаются для горения газ и воздух; в этом случае у - температура; и – расход газа; v- расход воздуха (возмущение); - параллельный колебательный контур LС, в этом случае у - напряжение на контуре (регулируемая величина); и - ем- кость конденсатора; v - частота переменного тока; - радиолокационная станция сопровождения цели, у которой выходная величина у - отраженный от цели сигнал; v - перемещение цели; и - перемещение антенны; - бурильная установка, у которой у - вертикальная скорость проходки; и - осевое давление на бур; v - твердость породы. Лекция 7 Общая характеристика методов поиска экстремума Классификация методов поиска экстремума критерия самона­стройки, применяемых в поисковых СНС, представлена на рис. 31. Прямые методы предполагают задание различных значений управляющих воздействий адаптации в виде соответствующих числовых множеств, последующее измерение значения критерия самонастройки, запоминание полученного значения, если оно ближе к экстремуму, чем все Рис. 31 предыдущие (при поиске максиму­ма - наибольшего). Сочетание значений управляющих воздей­ствий может задаваться детерминированно (по законам спирали, строчной развертки и др.) или случайно. Причем для улучшения работы могут чаще задаваться те из них, при которых нахожде­ние экстремума более вероятно. Прямые методы позволяют най­ти глобальный экстремум, в чем состоит их преимущество. Такой поиск обычно производится на модели объекта, а результаты пе­реносятся на реальный объект. Градиентные методы требуют вычисления компонент градиен­та функции или ее отклонения от экстремума. Градиентом J на­зывается вектор в пространстве входных величин х1, х2, ..., хп, компонентами которого являются частные производные от фун­кции по входным величинам и который показывает направление наибольшего возрастания функции: где xi0 - орт (единичный вектор) по оси xi. В градиентных методах надо решать последовательно две за­дачи: определение компонент градиента или отклонения от экст­ремума и организацию движения к экстремуму на основе полу­ченной информации. Методы определения компонент градиента и отклонения от экстремума 1. Метод синхронного детектирования. Рассмотрим поиск мак­симума статической характеристики одномерного безынерцион­ного объекта (рис. 32). Рис. 32 На вход объекта помимо медленно меняющегося рабочего изме­нения х подается также пробное воздействие . Это пробное воздействие должно быть периодическим, например, синусоидаль­ным. Реакция объекта на пробное воздействие, т. е. соответствую­щее изменение критерия самонастройки , будет зависеть от того, где находится точка на характеристике. Если точка занима­ет положение 1, т. е. до максимума, то колебания совпада­ют по фазе с колебаниями . Если точка в третьем положении, т. е. после максимума, то указанные колебания в противофазе. Амплитуда колебаний в точках 1 и 3 тем больше, чем больше крутизна характеристики, пропорциональная модулю производной В точке экстремума 2 колебания имеют удвоенную частоту по сравнению с частотой колебаний . Если подать на синхронный детектор (фа­зовый дискриминатор), то на выходе получится сигнал, пропорциональный . 2. Метод приращений. Этот метод обеспечивает приближенное определение компонент градиента как отношений соответствующих малых приращений . Для реверса достаточно определять только приращение , которое при изменении сво­его знака укажет на переход через экстремум. 3. Метод запоминания экстремума. При приближении к экст­ремуму происходит слежение за изменяющимся значением кри­терия самонастройки. После прохождения экстремума критерия самонастройки запоминается его экстремальное значение. Кроме того, при этом измеряется и текущее значение критерия самонастройки, благодаря чему возможно определение отклонения его от экстремума. 4. Метод производной по времени. По этому методу определя­ется производная , которая при прохождении экстремума всегда меняет свой знак (с плюса на минус, если экстремум - мак­симум), что и дает информацию об отклонении J от экстремума. Два последних метода используются для одномерных объек­тов, т. е. с одним входом. 2.5 Методы организации движения к экстремуму 1. Непрерывные методы отличаются непрерывным изменени­ем входных величин объекта со скоростями, пропорциональны­ми соответствующим компонентам градиента, т. е. по закону . Причем коэффициент пропорциональности с > 0 при поиске максимума и с < 0 при поиске минимума. В зависимости от траектории поиска в пространстве входных величин непрерывные методы делятся на несколько видов, кото­рые рассмотрим для двумерного объекта со статической характе­ристикой J(x1, х2) (рис.33), которую можно заменить семей­ством линий J=const в плоскости x1, x2 (рис. 34). Рис.33 Рис. 34 1.1 Метод градиента требует одновременного изменения всех входных величин по указанному выше закону. При этом вектор скорости, направленный по касательной к траектории движения в плоскости х1, х2, будет в любой момент времени равнонаправлен с вектором градиента, направленным по нормали к линии равного уровня J=const. Такая траектория называется траекто­рией стекания (траектория 1.1 на рис. 34) и приводит к экстре­муму, где все компоненты и вектор градиента обратятся в ноль. При сложной поверхности J(x1, x2) траектория стекания может быть извилистой и длинной, что нежелательно. 1.2 Метод Гаусса—Зейделя предполагает поочередное измене­ние входных величин до достижения соответствующих частных экстремумов. При этом траектория на плоскости х1, х2 имеет вид ломаной, состоящей из взаимно перпендикулярных отрезков, каждый из которых параллелен одной из осей координат и закан­чивается в точке касания с одной из линий равного уровня (тра­ектория 1.2 на рис. 34). 1.3 Метод крутого восхождения (при поиске максимума) и наискорейшего спуска (при минимуме) требует определения век­тора градиента в начальной точке, движения по этому направле­нию до достижения частного экстремума и т. д. В результате этот метод, как модификация метода Гаусса-Зейделя, быстрее приво­дит к экстремуму (траектория 1.3 на рис. 34). 2. Шаговые методы предусматривают дискретное во времени изменение входных величин. Изменение, производимое в некото­рый момент времени, называется шагом. Шаги осуществляются почти мгновенно, они сравнительно невелики и могут быть проб­ными и рабочими. Пробные шаги служат для нахождения ком­понент градиента методом приращений, а рабочие - для органи­зации движения к экстремуму. Пробные и рабочие шаги могут быть совмещены, но это ухудшает качество управления. 2.1 Пропорционально-импульсный шаговый метод требует, чтобы рабочий шаг был пропорционален соответствующей ком­поненте градиента в данной точке, т. е. , что позволяет приближенно реализовать варианты непрерывного метода (методы градиента, Гаусса-Зейделя и др.). 2.2 Релейно-импульсный шаговый метод отличается постоян­ством шагов по модулю, и лишь изменения их направления (зна­ка) происходят в соответствии со знаком компоненты градиента: . Этот метод проще в технической реализации, но менее точен. Он приводит к автоколебаниям около экстремума. Для построен­ного на рис.35 графика пробные и рабочие шаги совмещены, а объект предполагается безынерционным и одномерным. Рис. 35 Достоинство шаговых методов - ослабление влияния инерци­онности объекта и помех. При инерционном объекте период сле­дования шагов должен быть не меньше длительности переходно­го процесса в объекте. Уменьшение влияние высокочастотных помех достигается путем усреднения (интегрирования) критерия самонастройки на некотором отрезке времени. 2.3. Симплексный метод. Симплекс - это простейшая геомет­рическая фигура в пространстве входных воздействий. При двух входных величинах симплексом является треугольник, при трех - пирамида. Рассмотрим данный метод для двумерного объекта. Из начальной точки 1 (рис. 36) осуществляются два шага в точки 2 и 3, образующие вершины треугольника - симплекса. Во всех этих точках измеряется значение критерия самонастройки и определяется, в какой из них это значение будет минимально (при поиске максимума). Рис. 36 Допустим, что это точка 1. Тогда следу­ющий шаг производится в точку 4, симметричную точке 1, отно­сительно стороны 2-3. Затем точку 1 отбрасывают, и аналогично рассматривают симплексы 2-3-4, 2-4-5, 4-5-6 и т. д. По мере приближения к экстремуму следует автоматически уменьшать размеры симплекса для повышения точности поиска. Однако этому препятствует уменьшение приращений критерия самонастройки. 2. Релейный метод задает постоянную по модулю скорость из­менения входного воздействия (применяется исполнительный механизм постоянной скорости). Изменение знака скорости (ре­верс) происходит при изменении знака градиента, т. е. по закону . Этот простейший, но грубый метод приводит к автоколебаниям и используется для одномерных объектов в соче­тании с методами запоминания экстремума и производной по вре­мени (см. п.20). Лекция 8 Беспоисковая адаптивная система, использующая функцию Ляпунова Объектом адаптации в этой системе является замкнутая САР, состоящая из объекта регулирования ОР и автоматического регуля­тора АР (рис. 45). ОР - это инерционное нестационарное звено, у которого непредвиденным образом изменяется коэффициент самовыравнивавания . АР - пропорциональный регулятор с перемен­ным коэффициентом k, реализованный на множительном звене. В системе применена эталонная модель М-Э, которая по воз­мущающему воздействию v имеет передаточную функцию: . (50) Рис. 45 Покажем, что благодаря самонастройке изменение коэффици­ента можно парировать соответствующим изменением коэф­фициента k(t). Для этого найдем передаточную функцию САР по возмущению . (51) Сравнение выражений (50) и (51) показывает, что САР при будет эквивалентна модели-эталону. Для синтеза контура самонастройки получим дифференциаль­ные уравнения для сигнального (координатного) рассогласования (52) и параметрического рассогласования . (53) Из (50) и (51) можно получить дифференциальные уравне­ния эталонной модели М-Э и САР: , . Вычтя из уравнения М-Э уравнение САР с учетом (52) и (53) получим уравнение для координатного рассогласования . (54) Примем непрерывный закон настройки коэффициента k(t) со­гласно уравнению , (55) где - функция, подлежащая определению по условию устойчи­вости. Предположим, что изменяется сравнительно медленно. Тогда, дифференцируя (53), производной можно пренеб­речь: . (56) Из (55) и (56) получим дифференциальное уравнение для параметрического рассогласования: . (57) Уравнения (54) и (57) используем для дальнейшего синте­за системы по прямому методу Ляпунова. В качестве критерия самонастройки берем функцию Ляпунова: . (58) Функция (58) удовлетворяет требованию положительной определенности при > 0 и имеет равный нулю минимум в нача­ле координат, который и следует достичь при адаптации. Согласно прямому методу Ляпунова для обеспечения устойчи­вости в указанной точке экстремума надо найти и обеспечить отрицательную определенность производной . Продифференцировав (58) как сложную функцию, в силу (54) и (57) получим: . Отсюда видно, что отрицательная определенность будет при . (59) Уравнения (55) и (59) определяют алгоритм контура адап­тации, что отражено на структурной схеме системы (см. рис.45). Беспоисковая адаптивная система, использующая функцию чувствительности Функциональная схема системы приведена на рис. 46. Здесь СНМ - самонастраивающаяся модель объекта регулирования ОР; ( - его переменный параметр; - настраиваемый параметр авто­матического регулятора АР. Рис.46 В качестве критерия самонастройки принята функция , где - ошибка регулирования. Для самонастройки при­нят непрерывный закон изменения параметра по методу гради­ента: . (60) Входящую в (60) компоненту градиента найдем, дифферен- цируя J как сложную функцию: , (61) где - функция чувствительности ошибки к параметру . Ее можно найти из уравнения САР, которая является объектом адаптации: , (62) где - рассогласование. Поскольку g и yм от параметра не зависят, то, дифференцируя равенства для и по параметру , получим . (63) Дифференцируя (62) по , с учетом (63) найдем . Отсюда . (64) Оператор перед в (64) называется оператором чувствитель­ности (65) и позволяет определить функцию чувствительности по рассогла­сованию . Подставив (64) в (61), а затем (61) в (60), по­лучим с учетом (65) искомый алгоритм адаптации по которому и составлена структурная схема на рис. 46. Лекция 9 Модели в адаптивных системах Из рассмотренных выше примеров видно, что в СНС исполь­зуются два вида моделей: модель-эталон системы и самонастраи­вающаяся модель (СНМ) объекта управления. Первая модель определяет желаемые (эталонные) свойства системы регулирования как объекта адаптации. Самонастраивающиеся модели объектов управления могут выполнять функции следующих устройств: 1) датчика динамических характеристик объекта управления, в частности, его параметров; 2) корректирующего устройства, используемого, например, в качестве упредителя Смита; 3) имитатора объекта, который может использоваться, напри­мер, в тренажерах. При построении самонастраивающейся модели объекта управ­ления надо решить две задачи: 1) синтез модели объекта; 2) синтез автоматического управляющего устройства, которое будет эту модель настраивать. Для решения первой задачи искомая характеристика объекта (весовая, передаточная функция и др.) представляется в виде сум­мы ортогональных функций, взятых с переменными весовыми коэффициентами с1, с2, ..., сп, в частности, . Ортогональность функций Wi(s) обеспечит независимость измене­ния указанных коэффициентов. Для синтеза автоматического управляющего устройства, про­изводящего адаптацию синтезатора (модели ОУ), могут приме­няться различные принципы 1) поисковый; 2) беспоисковый замкнутый; 3) беспоисковый разомкнутый. Поисковая самонастраивающаяся модель (рис. 47) включа­ет в себя С - синтезатор, ВУ - вычислительное устройство, АО - автоматический оптимизатор, который настраивает коэффициен­ты синтезатора так, чтобы критерий самонастройки J достигал своего минимума. Причем критерий J должен характеризовать отклонение выходного сигнала у(t) объекта управления ОУ от выходного сигнала синтезатора ум(t). Рис. 47 Беспоисковая замкнутая самонастраивающаяся модель объек­та управления (рис. 48) содержит вычислительное устройство ВУ, которое вычисляет отклонения v1, v2,…, vn соответствующих коэффициентов с1; с2, ..., сп, от их требуемых значений. Рис.48 Эти отклонения поступают на блок настройки БН, состоящий из п интегральных регуляторов, которые изменяют коэффициен­ты c1, ... , сп до получения нулевых отклонений. Беспоисковая разомкнутая самонастраивающаяся модель (рис. 49) имеет в своей основе вычислительное устройство ВУ. Оно по входному и выходному сигналам объекта управления ОУ определяет в результате Рис.49 параметрической идентификации коэф­фициенты синтезатора С, причем последний можно использовать как имитатор или корректирующее устройство. Адаптивная оптимальная САУ на базе самоорганизующегося оптимального регулятора с экстраполяцией Функциональная схема такой САУ (рис. 50) содержит следу­ющие элементы: 1. блок памяти; 2. блок оценивания; 3,7. исполнительные блоки; 4. экстраполятор нулевого порядка (ЦАП); 5. обобщенный объект регулирования (ОР); 6. блок автоматического поиска порядка математической мо­дели (ММ) объекта. По принципу функционирования эта САУ относится к систе­мам с дискретным временем циклического типа. Входной вели­чиной самоорганизующегося оптимального регулятора с экстра­поляцией служит сигнал рассогласования х(t) между задающим воздействием g(t) и выходной Рис.50 величиной y(t) объекта. Этот сиг­нал измеряется на каждом шаге, т. е. при t=iT, i= 0, 1, 2,…. В оперативной памяти 1 в табличном виде хранятся парамет­ры, определенные на стадии проектирования: значения элемен­тов матриц наблюдателей объекта с полиномиальной математи­ческой моделью различного порядка, оптимальные значения априорного времени экстраполяции и др. В блоке оценивания 2 реализованы параллельно работающие рекуррентные циклические наблюдатели всех выбранных поряд­ков n = 2, 3, .., nm. Полиномиальная математическая модель обобщенного регулируемого объекта эквивалентна цепочке по­следовательно соединенных интегрирующих звеньев, и блок 2 вы­рабатывает оценки векторов состояния этих цепочек для всех значений n. Соответственно каждый рекуррентный циклический наблюдатель строится по каскадной схеме, т. е. состоит из цепоч­ки последовательно соединенных наблюдателей Нi (i = 1, ..,, п) про­изводных (рис. 51, а), причем последние реализованы на базе фильтра Калмана-Бьюси второго порядка (рис. 51, б), у которого Рис. 51 Помеха типа «белый шум» подавляется благодаря инерци­онности фильтра Калмана-Бьюси: первые оценки производных содержат «шум», а их вторые оценки - сглаженные, практически без «шума». Оценивание каждой последующей производной начинается после того, как завершится оценивание предыдущей (рекуррентный алгоритм). Так, например, после того, как и соответственно начинается оценивание и завершается при , в результате чего получается и т.д. Для каждого фильтра Калмана-Бьюси коэффициенты k1 и k2 меняются во Рис.52 времени в соответствии с передаточной функцией так, чтобы на начальном этапе происходило оценивание наблюдаемой (входной) величины, а затем - оценивание ее первой производной по времени (рис. 52). В блок 6 (рис. 50) посылаются оценки для всех n, измеренные практически в один и тот же момент времени t благодаря малой затрате времени на оценивание (на порядок меньше периода наиболее высокочастотной составляющей движения объекта регулирования) и значительной инерционности объекта. По векторам оценок в этом блоке выполняется экстраполяция (т. е. предсказание, прогнозирование изменения) сигнала рассогласования на скользящий интервал для всех значений n, где Тэ – время экстраполяции. Кроме того, в этот же блок поступают значения рассогласования и запоминаются на том же скользящем интервале. Далее осуществляется целочисленный поиск по п минимума усредненной нормы (например, квадрата) разности между фактическим и априорно предсказанным значением сигнала рассогласования. Это значение п считается оптимальным и по цепи местной ОС посылается в блок 2, а затем из этого блока в исполнительный блок 3. Кроме того, при этом происходит апостериорная оптимизация времени экстраполяции. В исполнительном блоке 3 рассчитывается оптимальное управление u1 объектом на основе минимизации функционала обобщенной работы. В блоке 7 определяется дополнительное управление u2, компенсирующее неопределенности объекта. Управляющее воз­действие u = u1 + u2 после экстраполятора нулевого порядка име­ет вид кусочно-постоянной функции на интервалах , определяемой через рассогласование и оценки его производных. При этом могут быть реализованы астатизмы высокого порядка (v > 8), которые считались недостижимыми в эпоху аналоговой техники. Обобщенный объект 5 кроме ОР включает в себя усили­тели, приводы, измерительные преобразователи. На рис. 53 дана иллюстрация работы САУ и самоорганизующегося оптимально­го регулятора с экстраполяцией для ОР второго порядка. Рис.53 Итак, данная САУ впервые позволяет реализовать адаптивное управление при неизвестной априори структуре ОР благодаря высокому уровню структурной и параметрической адаптации, которая обеспечивается прежде всего за счет применения наблю­дателей в виде фильтра Калмана-Бьюси, устройств экстраполя­ции и поиска порядка математической модели. Как было указано, в этой САУ для оптимизации используется функционал обобщенной работы - неклассический функционал с аддитивными затратами как на синтезируемое управление u, так и управление u0 в оптимальной системе: . ОУ задан уравнениями с линейно входящими управлениями: При аналитическом конструировании необходим синтез алго­ритма оптимального управления u° = u°(х,t) на стадии проекти­рования, что наталкивается на существенные трудности. Более прост поиск u0(t) САУ с прогнозирующей моделью в процессе работы системы. Уравнение Беллмана для данной задачи имеет вид: . (66) Минимизация по u, т. е. дифференцирование по u и приравни­вание производной к 0, приводит к решению в неявном виде: . (67) Подставляем (66) в (67) и учитываем дополнительное усло­вие, налагаемое на функции U и U*: . Данное условие означает, что левая часть этого неравенства должна быть положительно-определенной функцией относитель­но и, принимающей минимальное значение, равное 0 при u=u0. В результате получим уравнение в частных производных, на- зываемое уравнением Ляпунова: . (68) Привлекая для решения этого уравнения метод характерис­тик, можно показать, что искомое решение строится на интег­ральных кривых, удовлетворяющих обыкновенным дифференци­альным уравнениям свободного движения объекта (): (69) где - вектор частных производных функций Беллмана S по компонентам вектора состояния. Уравнение (69) может быть также получено из (68) непосред­ственным дифференцированием по x и изменением порядка дифференцирования. Кроме того, при вычислении функции S(x,t) на свободной тра­ектории (u=0) из (68) вытекает уравнение . (70) Уравнения (69), и (70) составляют основу алгоритмов оптимизации с прогнозирующей моделью. Суть этих алгоритмов сводится к тому, что на основе интегрирования этих уравнений строится решение уравнения (68) и тем самым решается оптими­зационная задача. Упрощение состоит в том, что не требуется поиска структуры функции S(x,t) во всей области ее определе­ния, а требуется лишь вычисление ее значений в некоторой ок­рестности текущего состояния, достаточной для вычисления градиента , который затем используется в (67) для вычисления u0(t). Лекция 10
«Оптимальные и адаптивные системы управления» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ

Тебе могут подойти лекции

Смотреть все 127 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot