Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | ||
|
Чтобы построить алгоритм решения задач, дадим математическую формулировку принципа оптимальности. Для этого введем некоторые дополнительные обозначения. Обозначив через максимальный доход, получаемый за n шагов при переходе системы S из начального состояния х(0) в конечное состояние x(n) при реализации оптимальной стратегии управления m* = (m1*, m2*,..., mk*), а через F (x(k)) — максимальный доход, получаемый при переходе из любого состояния х(k) в конечное состояние х(n) при оптимальной стратегии управления на оставшихся (n - к) шагах. Тогда
(1)
(2)
при к = 0, 1,2,..., n - 1.
Выражение (2) представляет собой математическую запись принципа оптимальности Беллмана и носит название основного функционального уравнения Беллмана. Используя уравнение (2) находится решение рассматриваемой задачи динамического программирования. Рассмотрим этот процесс более подробно.
Полагая к = n- 1 в уравнении Беллмана (2), получаем следующее функциональное уравнение: (3)
В (3) можно считать известным. Используя теперь уравнение (3) и рассматривая всевозможные допустимые состояния системы S на (n - 1)-м шаге ,..., находим условные оптимальные решения и соответствующие значения функции (3):
Таким образом, на п-и шаге находим условно оптимальное управление при любом допустимом состоянии системы после (n - 1)-го шага, т. е. в каком бы состоянии система не оказалась после (n - 1)-го шага, нам уже известно, какое следует принять решение на n-м шаге.
Перейдем теперь к рассмотрению функционального уравнения при
к = n – 2: (4)
Решая функциональное уравнение (4) при различных состояниях на (n - 2)-м шаге, получим условно оптимальные управления . Каждое из этих управлений совместно с уже выбранным управлением на последнем шаге обеспечивает максимальное значение дохода на двух последних шагах.
Последовательно осуществляя описанный выше итерационный процесс, дойдем до первого шага. На этом шаге известно, в каком состоянии может находиться система. Поэтому уже не требуется делать предположений о допустимых состояниях системы, а остается лишь только выбрать управление, которое является наилучшим с учетом условно оптимальных управлений, уже принятых на всех последующих шагах.
Чтобы найти оптимальную стратегию управления, т. е. определить искомое решение задачи, нужно теперь пройти всю последовательность шагов, только на этот раз от начала к концу. На первом шаге в качестве оптимального управления возьмем найденное условно оптимальное управление . На втором шаге найдем состояние , в которое переводит систему управление . Это состояние определяет найденное условно оптимальное управление , которое теперь будем считать оптимальным. Зная , находим , значит, определяем и т. д. В результате этого находим решение задачи, т. е. максимально возможный доход и оптимальную стратегию управления, включающую оптимальные управления на отдельных шагах.
26. Принцип оптимальности Беллмана.
Принцип оптимальности впервые был сформулирован Р. Беллманом в 1953 г. Каково бы ни было состояние s системы в результате какого-либо числа шагов, на ближайшем шаге нужно выбирать управление так, чтобы оно в совокупности с оптимальным управлением на всех последующих шагах приводило к оптимальному выигрышу на всех оставшихся шагах, включая данный. Беллманом четко были сформулированы и условия, при которых принцип верен. Основное требование – процесс управления должен быть без обратной связи, т.е. управление на данном шаге не должно оказывать влияния на предшествующие шаги.
Принцип оптимальности утверждает, что для любого процесса без обратной связи оптимальное управление таково, что оно является оптимальным для любого подпроцесса по отношению к исходному состоянию этого подпроцесса. Поэтому решение на каждом шаге оказывается наилучшим с точки зрения управления в целом. Если изобразить геометрически оптимальную траекторию в виде ломанной линии, то любая часть этой ломанной будет являться оптимальной траекторией относительно начала и конца.
Уравнения Беллмана. Рассмотрим последовательность задач, полагая последовательно n = 1,2,… при различных s – одношаговую, двухшаговую и т.д., - используя принцип оптимальности.
На каждом шаге любого состояния системы sk-1 решение Xk нужно выбирать «с оглядкой», так как этот выбор влияет на последующее состояние sk и дальнейший процесс управления, зависящий от sk. это следует из принципа оптимальности.
Но есть один шаг, последний который можно для любого состояния sn-1 планировать локально-оптимально, исходя только из соображений этого шага.
Рассмотрим n-й шаг: sn-1 – состояние системы к началу n-го шага, - конечное состояние, Xn – управление на n-м шаге, а - целевая функция (выигрыш) n-го шага.
Согласно принципу оптимальности, Xn нужно выбирать так, чтобы для любых состояний sn-1 получить максимум целевой функции на этом шаге.
Обозначим через максимум целевой функции – показателя эффективности n-го шага при условии, что к началу последнего шага система S была в произвольном состоянии sn-1, а на последнем шаге управление было оптимальным.
называется условным максимумом целевой функции на n-м шаге. Очевидно, что (1)
Максимизация ведется по всем допустимым управлениям Xn. Решение Xn, при котором достигается , также зависит от sn-1 и называется оптимальным управлением на n-м шаге. Оно обозначается через .
Решив одномерную задачу локальной оптимизации (1), найдем для всех возможных состояний sn-1 две функции и .
Рассмотрим пошаговую задачу: присоединим к n-му шагу (n-1)-й.(см. рис.).
условно оптимальный выигрыш на n-м шаге
значение целевой функции (n-1)-го шага при произвольном управлении Хn-1 и состоянии Sn-2
Для любых состояний sn-2, произвольных управлений и оптимальном управлении на n-м шаге значение целевой функции на двух последних шагах равно: (2).
Согласно принципу оптимальности для любых sn-2 решение нужно выбирать так, чтобы оно вместе с оптимальным управлением на последнем шаге (n-м) шаге приводило бы к максимуму целевой функции на двух последних шагах. Следовательно, нужно найти максимум выражения (2) по всем допустимым управлениям . Максимум этой суммы зависит от sn-2, обозначается через и называется условным максимумом целевой функции при оптимальном управлении на двух последних шагах. Соответствующее управление на (n-1) шаге обозначается через и называется условным оптимальным управлением на (n-1) шаге.
(3)
Выражение, входящее в фигурных скобках (3), зависит только от sn-2 и , так как sn-1 можно найти при k=n-1. и подставить вместо sn-1 в функцию .
В результате максимизации только по одной переменной согласно уравнению (3) вновь получается две функции: и .
Далее рассматривается трехшаговая задача: к двум последним шагам присоединяется (n-2)-й и т.д.
Обозначим через условный максимум целевой функции, полученный при оптимальном управлении на n-k+1 шагах, начиная с к-го до конца, при условии, что к началу к-го шага система находилась в состоянии sк-1. Фактически эта функция равна , тогда .
Целевая функция на n-k последних шагах при произвольном управлении Хк на к-м шаге и оптимальном управлении на последующих n-k шагах равна . Согласно принципу оптимальности, Хк выбирается из условия максимума этой суммы, т.е. (4), k=n-1,n-2,…,2,1.
Уравнение Хк на к-м шаге, при котором достигается максимум, обозначается через и называется условным оптимальным управлением на к-м шаге в правую часть уравнения (4) следует вместо sk подставить выражение . Уравнения (4) называют уравнениями Беллмана. Это рекуррентные соотношения, позволяющие найти предыдущее значение функции, зная последующие.
Процесс решения уравнений (1) – (4) называется условной оптимизацией.
27. Общая идея метода динамического программирования.
Основные идеи вычислительного метода динамического программирования.Некоторые задачи математического программирования обладают специфическими особенностями, которые позволяют свести их решение к рассмотрению некоторого множества более простых «подзадач». В результате вопрос о глобальной оптимизации некоторой функции сводится к поэтапной оптимизации некоторых промежуточных целевых функций. В динамическом программировании [1] рассматриваются методы, позволяющие путем поэтапной (многошаговой) оптимизации получить общий (результирующий) оптимум.
Обычно методами динамического программирования оптимизируют работу некоторых управляемых систем, эффект которой оценивается аддитивной, или мультипликативной, целевой функцией. Аддитивной называется такая функция нескольких переменных f(x1 x2,...,xn), значение которой вычисляется как сумма некоторых функций fj, зависящих только от одной переменной xj:
(1)
Слагаемые аддитивной целевой функции соответствуют эффекту решений, принимаемых на отдельных этапах управляемого процесса. По аналогии, мультипликативная функция распадается на произведение положительных функций различных переменных:
(2)
Поскольку логарифм функции типа (2) является аддитивной функцией, достаточно ограничиться рассмотрением функций вида (1).
Изложим сущность вычислительного метода динамического программирования на примере задачи оптимизации
(3)
при ограничениях
(4)
Отметим, что в отличие от задач, рассмотренных в предыдущих главах, о линейности и дифференцируемости функций не делается никаких предположений, поэтому применение классических методов оптимизации (например, метода Лагранжа) для решения задачи (3)-(4) либо проблематично, либо просто невозможно.
Содержательно задача (3)-(4) может быть интерпретирована как проблема оптимального вложения некоторых ресурсов j, приводимых к единой размерности (например, денег) с помощью коэффициентов аj в различные активы (инвестиционные проекты, предприятия и т. п.), характеризующиеся функциями прибыли fj, т. е. такого распределения ограниченного объема ресурса (b), которое максимизирует суммарную прибыль. Представим ситуацию, когда она решается последовательно для каждого актива. Если на первом шаге принято решение о вложении в п- йактив хп единиц, то на остальных шагах мы сможем распределить b-апхп единиц ресурса. Абстрагируясь от соображений, на основе которых принималось решение на первом шаге (допустим, мы по каким-либо причинам не могли на него повлиять), будет вполне естественным поступить так, чтобы на оставшихся шагах распределение текущего объема ресурса произошло оптимально, что равнозначно решению задачи
(5)
при ограничениях
(6)
Очевидно, что максимальное значение (5) зависит от размера распределяемого остатка, и если оставшееся количество ресурса обозначить через , то величину (5) можно выразить как функцию от :
(7)
где индекс n - 1 указывает на оставшееся количество шагов. Тогда суммарный доход, получаемый как следствие решения, принятого на первом шаге, и оптимальных решений, принятых на остальных шагах, будет
(8)
Если бы имелась возможность влиять на хп, то мы для получения максимальной прибыли должны были бы максимизировать по переменной хп, т. е. найти и фактически решить задачу:
(9)
В результате мы получаем выражение для значения целевой функции задачи при оптимальном поэтапном процессе принятия решений о распределении ресурса. Оно в силу построения данного процесса равно глобальному оптимуму целевой функции
(10)
т. е. значению целевой функции при одномоментном распределении ресурса.
Если в выражении (5.9) заменить значения b на ,и п на k, то его можно рассматривать как рекуррентную формулу, позволяющую последовательно вычислять оптимальные значения целевой функции при распределении объема ресурса за k шагов:
(11)
Значение переменной , при котором достигается рассматриваемый максимум, обозначим .
При k = 1 формула (5.11) принимает вид
(12)
т. е. допускает непосредственное вычисление функций и .
Воспользовавшись (12) как базой рекурсии, можно с помощью (11) последовательно вычислить и , . Положив на последнем шаге , в силу (9), найдем глобальный максимум функции (3), равный , и компоненту оптимального плана . Полученная компонента позволяет вычислить нераспределенный остаток на следующем шаге при оптимальном планировании: ,и, в свою очередь, найти . В результате подобных вычислений последовательно будут найдены все компоненты оптимального плана.
Таким образом, динамическое программирование представляет собой целенаправленный перебор вариантов, который приводит к нахождению глобального максимума. Уравнение (11), выражающее оптимальное решение на k -м шаге через решения, принятые на предыдущих шагах, называется основным рекуррентным соотношением динамического программирования. В то же время следует заметить, что описанная схема решения при столь общей постановке задачи имеет чисто теоретическое значение, так как замыкает вычислительный процесс на построение функций , т. е. сводит исходную задачу (5.3)-(5.4) к другой весьма сложной проблеме. Однако при определенных условиях применение рекуррентных соотношений может оказаться весьма плодотворным. В первую очередь это относится к задачам, которые допускают табличное задание функций .
Задачи динамического программирования, допускающие табличное задание рекуррентных соотношений.Рассмотрим процесс решения модифицированного варианта задачи (3)-(4), в котором переменные xj и параметры aj, b могут принимать только целочисленные значения, а ограничение (4) имеет вид равенства. В рамках предложенной интерпретации о вложении средств в активы данные предпосылки вполне реалистичны и, более того, могут быть даже усилены требованием о кратности значений xj, например, 1000 единицам.
Чтобы не усложнять обозначения, условимся операции целочисленной арифметики записывать стандартным образом, полагая, что промежуточные результаты подвергаются правильному округлению. Так, например, будем считать, что 12/5 = 2.
В соответствии с общей схемой вычислительного алгоритма на первом шаге мы должны построить функцию
Поскольку , x1 принимает конечное число целых значений от 0 до b/a1. Это позволяет, например, путем перебора значений найти функцию и задать ее в форме таблицы следующей структуры (табл. 1).
Последняя колонка табл. 1 содержит значение xl, на котором достигается оптимальное решение первого шага. Его необходимо запоминать для того, чтобы к последнему шагу иметь значения всех компонент оптимального плана.
На следующем (втором) шаге можно приступить к вычислению функции , значения которой для каждого отдельно взятого находятся как
,
где значения
берутся из табл. 1. В результате вычислений формируется таблица значений , содержащая на одну колонку больше по сравнению с табл. 1, так как теперь необходимо запомнить оптимальные решения первого и второго шагов .
Таблица 1
… | … | … |
B |
На последующих шагах с номером осуществляются аналогичные действия, результатом которых становятся таблицы значений ,где (см. табл. 2).
Таблица 2
… | ||||
… | … | … | ||
b |
На последнем п- омшаге нет необходимости табулировать функцию , так как достаточно определить лишь . Одновременно определяется и оптимальное значение n -й компоненты оптимального плана . Далее, используя таблицу, сформированную на предыдущем шаге, определяем оптимальные значения остальных переменных:
и т. д. или, в общем виде,
(13)
Подчеркнем одно из преимуществ описанного метода с точки зрения его практической реализации в рамках программного обеспечения для ЭВМ: на каждом шаге алгоритма непосредственно используется только таблица, полученная на предыдущем шаге, т. е. нет необходимости сохранять ранее полученные таблицы. Последнее позволяет существенно экономить ресурсы компьютера.
Выигрыш, который дает применение рассмотренного алгоритма, может также быть оценен с помощью следующего простого примера. Сравним приблизительно по числу операций (состоящих, в основном, из вычислений целевой функции) описанный метод с прямым перебором допустимых планов задачи (3)-(4) при а1=a2=...аn= 1.
Количество допустимых планов такой задачи совпадает с количеством целочисленных решений уравнения
xl+x2+... +хп =b,
т. е. равно числу сочетаний с повторениями из п элементов по b. Следовательно, при простом переборе число возможных вариантов составит
В случае применения метода динамического программирования для вычисления таблицы значений функции при фиксированном необходимо выполнить операций. Поэтому для заполнения одной таблицы необходимо проделать
операций, из чего получаем, что для вычисления всех функций , и потребуется
Дата публикования: 2015-03-26; Прочитано: 380 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!