Сетевое издание
Современные проблемы науки и образования
ISSN 2070-7428
"Перечень" ВАК
ИФ РИНЦ = 1,006

ПАРАЛЛЕЛЬНАЯ РЕАЛИЗАЦИЯ МЕТОДА ИЗМЕНЯЮЩИХСЯ ВЕРОЯТНОСТЕЙ

Казаковцев Л.А. 1 Ступина А.А. 1
1 Сибирский государственный аэрокосмический университет
Методы случайного поиска находят применение для решения широкого круга дискретных задач оптимизации большой размерности, когда использование детерминированных методов становится невозможным без упрощения исходной задачи из-за резкого роста требуемых вычислительных мощностей. Даже в случае применения случайного поиска, однако, требуются весьма значительные вычислительные мощности, и точность решения зависит от затраченного времени. Быстрое развитие сравнительно дешевых многопроцессорных систем позволяет значительно сократить время поиска приемлемого решения с коэффициентом ускорения, близким к идеальному. Здесь рассмотрен подход к распараллеливанию алгоритма, реализующего модифицированный вариант метода изменяющихся вероятностей с адаптацией и процедурой возврата для задач оптимизации псевдобулевой функции с ограничениями. Существующий оптимизационный алгоритм адаптирован для систем с общей памятью (использована библиотека GNU OpenMP и соответствующий компилятор). Оценена эффективность параллельного алгоритма.
параллельные алгоритмы
комбинаторная оптимизация
1. Антамошкин А.Н. Оптимизация функционалов с булевыми переменными. - Томск : Изд-во Томского ун-та, 1987.
2. Устюжанинов В.Г. О случайном поиске оптимальных систем // Компьютерные системы. Автоматизация разработки в микроэлектронике. Теория, методы, алгоритмы. ИМ СО АН СССР. - 1978. - Вып. 77. - С. 42-51.
3. Baba N. Convergence of Random Search Optimization Methods for Constrained Optimization Methods // Journal of Optimization Theory and Applications. - 1981. - Issue 33. - Р. 451-461.
4. Birge J.R., Rosa C.H. Parallel Decomposition of Large-Scale Stochastic Nonlinear Programs, Annals of Operation Research. - 1996. - Issue 64. - Р. 39-65.
5. Fishburn P. Utility Theory of Decision Making, J. Wiley. - New York, 1970.
6. Kazakovtsev L. Adaptive Model of Static Routing for Traffic Balance between Multiple Telecommunication Channels to Different ISPs. - URL: http://eprints.ictp.it/415.
7. Ljung L. System Identification: Theory for the User. - Prentice Hall. - NJ, 1987.
8. Pardalos, P. M. Pitsoulis, L. Mavridou, T. Resende, M. G. C. Parallel Search for Combinatorial Optimization: Genetic Algorithms, Simulated Annealing, Tabu Search and GRASP, Lecture Notes in Computer Science. - 1995. - Issue 980. Р. 317-331.
9. Ralphs T.K., Ladanyi L., Saltzman M.J. Parallel Branch, Cut and Price for Large-Scale Discrete Optimization in Computational Combinatorial Optimization, D.Naddef and M. Junger, eds. - Springer. - Berlin, 2001. - Р. 223-254.
10. Rinaudoy S., Moschellay F., Anilez M.A. Controlled Random Search Parallel Algorithm for Global Optimization with Distributed Processes on Multivendor CPUs. - URL: http://citeseer.ist.psu.edu/710446.html.

Введение

Методы случайного поиска являются эвристическими методами, не гарантируют нахождения точного результата, но являются статистически оптимальными, т.е. процент задач, решенных «почти оптимально», растет с ростом размерности решаемых задач [1].

Задачами большой размерности можно считать задачи с десятками тысяч, иногда миллионами переменных. Например, задача ассортиментного планирования продукции производственного предприятия или оптимизации госзакупок может включать в себя выбор тысяч наименований товаров у сотен поставщиков. Такие задачи, в общем случае, могут быть решены без их упрощения только методами случайного поиска.

Детерминированные методы, базирующиеся на легко распараллеливаемом методе ветвей и границ, находят свое применение во многих областях [1; 5], но относятся к классу сложности NP-hard и, несмотря на широкий набор способов [9] снижения вычислительной сложности задач путем учета их характерных особенностей, требуют поиска в дереве, число ветвей которого растет экспоненциально с ростом числа переменных, что делает невозможным применение метода при большой размерности задач.

Решаемая задача, примененный метод

В качестве тестового примера рассмотрим следующую задачу.

 (1)

с ограничениями:

 (2)

 (3)

Здесь F(X) - целевая функция, xij - булевы переменные, aij, bijk, ci и B1, B2, ..., BNconstr - константы, N, V - натуральные числа. N - число элементов, из которого делается выбор (товаров, узлов, каналов связи и т.д.), V - число возможных вариантов для каждого элемента. Предполагается, что для каждого из N элементов может быть выбрано не более 1 варианта. Переменная xv(i-1)+j= 1, если решение включает i-й элемент в его j-м варианте. Целевая функция является мультипликативной сверткой двух линейных критериев. Подобные задачи возникают, например, при ассортиментном планировании, маршрутизации и т.п. [6].

Изначально разработанный для решения задач безусловной оптимизации, метод изменяющихся вероятностей (МИВЕР) - это метод случайного поиска, рассматриваемый иногда как вариант генетического алгоритма, организованный по следующей схеме [1].

  1. k=0; устанавливаем начальные значения вероятностей Pk={pk1, pk2, ..., pkN}, где pkj=P{xj=1}. Установка адекватных начальных значений вектора вероятностей Pk - важная проблема при решении задач данным методом.
  2. Согласно вектору вероятностей Pk генерируем набор независимых случайных булевых значений Xki. Значение элемента вектора вероятностей pki определяет вероятность того, что булева переменная Xki примет значение 1 в генерируемом наборе.
  3. Производится расчет значений функции для F(Xki) для каждого сгенерированного набора булевых переменных.
  4. Выбираются некоторые значения F(Xki) и соответствующие им точки Xki (например, выбираются точки, в которых получено минимальное и максимальное значения целевой функции).
  5. По результатам пункта 4 модифицируется вектор Pk.
  6. k=k+1; если k<R, то переходим к пункту 2. Это условие останова может варьироваться в зависимости от реализации алгоритма.
  7. Иначе - останов и результат:

 . (4)

Модифицированная версия алгоритма [6] позволяет решать задачи с миллионами булевых переменных. При большой размерности даже многократное вычисление значений целевой функции требует значительных ресурсов. В практических задачах (например, в задачах ассортиментного планирования) число ограничений также растет с ростом размерности, растет и число шагов, требуемое для достижения приемлемого результата. Целевая функция иногда задается алгоритмом, который сам представляет собой решение вложенной задачи оптимизации. Требуемые вычислительные ресурсы при этом значительны, и вопрос использования возможностей параллельных систем чрезвычайно актуален.

Последовательная реализация алгоритма

Схема алгоритма для однопроцессорных систем показана на рис. 1, вариант 1.

На шаге инициализации в простейшем случае все компоненты p вектора P устанавливаются равными 0.5, но поскольку алгоритм реализует метод условной оптимизации, начальные значения вектора P важны для попадания генерируемых решений в область допустимых значений. На каждом шаге алгоритма генерируется набор векторов X булевых переменных. Компоненты вектора вероятностей P определяют математическое ожидание генерации значения 1 компонент вектора X. Благодаря ограничениям (3) оптимальные начальные значения компонент вектора P не превышают 1/(V+1) [6].

Условием останова является выполнение предельного числа шагов M адаптации вектора P. Может быть также использовано предельное время работы алгоритма или предельное число шагов, не дающих улучшения достигнутого результата.

В алгоритме использована дополнительная штрафная функция [3]:

(5)

(6)

 

Рис. 1. Блок-схема последовательного (вар. 1) и параллельного (вар. 2) алгоритмов.

Если известна оценка максимально теоретически достижимого значения f(X), мы можем ее использовать в качестве коэффициента CPENALTY. В нашем случае[6]:

. (7)

Модифицированная целевая функция f M является суммой собственно целевой функции и штрафной функции.

Решение практических задач [6] показывает, что лучшие результаты достигаются при использовании мультипликативной адаптации и процедуры возврата [1].

 (8)

Здесь d - коэффициент адаптации, который в данном случае от шага k не зависит. Адаптация вектора P приводит к генерации мало различающихся экземпляров Х вокруг локального оптимума. Процедура отката приводит вектор P к начальному (или другому) значению. Условия старта процедуры отката в нашем случае - достижение определенного числа шагов, не улучшающих fM. Мы выполняем откат по формуле:

pkj = (pk-1 j +qkp0 )/(1+qk), if pk-1 j <p0. (9)

Здесь p0 - начальное значение вероятности. Коэффициент qk может быть постоянным или меняться в зависимости от результатов предыдущих шагов. Например, если sm - число шагов, сделанных после последнего улучшения найденного оптимума целевой функции,

qk = w / sm. (10)

Для задач оптимизации с тысячами переменных приемлемы значения весового коэффициента w в диапазоне 0,01 ... 0,05.

Процесс минимизации штрафной функции путем адаптации вектора Р приближает генерируемые векторы Х к области допустимых решений. Процедура отката снова отодвигает нас от этой области. Пусть задача имеет только одно ограничение:

. (11)

Математическое ожидание левой части выражения (11) равно:

M = p0b1+p0b2+ ... +p0bD = (b1+b2+ ... +bD)p0. (12)

Поскольку оптимальные значения целевой функции часто достигаются на границе области допустимых решений (b1x1+b2x2+b3x3 + ... +bDxDB), оптимальное начальное значение компонент вектора вероятностей равно:

p0 = B/(b1+b2+b3 + ... +bD). (13)

В более сложных случаях негативный эффект процедуры отката может быть снижен сохранением среднего значения компонент вектора вероятностей p0:

p0 = (p1+p2 +...+pD)/D. (14)

Параллельная версия для мультипроцессорных систем

Адаптация алгоритма для систем с общей памятью может быть выполнена путем организации параллельной генерации экземпляров вектора Х и их оценки. Схема показана на рис. 1, вариант 2. Каждый из NP процессоров генерирует по N/Np экземпляров вектора X и вычисляет для них значение f(X), левых частей неравенств-ограничений.

Организация параллельного потока требует значительных ресурсов, эквивалента 1000 операциям деления чисел с плавающей точкой [4], эффективна только при большой размерности.

Для реализации параллельной версии нашего алгоритма требуются лишь минимальные изменения в исходном коде программы. Если исходный код последовательной версии алгоритма написан на языках C/C++ или Fortran и есть возможность использования библиотеки OpenMP с подходящими компиляторами, требуется лишь вставить дополнительную строку перед началом вложенного цикла. Пример для Фортрана:

do k=1, M

c$omp parallel do

do i = 1, N

<Генерация вектора X согласно вектору P>

<оценка полученных векторов и т.д.>

enddo

<Адаптация, возможно - вызов процедуры отката>

enddo

c$omp end parallel do

Также наша программа должна содержать специальные строки в ее начальной части ($omp для Фортрана, #pragmaomp для C++), которые предписывают компилятору использовать библиотеку OpenMP с нужными опциями.

Работа в системах с распределенной памятью (кластерах)

В [10] предложен подход для генетического алгоритма на системах с распределенной памятью, аналогичный приведенному выше: параллельная генерация векторов Х и вычисление целевой функции, что требует интенсивного обмена данными между узлами и частой синхронизации (процедура MPI_BARRIER). Объем информации существенно снижается, если каждый из процессов генерирует множество экземпляров вектора Х и отсылает лишь информацию о лучшем и худшем вариантах. Но синхронизация в таких системах требует столько времени и ресурсов, что эффект от параллельного выполнения минимален. На системе из двух компьютеров, соединенных сетью GigabitEthernet (Linux, OpenMPI+ifortran), положительный эффект достигается при размерности задач 1000-3000. При меньшей размерности эффект отрицательный.

Эксперименты на кластере Argo Международного центра теоретической физики Абдус Салам (г. Триест, Италия) с применением библиотеки MPI и компиляторов IntelFortran и GNUFortran также подтверждают низкую эффективность метода. Кластер состоит из узлов на базе процессора IntelXeon 2.6ГГц, соединенных сетью сеть MiryNet. Запуск алгоритма для задачи в 10000 переменных дает незначительный положительный эффект (коэффициент параллельной эффективности 1,23) на 2 узлах, при выполнении на трех и более узлах эффект стабильно отрицательный. Среднее время простоя узлов достигает 43% при 3 узлах.

Результаты для систем с общей памятью

Аналитическая оценка вычислительной сложности в рекуррентных формулах дана в [2], формулы требуют указания точной информации о целевой функции (линейность, унимодальность и т.д.) Сравним затраты времени на выполнение параллельной части алгоритма (рис. 1, вариант 2) и последовательной его части, включающей адаптацию вектора P (линейно зависит от размерности задачи) и возможную процедуру отката (также линейно зависит). При линейной целевой функции (или произведении линейных функций, как в нашем случае) и линейных ограничениях сложность параллельной части также линейно зависит от числа переменных и линейно зависит от числа ограничений, которое часто также линейно зависит от числа переменных (число ограничений (3) напрямую зависит от числа переменных). Cложность параллельной части, таким образом, пропорциональна квадрату числа переменных O(N2V2) при линейной сложности последовательной части O(NV), поэтому параллельная эффективность алгоритма растет с ростом размерности.

Экспериментальная оценка эффективности алгоритмов, предложенная в [7], может быть применена и в случае условной оптимизации. Генерируется набор тестовых задач. Коэффициенты целевой в (1-3) устанавливаются генератором случайных чисел [5]. Значения Bi устанавливаются так, чтобы задача имела допустимые решения. Задача решается последовательной версией алгоритма. В качестве условия останова используется максимальное время, отведенное на работу алгоритма. Фиксируется достигнутое значение целевой функции fGM*. Затем алгоритм запускается K раз для решения той же задачи, но в качестве условия останова принимается достижение того же или лучшего значения fGM*. Среднее время работы параллельной и последовательной версий сравнивается.

Рис. 2. Результаты последовательного (синий цвет) и параллельного (красный) алгоритмов.

Для оценки параллельной эффективности мы использовали систему с 4 процессорами IntelXeon 2.6 ГГц для решения задач размерностью 1000-50000 переменных. Сравнение среднего значения времени для 5 целевых функций с 10000 переменных, по 10 запусков для каждой, показало параллельную эффективность 0,95-0,97. Для построения графика (рис. 2) в алгоритм включен блок, записывающий результаты и затраченное время через каждые 100 шагов. Для достижения контрольного значения fGM*=65015.17 последовательной версии понадобилось 13748 сек., параллельной - 3556 сек.

Выводы

Алгоритмы, реализующие метод изменяющихся вероятностей, могут быть легко адаптированы для многопроцессорных систем с высокой параллельной эффективностью. Тот же подход не работает для систем с распределенной памятью, в этом случае требуется более серьезная переработка алгоритма.

Исследование выполнено при поддержке ФЦП «Научные и научно-педагогические кадры России на 2009-2013 годы».

Рецензенты:

  • Антамошкин А.Н., д.т.н., проф., зав. кафедрой математического моделирования и информатики ФГОУ ВПО «Красноярский государственный аграрный университет», г. Красноярск.
  • Петров М.Н., д.т.н., проф., зав. кафедрой электронной техники и телекоммуникаций Сибирского государственного аэрокосмического университета им. академика М.Ф. Решетнева, г. Красноярск.

Библиографическая ссылка

Казаковцев Л.А., Ступина А.А. ПАРАЛЛЕЛЬНАЯ РЕАЛИЗАЦИЯ МЕТОДА ИЗМЕНЯЮЩИХСЯ ВЕРОЯТНОСТЕЙ // Современные проблемы науки и образования. – 2012. – № 4. ;
URL: https://science-education.ru/ru/article/view?id=6810 (дата обращения: 29.03.2024).

Предлагаем вашему вниманию журналы, издающиеся в издательстве «Академия Естествознания»
(Высокий импакт-фактор РИНЦ, тематика журналов охватывает все научные направления)

«Фундаментальные исследования» список ВАК ИФ РИНЦ = 1,674