Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей с эволюционным управлением параметрами

Бесплатный доступ

Представлен гибридный метод глобальной оптимизации НАИЗ-PSO на основе нейросетевой аппроксимации инверсных зависимостей (координат от значений целевой функции) и метода роя частиц, служащий для нахождения глобального минимума непрерывной целевой функции многих переменных в области, имеющей вид многомерного параллелепипеда. Целевая функция рассматривается как абстрактная вычислительная процедура («чёрный ящик»).Метод использует группы пробных точек, движущихся как в методе роя частиц. Одна из возможных целей движения определяется через отображение пониженных значений целевой функции в координаты посредством модифицированных дуальных обобщённо-регрессионных нейронных сетей, конструируемых по пробным точкам.Параметрами процесса управляет эволюционный алгоритм. В алгоритме управления популяция состоит из эволюционирующих правил, заключающих в себе наборы параметров. Для оценки приспособленности особи используются две числовые характеристики: краткосрочная (очарование) и долгосрочная (достоинство)...

Еще

Глобальная оптимизация, эвристические методы, эволюционные методы, нейронные сети, установка параметров, управление параметрами, метод роя частиц

Короткий адрес: https://sciup.org/143169795

IDR: 143169795   |   DOI: 10.25209/2079-3316-2019-10-2-33-65

Список литературы Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей с эволюционным управлением параметрами

  • W. M. Spears, K. A. De Jong, T. Bäck, D. B. Fogel, H. De Garis. “An overview of evolutionary computation”, European Conference on Machine Learning, Lecture Notes in Computer Science, vol. 667, Springer, 1993, pp. 442-459. DOI: 10.1007/3-540-56602-3_163
  • F. Neri, V. Tirronen. “Recent advances in differential evolution: a survey and experimental analysis”, Artificial Intelligence Review, 33:1-2 (2010), pp. 61-106. DOI: 10.1007/s10462-009-9137-2
  • N. Siddique, H. Adeli. “Nature inspired computing: an overview and some future directions”, Cognitive computation, 7:6 (2015), pp. 706-714. DOI: 10.1007/s12559-015-9370-8
  • D. H. Wolpert, W. G. Macready. “No free lunch theorems for optimization”, IEEE transactions on evolutionary computation, 1:1 (1997), pp. 67-82. DOI: 10.1109/4235.585893
  • G. Karafotias, M. Hoogendoorn, A. E. Eiben. “Parameter control in evolutionary algorithms: Trends and challenges”, IEEE Transactions on Evolutionary Computation, 19:2 (2015), pp. 167-187. DOI: 10.1109/TEVC.2014.2308294
  • A. Aleti, I. Moser. “A systematic literature review of adaptive parameter control methods for evolutionary algorithms”, ACM Computing Surveys (CSUR), 49:3 (2016), 56.
  • DOI: 10.1145/2996355
  • R. Poli, J. Kennedy, T. Blackwell. “Particle swarm optimization”, Swarm intelligence, 1:1 (2007), pp. 33-57.
  • DOI: 10.1007/s11721-007-0002-0
  • V. D. Koshur. “Reinforcement swarm intelligence in the global optimization method via neuro-fuzzy control of the search process”, Optical Memory and Neural Networks, 24:2 (2015), pp. 102-108.
  • DOI: 10.3103/S1060992X15020083
  • Sh. A. Akhmedova, V. V. Stanovov, E. S. Semenkin. “Cooperation of bio-inspired and evolutionary algorithms for neural network design”, Journal of Siberian Federal University. Mathematics Physics, 11:2 (2018), pp. 148-158.
  • DOI: 10.17516/1997-1397-2018-11-2-148-158
  • E. Semenkin, M. Semenkina. “Self-configuring genetic algorithm with modified uniform crossover operator”, ICSI 2012, Lecture Notes in Computer Science, vol. 7331, Springer, 2012, pp. 414-421.
  • DOI: 10.1007/978-3-642-30976-2_50
  • G. Karafotias, A. E. Eiben, M. Hoogendoorn. “Generic parameter control with reinforcement learning”, ACM, 2014, pp. 1319-1326.
  • DOI: 10.1145/2576768.2598360
  • G. Karafotias, M. Hoogendoorn, B. Weel. “Comparing generic parameter controllers for EAs”, IEEE, 2014, pp. 46-53.
  • DOI: 10.1109/FOCI.2014.7007806
  • A. Rost, I. Petrova, A. Buzdalova. “Adaptive Parameter Selection in Evolutionary Algorithms by Reinforcement Learning with Dynamic Discretization of Parameter Range”, ACM, 2016, pp. 141-142.
  • DOI: 10.1145/2908961.2908998
  • В. Д. Кошур, К. В. Пушкарев. «Глобальная оптимизация на основе нейросетевой аппроксимации инверсных зависимостей», Сборник научных трудов: в 3 ч. 1, ред. О. А. Мишулина, НИЯУ МИФИ, М., 2010, с. 89-98.
  • V. Koshur, K. Pushkaryov. “Global optimization via neural network approximation of inverse coordinate mappings”, Optical Memory and Neural Networks, 20:3 (2011), pp. 181-193.
  • DOI: 10.3103/S1060992X1103009X
  • К. В. Пушкарев, В. Д. Кошур. «Гибридный эвристический параллельный метод глобальной оптимизации», Вычислительные методы и программирование, 16 (2015), с. 242-255.
  • DOI: 10.26089/NumMet.v16r224
  • В. Д. Кошур, К. В. Пушкарев. «Дуальные обобщённо-регрессионные нейронные сети для решения задач глобальной оптимизации», Сборник научных трудов: в 2 ч. 2, ред. О. А. Мишулина, НИЯУ МИФИ, М., 2010, с. 219-227.
  • J. Nocedal, S. J. Wright. Numerical Optimization, Second Edition, Springer-Verlag, New York, 2006.
  • DOI: 10.1007/978-0-387-40065-5
  • N. H. Awad, M. Z. Ali, P. N. Suganthan, J. J. Liang, B. Y. Qu. “Problem Definitions and Evaluation Criteria for the CEC 2017 Special Session and Competition on Single Objective Real-Parameter Numerical Optimization”, 2016 URL http://web.mysites.ntu.edu.sg/epnsugan/PublicSite/Shared%20Documents/CEC-2017/Bound-Constrained/Definitions%20of%20%20CEC2017%20benchmark%20suite%20final%20version%20updated.pdf.
  • G. Karafotias, M. Hoogendoorn, A. E. Eiben. “Why parameter control mechanisms should be benchmarked against random variation”, IEEE, 2013, pp. 349-355.
  • DOI: 10.1109/CEC.2013.6557590
  • E. Jones, T. Oliphant, P. Peterson, et al. SciPy: Open source scientific tools for Python, 2001 URL http://www.scipy.org/.
  • R Core Team. R: A language and environment for statistical computing, 2018 URL https://www.R-project.org/.
Еще
Статья научная