Subscription request:

podpiska@panor.ru

For all questions:

+7 495 274-22-22

UDK: 004.4–048.34 (075.8)

Analysis of optimization methods: the method of conjugate gradients, Newton, DFP, used to solve technical problems and their practical implementation

Yudachev S. S. Candidate of Technical Sciences, Associate Professor, Bauman Moscow State Technical University, Moscow
Varlamova A. P. Bauman Moscow State Technical University, Moscow
Gordienko D. A. Bauman Moscow State Technical University, Moscow
Polkhanova V. I. Bauman Moscow State Technical University, Moscow

This paper presents a comparison of three popular optimization methods: conjugate gradient method, Newton's method and DFP method. These methods are widely used to find the minimum of functions in various fields such as machine learning, robotics and engineering. The practical significance of the paper is to provide researchers and developers with tools to select the most appropriate optimization method for a particular problem, and to introduce the basics of optimization algorithms and their implementation in Matlab. The paper presents a point-by-point algorithm for each method, as well as the implementation of these algorithms in Matlab CAD. The results of the comparative analysis are illustrated with graphs and tables of values to evaluate the accuracy and convergence rate of each method. The materials of the paper, including program code and mathematical calculations, are available in the public domain, which allows anyone to repeat the experiments and verify the results obtained. This paper can be used by students of technical universities to solve problems of any complexity, to obtain an optimal solution, for example, when searching for the minimum of a function.

Оптимизация — это задача поиска наилучшего решения в заданном множестве допустимых вариантов. Она является центральной во многих областях науки, техники и экономики. В различных приложениях, начиная от проектирования самолетов и заканчивая оптимизацией алгоритмов машинного обучения, требуется найти оптимальные значения параметров, чтобы минимизировать затраты, максимизировать эффективность или улучшить производительность [1–4].

Существуют аналитические методы оптимизации, которые позволяют получить точное решение при определенных условиях. Однако в большинстве практических задач приходится сталкиваться со сложными функциями, которые не поддаются аналитическому решению. В таких случаях на помощь приходят численные методы оптимизации, которые позволяют найти приближенное, но приемлемое решение.

В данной статье рассмотрим три наиболее широко используемых метода оптимизации: метод сопряженных градиентов, метод Ньютона и ДФП-метод и пошаговый алгоритм реализации для каждого из данных методов. В первую очередь эти методы различаются своей эффективностью, сходимостью. В статье представлен каждый из них, а также реализация в САПР MATLAB.

Для того чтобы сравнить 3 предложенных метода между собой, рассмотрим одинаковую задачу для каждого из методов: найти минимум функции

из исходной точки x0 [1;1] с заданной точностью E = 10–5. График функции, вместе с ее точкой минимума, приведен на рис. 1.

Метод сопряженных градиентов — метод нахождения локального экстремума функции на основе информации о ее значениях и ее градиенте. В случае квадратичной функции в Rn минимум находится не более чем за n шагов [5].

Алгоритм действий для метода сопряженных градиентов будет выглядеть следующим образом:

1) находим антиградиент w с исходной функции (w = –[df (x)/dx1; df (x)/dx2]). Также для первого шага направление спуска p = w (далее переопределим значение);

2) решая задачу одномерной минимизации функции fi (kappa) = f (Xk-1 + kappak*pk) по каждой из координат с помощью метода золотого сечения*, определяем шаг спуска kappa (=xmin);

For citation:
Yudachev S. S., Varlamova A. P., Gordienko D. A., Polkhanova V. I., Analysis of optimization methods: the method of conjugate gradients, Newton, DFP, used to solve technical problems and their practical implementation. Конструкторское Бюро №3 2025. 2025;3.
The full version of the article is available for subscribers of the journal
Article language:
Actions with selected: