We present a hybrid HS- and PRP-type conjugate gradient method for smooth optimization that converges globally and R-linearly for general functions. We also introduce its inexact version for problems of this kind in which gradients or values of the functions are unknown or difficult to compute. Moreover, we apply the inexact method to solve a nonsmooth convex optimization problem by converting it into a one-time continuously differentiable function by the method of Moreau–Yosida regularization.
Наведено гібридний HS та PRP метод спряженого аргументу, глобально та R-лінійно з6іжний для загальних Функцій. Також введено неточний метод для таких проблем, в яких градієнти або значення функцій невідомі або важко визначаються. Крім того, неточний метод застосовано до негладкої опуклої проблеми оптимізації, що перетворює її в однократно неперервно диференційовну функцію за допомогою регуляризації Моро-Йосіди.