Аппроксимация функций нейронными сетями
https://doi.org/10.23947/2587-8999-2026-10-1-50-57
Аннотация
Введение. В настоящее время при решении многих задач используются методы, основанные на применении искусственных нейронных сетей. Эти методы отличаются простотой в применении и достаточно универсальными возможностями. Нейронные сети различной архитектуры достаточно часто применяются к решениям задач аппроксимации функций нескольких переменных. Разработанные методы построения подобных нейронных сетей применяются при решении актуальных задач в математике, технике, экономике.
Материалы и методы. Предлагается метод построения нейронной сети для решения задач аппроксимации функций, основанный на применении в качестве функций активации дробно-линейных функций. Описывается алгоритм построения нейронных сетей для аппроксимации функций одной и двух переменных. Отдельно рассматривается случай, когда значения аппроксимируемой функции заданы с погрешностью. Исследуется возможность использования данного подхода при экстраполяции функций.
Результаты исследования. Представлены результаты построения нейронных сетей аппроксимации функций одной и двух переменных и применения построенных сетей в виде графиков. Предложенный метод был использован при решении задач экстраполяции, задач аппроксимации функций, значения которых заданы с погрешностью.
Обсуждение. Метод показал хорошие результаты при решении указанных задач. В качестве функций активации были использованы дробно-рациональные функции дельтообразного поведения. Поэтому определение весов нейронной сети свелось к решению систем линейных уравнений с хорошо обусловленными матрицами, что обеспечило достаточно высокую степень точности результатов аппроксимации.
Заключение. Представленные результаты доказали эффективность метода. Предложенный метод построения нейронных сетей может быть использован при решении задач, связанных с цифровой обработкой сигналов.
Об авторе
А. В. ГалабурдинРоссия
Александр Васильевич Галабурдин, кандидат физико-математических наук, доцент, доцент кафедры
кафедра математики и информатики
344003,; пл. Гагарина, 1; Ростов-на-Дону
SPIN-код
Список литературы
1. Колмогоров А.Н. О представлении непрерывных функций нескольких переменных в виде суперпозиции непрерывных функций одного переменного. Доклады АН СССР. 1957;114(5):953–956.
2. Арнольд В.И. О представлении функций нескольких переменных в виде суперпозиции функций меньшего числа переменных. Математическое просвещение. 1958;3:41–61.
3. Воевода А.А., Романников Д.О. Синтез нейронных сетей c несколькими переменными. Сборник научных трудов НГТУ. 2018;1(91):86–94. doi: 10.17212/2307-6879-2018-1-86-94
4. Романников Д.О. О синтезе нейронных сетей. Сборник научных трудов НГТУ. 2018;1(91):104–111. doi: 10.17212/2307-6879-2018-1-104-111
5. Маршалко Г.Б., Труфанова Ю.А. Полиномиальные аппроксимации некоторых функций активации нейронных сетей. Информатика и автоматизация. 2022;21(1):161–180.
6. Чертков А.А., Сабуров C.В., Каск Я.Н. Алгоритм идентификации параметров моделей производственных функций при помощи нейронной сети. Вестник Государственного университета морского и речного флота имени адмирала С.О. Макарова. 2023;15(6):1096–1104. doi: 10.21821/2309-5180-2023-15-6-1096-1104
7. Галкин В.А., Гавриленко Т.В., Смородинов А.Д. Некоторые аспекты аппроксимации и интерполяции функций искусственными нейронными сетями. Вестник КРАУНЦ. Физико-математические науки. 2022;38(1):54–73. doi: 10.26117/20796641-2022-38-1-54-73
8. Hanin B. Universal Function Approximation by Deep Neural Nets with Bounded Width and ReLU Activations. Mathematics. 2019;7(10):992.
9. Guliyev N.J., Ismailov V.E. Approximation capability of two hidden layer feedforward neural networks with fixed weights. Neurocomputing. 2018;316:262–269.
10. Liu B., Liang Y. Optimal function approximation with ReLU neural networks. Neurocomputing. 2021;435:216–227.
11. Almira J.M., Lopez-de-Teruel P.E., Romero-L´opez D.J., Voigtlaender F. Negative results for approximation using single layer and multilayer feedforward neural networks. Journal of Mathematical Analysis and Applications. 2021;494:124584.
12. Ермаков Б.С. Влияние структуры искусственной нейронной сети на ее эффективность на примере прогнозирования макроэкономических показателей. Системный анализ и логистика. 2021;2(28):44–51. doi: 10.31799/2077-5687-2021-2-44-51
13. Chudziak, A., Predictability of stock returns using neural networks: Elusive in the long term. Expert systems with applications. 2023;213(C):119203.
14. Maniatopoulos A., Gazis A. Technical analysis forecasting and evaluation of stock markets: the probabilistic recovery neural network approach. International journal of economics and business research. 2023;1:64–100.
15. Галабурдин А.В. Применение нейронных сетей при решении эллиптических уравнений для областей сложной формы. Computational Mathematics and Information Technologies. 2025;9(2):44‒51. doi: 10.23947/2587-8999-2025-9-2-44-51
16. Галабурдин А.В. Применение нейронных сетей для решения задачи Дирихле для областей сложной формы. Computational Mathematics and Information Technologies. 2024;8(2):68‒79. doi: 10.23947/2587-8999-2024-8-2-68-79
Рецензия
Для цитирования:
Галабурдин А.В. Аппроксимация функций нейронными сетями. Computational Mathematics and Information Technologies. 2026;10(1):50-57. https://doi.org/10.23947/2587-8999-2026-10-1-50-57
For citation:
Galaburdin A.V. Function Approximation by Neural Networks. Computational Mathematics and Information Technologies. 2026;10(1):50-57. https://doi.org/10.23947/2587-8999-2026-10-1-50-57
JATS XML









