Метод контроля состояния подсистемы (объекта) при неполной измерительной информации о совокупности параметров, определяющих ее динамику. II. Нейронные сети, отражающие динамику входной информации и построенные на принципе обратных связей (рекуррентные сети)

Автор: Малыхина Г.Ф., Меркушева А.В.

Журнал: Научное приборостроение @nauchnoe-priborostroenie

Рубрика: Обзоры

Статья в выпуске: 3 т.14, 2004 года.

Бесплатный доступ

В информационно-измерительных системах (ИИС) и информационно-управляющих системах (ИУС), отражающих состояние контролируемого объекта (подсистемы), существенна проблема отображения в условиях отсутствия воздействия некоторых параметров состояния на датчики измерительной системы, т. е. при неполной измерительной информации. Решение этой проблемы получено на основе анализа уравнений динамики системы объект-ИИС (в пространстве параметров состояния) и использования алгоритмов нейронных сетей (НС), способных отражать изменение входных данных во времени. Вторая (из 3) часть статьи рассматривает структуру и обучение НС, построенных на принципе обратных связей и называемых рекуррентными.

Еще

Короткий адрес: https://sciup.org/14264343

IDR: 14264343

Список литературы Метод контроля состояния подсистемы (объекта) при неполной измерительной информации о совокупности параметров, определяющих ее динамику. II. Нейронные сети, отражающие динамику входной информации и построенные на принципе обратных связей (рекуррентные сети)

  • Gaunaurd G.C., Strifors H.C. Signal analysis by mean of time-frequency transformation of Wigner type//Proceedings of IEEE. 1996. V. 84, N 9. P. 1231-1247.
  • Исмаилов Ш.Ю., Меркушева А.В. Нейросетевой алгоритм на вейвлет-преобразовании нестационарного сигнала в ИИС//Труды Международной научной конференции по мягким вычислениям и измерениям SCM'2001. СПб.: Изд. ГЭТУ (ЛЭТИ), 2001. Т. 1. С. 251-256.
  • Малыхина Г.Ф., Меркушева А.В. Вейвлет-фильтрация нестационарного сигнала с адаптацией на основе нейронной сети//Труды Международной научной конференции по мягким вычислениям и измерениям SCM'2001. СПб.: Изд. ГЭТУ (ЛЭТИ), 2001. Т. 1. С. 239-242.
  • Меркушева А.В. Применение нейронной сети для текущего анализа нестационарного сигнала (речи), представленного его вейвлет-отображением. I. Основные принципы//Научное приборостроение. 2003. т. 13, № 1. с. 64-70.
  • Малыхина Г.Ф., Меркушева А.В. Метод контроля состояния подсистемы (объекта) при неполной измерительной информации о совокупности параметров, определяющих ее динамику. I. Анализ структуры нейронной сети, приспособленной к динамическому характеру анализируемой информации//Научное приборостроение. 2004. т. 14, № 1. с. 57-67.
  • Tsoi A.C., Back A.D. Locally recurrent globally feet-forward networks: A critical review//IEEE Transactions on Neural Networks. 1994. v. 5. p. 222-239.
  • Elman J.L. Finding structure in time//Cognitive Science. 1990. v. 14. p. 179-211.
  • Puskorius G.V., Feldkamp L.A. Dynamic neural networks methods applied to on-vehicle idle speed control//Proceedings of IEEE. 1996. v. 84. p. 1407-1420.
  • Giles C.L., Sun G.Z., Lee Y.C., Chen D. Higher order recurrent networks and grammatical interference//Advances in Neural Information Processing Systems. San Mateo, CA: Morgan Kaufmann, 1990. v. 2. p. 382-387.
  • Sontag E.D. Mathematical control theory: Dynamic finite-dimension systems. N.Y.: Springer Verlag, 1990. 360 p.
  • Сейдж Э.П., Уайт Ч.С. Оптимальное управление системами. М.: Радио и связь, 1982. 391 с.
  • Levin A.V., Narendra K.S. Control of nonlinear dynamic systems using neural networks: Reliability, identification and control//IEEE Transactions on Neural Networks. 1996. v. 7. p. 30-42.
  • Haykin S. Neural networks. N.Y.: Prentice-Hall, 1999. 842 p.
  • Williams R.J., Zipser D. Learning algorithms for continually running fully recurrent neural networks//Neural Computation. 1989. v. 1. p. 271-280.
  • Williams R.J., Zipser D. Gradient-based learning algorithms for recurrent networks and their computational complexity//Back-propagation: Theory, Architecture and Applications/Eds. Chauvin Y., Rumelhart D.E. Hillsdale, N.Y.: Lawrence Erlbaum, 1995. p. 433-484.
  • Beaufays F., Wan E.A. Relating real-time back-propagation through time: Application to flow-graph inter-reciprocity//Neural Computation. 1994. v. 6. p. 396-406.
  • Giles C.L. et al. Constructive learning of recurrent neural networks: Limitation of recurrent cascade correlation with simple solution//IEEE Transactions on Neural Networks. 1995. v. 6. p. 829-836.
  • Williams R.J., Pang J. An efficient gradient-based algorithm for on-line training the recurrent -network trajectories//Neural Computation. 1990. v. 2. p. 4090-5100.
  • Werbos P.J. Back-propagation through time: What it does and how do it//Proceedings of IEEE. 1990. v. 78. p. 1550-1560.
  • Mendel J.M. Lessons in estimation theory for signal processing. Communication and control. Englewood Cliffs, N.Y.: Prentice-Hall, 1995. 360 p.
  • Hochreiter S., Schmithuber J. LSTM can solve hard long time lag problems//Advances in Neural Information Processing Systems. Cambridge, MA: MIT Press, 1997. v. 9. p. 473-479.
  • Bengio Y., Simard P., Frasconi P. Learning long time dependences with gradient descent is difficult//IEEE Transactions on Neural Networks. 1994. v. 5. p. 157-166.
  • Цыпкин Я.З. Информационная теория идентификации. М.: Наука, Физматлит, 1995. 336 с.
  • Puskorius G.V., Feldkamp L.A. Neuro control of nonlinear dynamic systems on the basis of recurrent neural networks//IEEE Transactions on Neural Networks. 1994. v. 5. p. 279-297.
  • Уидроу Б., Стирнз С. Адаптивная обработка сигналов. М.: Радио и связь, 1989. 439 с.
Еще
Статья научная