ИСПОЛЬЗОВАНИЕ ИНТЕЛЛЕКТУАЛЬНЫХ МЕТОДОВ ДЛЯ ОБРАБОТКИ ИНФОРМАЦИИНА ПРИМЕРЕ РЕШЕНИЯ ЗАДАЧ WCCI 2010

  • Авторы: Engel EА1, Kovalev IV1, Энгель Е.А.2, Ковалев И.В.3
  • Учреждения:
    1. Хакасский государственный университет имени Н. Ф. Катанова,Сибирский государственный аэрокосмический университет имени академика М. Ф. Решетнева
    2. Сибирский государственный аэрокосмический университет имени академика М. Ф. Решетнева
  • Выпуск: Том 12, № 3 (2011)
  • Страницы: 4-8
  • Раздел: Статьи
  • URL: https://journals.eco-vector.com/2712-8970/article/view/516387
  • ID: 516387

Цитировать

Полный текст

Аннотация

Рассмотрена актуальная проблема выбора стратегии решения слабоформализованных задач, предполагающих
обработку как количественных, так и качественных данных, высокую размерность и пропуски в данных.
Представлен детальный анализ моделей прогноза для обработки данных. Эксперименты подтверждают
эффективность интеллектуальных алгоритмов, разработанных авторами.

Об авторах

E А Engel

I V Kovalev

Екатерина Александровна Энгель

Хакасский государственный университет имени Н. Ф. Катанова,Сибирский государственный аэрокосмический университет имени академика М. Ф. Решетнева

Email: ekaterina.en@mail.com
кандидат технических наук, доцент кафедры информационных технологий и системдокторант; Хакасский государственный университет имени Н. Ф. Катанова,Сибирский государственный аэрокосмический университет имени академика М. Ф. Решетнева

Игорь Владимирович Ковалев

Сибирский государственный аэрокосмический университет имени академика М. Ф. Решетнева

Email: kovalev.fsu@mail.ru
доктор технических наук, профессор, ректор; Сибирский государственный аэрокосмический университет имени академика М. Ф. Решетнева

Список литературы

  1. Caruana R. Multitask learning // Machine Learning. 1997. Vol. 28. № 1. P. 41-75.
  2. Pan S. J., Yang Q. A survey on transfer learning // IEEE Trans. on Knoweledge and Data Engineering. 2010. Vol. 22. № 10. P. 1345-1359.
  3. Collobert R., Weston J. A unified architecture for natural language processing: Deep neural networks with multitask learning // Intern. Conf. on Machine Learning (ICML). 2008. Р. 160-167.
  4. Bengio Y. Learning deep architectures for AI // Foundations and Trends in Machine Learning. 2009. Vol. 2. № 1. P. 1-127.
  5. Gutstein S. M. Transfer learning techniques for deep neural nets : Ph. D. dissertation. The University of Texas at El Paso, 2010.
  6. Why does unsupervised pre-training help deep learning? / D. Erhan, Y. Bengio, A. Courville et al. // JMLR. 2010. Vol. 11. P. 625-660.
  7. Efficient sparse coding algorithms / H. Lee, A. Battle, R. Raina, A. Y. Ng // Advances in Neural Information Processing Systems. 2007. Vol. 19. P. 801-808.
  8. Self-taught learning: Transfer learning from unlabeled data / R. Raina, A. Battle, H. Lee et al. // Proc. of the Twenty-fourth Intern. Conf. on Machine Learning, 2007. P. 759-766.
  9. Signature verification using a "siamese" time delay neural network / J. Bromley, I Guyon., Y. LeCun et al. // NIPS. 1993. P. 737-744.
  10. Learning the kernel matrix with semi-definite programming // G. Lanckriet, N. Cristianini, P. Bartlett, L. E. Ghaoui // J. of Machine Learning Research. 2004. Vol. 5. P. 27-72.
  11. Weinberger K. Q., Saul L. K. Distance metric learning for large margin nearest neighbor classification // J. Machine Learning Research. 2009. Vol. 10 P. 207-244.
  12. Yang L., Jin R. Distance metric learning: A comprehensive survey [Electronic resource] : Techn. Rep. Michigan State University. 2006. URL: http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1. 91.4732 (data of visit: 30.07.2011).
  13. Yang L. An overview of distance metric learning [Electronic resource] : Techn. Rep. Carnegie Mellon University. 2007. URL: http://www.cs.cmu.edu/~liuy/ dist_overview.pdf (data of visit: 30.07.2011).
  14. Learning to Learn / S. Thrun, L.Y. Pratt (ed.). Boston, MA : Kluwer Academic Publishers, 1998.
  15. Regularized principal manifolds / A. J. Smola, S. Mika, B. Schlkopf, R. C. Williamson // JMLR. 2001. Vol. 1. P. 179-209.
  16. Out-of-sample extensions for LLE, Isomap, MDS, Eigenmaps, and Spectral Clustering / Y. Bengio, J.-F. Paiement, P. Vincent et al. // NIPS. 2003. P. 177-184.
  17. Globerson A., Tishby N. Sufficient dimensionality reduction // J. Machine Learning Research. 2003. Vol. 3. P. 1307-1331.
  18. Ghahramani Z. Unsupervised Learning // Advanced Lectures in Machine Learning. Lecture Notes in Computer Sci. Berlin : Springer-Verlag, 2004. Vol. 3176. P. 72-112.
  19. Luxburg U. A tutorial on spectral clustering // Statistics and Computing. 2007. Vol. 17. P. 395-416.
  20. Jain A. K., Murty M. N., Flynn P. J. Data clustering : A review ACM Computing Surveys. 1999. P. 264-323.
  21. Performance prediction challenge / I. Guyon, A. Saffari, G. Dror, J. Buhmann // IEEE/INNS conf. IJCNN 2006. Vancouver, Canada, July 16-21. 2006. P. 1649-1656.
  22. Engel E. A. Modified artificial neural network for information processing with the selection of essential connections : Ph. D. thesis. Krasnoyarsk, 2004.
  23. Engel E. A. Graphic information processing using intelligent algorithms // Vestnik. Sci. J. of Siberian State Aerospace Univ. № 4(25). 2009. Р. 85-90.
  24. Engel E. A. The hierarchical model of decisionmaking based on fuzzy neural networks for information processing, Vestnik. Sci. J. of Siberian State Aerospace Univ. № 1 (33). 2011. Р. 83-86.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Engel E.А., Kovalev I.V., Энгель Е.А., Ковалев И.В., 2011

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution 4.0 International License.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах