Анализ интеллектуальных методов и алгоритмовдля обработки информации с пропусками


Цитировать

Полный текст

Аннотация

Интеллектуальные алгоритмы и методы хорошо подходят для многих задач обработки данных, где немаркированные данные преобладают. Проведен анализ селективных стратегий настройки интеллектуальной модели с акцентом на активные методы обучения (AL) и предложено два алгоритма, устраняющих недостатки
проанализированных стратегий. Хотя уже было показано, что активное обучение заметно снижает усилия
на аннотацию для многих задач маркировки последовательностей по сравнению со случайным выбором, AL не
учитывает внутреннюю структуру выбранной последовательности (как правило, предложения). Предложен
комбинированный подход AL к маркировке последовательности.

Об авторах

E А Engel

Екатерина Александровна Энгель

Хакасский государственныйуниверситет имени Н. Ф. Катанова

кандидаттехнических наук, доцент кафедры информационныхтехнологий и систем; Хакасский государственныйуниверситет имени Н. Ф. Катанова

Список литературы

  1. Lewis D., Gale W. A sequential algorithm for training text classifiers // Proc. of the ACM SIGIR Conf. on R & D in Information Retrieval. 1994. P. 3-12.
  2. Settles B., Craven M., Ray S. Multiple-instance active learning // Advances in Neural Information Processing Systems (NIPS). 2008. Vol. 20. P. 1289-1296.
  3. Seung H. S., Opper M, Sompolinsky H. Query by committee // Proc. of the ACM Workshop on Computational Learning Theory. 1992. P. 287-294.
  4. Tong S., Koller D. Active Learning for Parameter Estimation in Bayesian Networks // NIPS. 2000. P. 647-653.
  5. Cohn D., Ghahramani Z., Jordan M. I. Active learning with statistical models // J. of Artificial Intelligence Research. 1996. Vol. 4. P. 129-145.
  6. Roy N., McCallum A. Toward optimal active learning through sampling estimation of error reduction // Proc. of the Intern. Conf. on Machine Learning (ICML). 2001. P. 441-448.
  7. Settles B., Craven M. An analysis of active learning strategies for sequence labeling tasks // Proc. of the Conf. on Empirical Methods in Natural Language Processing (EMNLP). 2008. P. 1069-1078.
  8. Lafferty J., McCallum A., Pereira F. Conditional random fields: Probabilistic models for segmenting and labeling sequence data // Proc. of the 18th Intern. Conf. on Machine Learning. 2001. P. 282-289.
  9. Rabiner L. R. A tutorial on hidden markov models and selected applications in speech recognition // Proc. of the IEEE. 1989. Vol. 77. № 2. P. 257-286.
  10. McCallum A., Freitag D., Pereira F. Maximum entropy Markov models for information extraction and segmentation // Proc. of the 17th Intern. Conf. on Machine Learning. 2000. P. 591-598.
  11. Sang E. F. Introduction to the conll-2002 shared task: Language-independent named entity recognition // Proc. of the CoNLL-2002. 2002. P. 155-158.
  12. Stegeman L. Part-of-speech tagging and chunk parsing of spoken Dutch using support vector machines // Proc. of the 4th Twente Student Conf. on IT. 2006.
  13. Engel E. A. Modified artificial neural network for information processing with the selection of essential connections : Ph. D. thesis. Krasnoyarsk, 2004.
  14. Tong S., Koller D. Support vector machine active learning with applications to text classification // Proc. of the ICML-00, 17th Intern. Conf. on Machine Learning. 2000. P. 999-1006.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Engel E.А., Энгель Е.А., 2011

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution 4.0 International License.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах