Сокращение оценки усадки джеймса–штейна для решения задачи автоматической группировки однородных производственных партий

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Сокращение оценки усадки Джеймса–Штейна может значительно повысить точность кластерного анализа k-средних для относительно широкого диапазона данных. В статье исследована эффективность использования оценки усадки Джеймса–Штейна при решении задачи автоматической группировки промышленной продукции в однородные производственные партии. Проведены испытания для партий интегральных схем путем сравнения полученных результатов усадки с традиционным алгоритмом k-средних. Набор данных нормализуется в соответствии со значениями допустимого дрейфа, приемлемого параметра и стандартного отклонения. С помощью индекса Rand установлено, что точность кластеризации существенно возрастает в задаче автоматической группировки промышленной продукции в однородные производственные партии, когда средние значения неинформативных параметров уменьшаются до нуля. Установлено, что использование сокращения оценки усадки Джеймса–Штейна позволяет снизить влияние неинформативных параметров нормализованных данных до приемлемых значений.

Полный текст

Доступ закрыт

Об авторах

Ф. Г. Ахматшин

Сибирский государственный университет науки и технологий им. академика М. Ф. Решетнева

Email: kravchenko-in71@yandex.ru
Россия, Красноярск

И. А. Петрова

Сибирский государственный университет науки и технологий им. академика М. Ф. Решетнева

Email: kravchenko-in71@yandex.ru
Россия, Красноярск

Л. А. Казаковцев

Сибирский федеральный университет

Email: kravchenko-in71@yandex.ru
Россия, Красноярск

И. Н. Кравченко

Институт машиноведения им. А. А. Благонравова РАН

Автор, ответственный за переписку.
Email: kravchenko-in71@yandex.ru
Россия, Москва

Список литературы

  1. Ершов И. А., Воскобойникова О. Б., Стукач О. В. Кластерный анализ процессов в полупроводниковом производстве // Динамика систем, механизмов и машин. 2016. Т. 2. № 1. С. 178.
  2. Rozhnov I., Orlov V., Kazakovtsev L. Ensembles of clustering algorithms for problem of detection of homogeneous production batches of semiconductor devices // School-Seminar on Optimization Problems and their Applications. 2018. V. 2098. P. 338. http://ceur-ws.org/Vol-2098/paper29.pdf
  3. Oti E. U., Olusola M. O., Eze F. C., Enogwe S. U. Comprehensive Review of K-Means Clustering Algorithms // Int. J. of Advances in Scientific Research and Engineering. 2021. V. 7 (8). P. 64.
  4. Федосов В. В., Орлов В. И. Минимально необходимый объем испытанных изделий микроэлектроники на этапе входного контроля // Известия высших учебных заведений. Приборостроение. 2011. Т. 54. № 4. С. 58.
  5. Ahmatshin F. Selection of free parameter forel-2 algorithm in the problem of automatic grouping of industrial products by homogeneous production batches // Системы управления и информационные технологии. 2021. P. 28. https://doi.org/10.36622/Vstu.2021.86.4.006
  6. Mathai A., Provost S., Haubold H. Factor Analysis // Multivariate Statistical Analysis in the Real and Complex Domains. 2022. P. 679. https://doi.org/10.1007/978–3–030–95864–0_111
  7. Na S., Xumin L., Yong G. Research on k-means clustering algorithm: an improved k-means clustering algorithm // In: 2010 Third Int. Symposium on Intelligent Inf. Technology and Security Informatics, Jinggangshan. P. 63.
  8. Patel V. R., Mehta R. G. Modified k-Means Clustering Algorithm // Computational Intelligence and Inf. Technology. 2011. V. 250. Р. 307. https://doi.org/10.1007/978-3-642-25734-6_46
  9. Li Y., Wu H. A clustering method based on K-means algorithm // Physics Procedia. 2012. V. 25. P. 1104. https://doi.org/10.1016/j.phpro.2012.03.206
  10. Perez-Ortega J., Almanza-Ortega N.N., Romero D. Balancing effort and benefit of K-means clustering algorithms in Big Data realms // PLoS ONE. 2018. V. 13 (9). е0201874. https://doi.org/10.1371/journal.pone.0201874
  11. Aggarwal C. C., Reddy C. K. Data Clustering Algorithms and Applications. Publisher: CRC Press, 2013. https://www.researchgate.net/publication/331534089
  12. Kazakovtsev L. A., Antamoshkin A. N., Masich I. S. Fast deterministic algorithm for EEE components classification // IOP Conf. Series: Materials Science and Engineering. 2015. V. 94. P. 012015. https://doi.org/10.1088/1757-899X/04/1012015
  13. Ansari S. A., Darmawan N., Robbi R., Rahmat H. Using K-means clustering to cluster provinces in Indonesia // J. of Physics Conf. Series. 2018. V. 1028 (1). P. 012006.
  14. Hossain Md., Akhtar Md.N., Ahmad R. B., Rahman M. A dynamic K-means clustering for data mining // Indonesian J. of Electrical Engineering and Computer Science. 2019. V. 13 (2). P. 521. https://doi.org/10.11591/ijeecs.v13.i2.pp521-526
  15. Шкаберина Г. Ш., Казаковцев Л. А., Ли Ж. Модели и алгоритмы автоматической группировки объектов на основе модели k-средних // Сибирский журнал науки и технологий. 2020. Т. 21. № 3. С. 347. https://doi.org/10.31772/2587-6066-2020-21-3-347-354
  16. Kumar S., Tripathi Yo. M., Misra N. James–Stein type estimators for ordered normal means // J. of Statistical Computation and Simulation. 2006. V. 75. P. 501. https://doi.org/10.1080/00949650412331272877
  17. Tong T., Jang H., Wang Y. James–Stein type estimators of variances // J. of Multivariate Analysis. 2012. V. 107. P. 232. https://doi.org/10.1016/j.jmva.2012.01.019
  18. Gao J., Hitchcock D.B. James-Stein shrinkage to improve k-means cluster analysis // Computational Statistics & Data Analysis. 2010. V. 54. P. 2113. https://doi.org/10.1016/j.csda.2010.03.018

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Сравнительные результаты для ИС 140UD25A с другим коэффициентом k сокращения оценки усадки Джеймса–Штейна по значению целевой функции: 1 – нормализация по стандартному отклонению; 2 – нормализация по значениям допустимого дрейфа; 3 – по допустимым значениям параметров.

Скачать (69KB)
3. Рис. 2. Сравнительные результаты для ИС 140UD25A с другим коэффициентом k сокращения оценки усадки Джеймса–Штейна на стандартное отклонение значения целевой функции: 1 – нормализация по стандартному отклонению; 2 – нормализация по значениям допустимого дрейфа; 3 – по допустимым значениям параметров.

Скачать (76KB)
4. Рис. 3. Сравнительные результаты для ИС 140UD25A с другим коэффициентом k сокращения оценки усадки Джеймса–Штейна по индексу Rand: 1 – нормализация по стандартному отклонению; 2 – нормализация по значениям допустимого дрейфа; 3 – по допустимым значениям параметров.

Скачать (71KB)
5. Рис. 4. Сравнительные результаты для ИС 140UD25A с другим коэффициентом k сокращения оценки усадки Джеймса–Штейна на стандартное отклонение индекса Рэнда: 1 – нормализация по стандартному отклонению; 2 – нормализация по значениям допустимого дрейфа; 3 – по допустимым значениям параметров.

Скачать (77KB)
6. Рис. 5. Сравнительные результаты для ИС 140UD26A с другим коэффициентом k сокращения оценки усадки Джеймса–Штейна на значение целевой функции: 1 – нормализация по стандартному отклонению; 2 – нормализация по значениям допустимого дрейфа; 3 – по допустимым значениям параметров.

Скачать (68KB)
7. Рис. 6. Сравнительные результаты для ИС 140UD26A с другим коэффициентом k сокращения оценки усадки Джеймса–Штейна на стандартное отклонение значения целевой функции: 1 – нормализация по стандартному отклонению; 2 – нормализация по значениям допустимого дрейфа; 3 – по допустимым значениям параметров.

Скачать (72KB)
8. Рис. 7. Сравнительные результаты для ИC140UD26A с другим коэффициентом k сокращения оценки усадки Джеймса–Штейна по индексу Rand: 1 – нормализация по стандартному отклонению; 2 – нормализация по значениям допустимого дрейфа; 3 – по допустимым значениям параметров.

Скачать (66KB)
9. Рис. 8. Сравнительные результаты для ИС 140UD26A с другим коэффициентом k сокращения оценки усадки Джеймса–Штейна на стандартное отклонение индекса Рэнда: 1 – нормализация по стандартному отклонению; 2 – нормализация по значениям допустимого дрейфа; 3 – по допустимым значениям параметров. 

Скачать (81KB)

© Российская академия наук, 2024