Искусственный интеллект в деятельности психолога: пример анализа вербальных прогнозов. Часть 1
- Авторы: Корнилов С.А.1, Корнилова Т.В.1, Цзыи В.1
-
Учреждения:
- Московский государственный университет им. М.В. Ломоносова
- Выпуск: Том 46, № 4 (2025)
- Страницы: 85-98
- Раздел: Методы и методики
- URL: https://rjsvd.com/0205-9592/article/view/691068
- DOI: https://doi.org/10.31857/S0205959225040084
- ID: 691068
Цитировать
Полный текст



Аннотация
Актуальность исследования определяется необходимостью разработки методологии использования систем искусственного интеллекта для расширения возможностей человека, в частности, применительно к решению задач классификации качественных данных на основе использования больших языковых моделей (Large Language Models, LLM). Целью описанного в настоящей, первой статье (цикл из двух статей) исследования, стало представление методического подхода, реализующего использование больших языковых моделей для классификации индивидуальных вербальных прогнозов о возможных и невозможных событиях в будущем. Китайские участники (n = 149, дали 447 прогнозов) посредством системы Венцюсин (问卷星 / SoJump) порождали описания событий по указанным трем условиям: возможные – невероятные – невозможные. Полученный корпус открытых ответов на китайском языке был проанализирован с использованием пяти современных LLM: GPT-4, Claude 3.5, Qwen 2.5-72B, Gemini Pro 1.5 и Llama 3.1-70B. После процедуры обучения каждой модели было поручено проанализировать ответы по нескольким семантическим параметрам. Анализ ответов пяти больших языковых моделей (Claude 3.5 Sonnet, GPT-4, Gemini Pro, LLaMA 3 и Qwen) выявил как значительные общие черты, так и заметные различия в их подходах к анализу вербальных прогнозов (китайских участников исследования). Интегративная метамодель синтезировала результаты в единую рубрику, что позволило провести тестирование надежности внутри каждой модели и сравнительный анализ между моделями. Выявленные различия в реализованных моделями аналитических подходах свидетельствуют о том, что, хотя эти модели обладают общими возможностями в определении основных тем и паттернов семантических единиц, представленных в вербальных прогнозах участников, они демонстрируют разные сильные стороны в выделяемых ими аспектах анализа текстов, что существенно расширяет возможности психолога-исследователя. Полученные высокие показатели надежности (согласованности между и внутри моделей) свидетельствуют о потенциале технологий искусственного интеллекта в прикладной научной деятельности в области “смешанных” методов.
Об авторах
С. А. Корнилов
Московский государственный университет им. М.В. Ломоносова
Автор, ответственный за переписку.
Email: sa.kornilov@gmail.com
125009, г. Москва, ул. Моховая, д. 11, стр. 9, Россия
Т. В. Корнилова
Московский государственный университет им. М.В. Ломоносова
Email: tvkornilova@mail.ru
125009, г. Москва, ул. Моховая, д. 11, стр. 9, Россия
В. Цзыи
Московский государственный университет им. М.В. Ломоносова
Email: ziyiw480@gmail.com
125009, г. Москва, ул. Моховая, д. 11, стр. 9, Россия
Список литературы
- Взорин Г.Д., Ушаков Д.В. Образы Человека: от “фасеточного видения” – к Homo Complexus // Образовательная политика. 2023. Т. 94, № 2. С. 8–19. doi: 10.22394/2078-838X-2023-2-8-18.
- Знаков В.В. Теоретические основания психологии возможного // Вестник Санкт-Петербургского университета. Психология. 2022. Т. 12. № 2. С. 122–131. doi: 10.21638/spbu16.2022.202.
- Корнилова Т.В. Интеллектуально-личностный потенциал человека в условиях неопределенности и риска. СПб.: Нестор-История, 2016.
- Корнилова Т.В., Тихомиров О.К. Принятие интеллектуальных решений в диалоге с компьютером. М.: Издательство МГУ, 1990.
- Bender E.M., Koller A. Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data / In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020. Р. 5185–5198. Association for Computational Linguistics.
- Bran A.M., Cox S., Schilter O., Baldassari C. et al. Augmenting large language models with chemistry tools // Nature Machine Intelligence. 2024. V. 6(5). P. 525–535. doi: 10.1038/s42256-024-00832-8.
- Brown T., Mann B., Ryder N. et al. Language models are few-shot learners // In Advances in Neural Information Processing Systems. 2020. V. 33. Р. 1877–1901.
- Buhr C.R., Smith H., Huppertz T. et al. ChatGPT Versus Consultants: Blinded Evaluation on Answering Otorhinolaryngology Case–Based Questions // Journal of Medi- cal Internet Research Medical Education. 2023. V. 9. P. e49183. doi: 10.2196/491839.
- Engelbart D.C. Augmenting Human Intellect: A conceptual framework. Summary Report AFOSR-3233. Stanford Research Institute, 1962.
- Hutchins E. Cognition in the Wild. MIT Press, 1995.
- Krippendorff K. Content analysis: An introduction to its methodology (4th ed.). Sage Publications, 2018.
- Liu S., Fang Y. Use Large Language Models for Named Entity Disambiguation in Academic Knowledge Graphs / In Proceedings of the 2023 3rd International Conference on Education, Information Management and Service Science (EIMSS 2023). NY: Atlantis Press, 2023. Р. 681–691.
- Liu M.D., Salganik M.J. Successes and Struggles with Computational Reproducibility: Lessons from the Fragile Families Challenge / Successes and Struggles with Computational Reproducibility. Technical Report. 2019. OSF.io. https://osf.io/preprints/socarxiv/ g3pdb/.
- Miles M.B., Huberman A.M., Saldaña J. Qualitative data analysis: A methods sourcebook (3rd ed.). Sage Publications, 2014.
- Nasution A.H., Onan A. ChatGPT Label: Comparing the Quality of Human-Generated and LLM-Generated Annotations in Low-Resource Language NLP Tasks // IEEE Access. 2024. V. 12. Р. 71876–71900.
- Newell A., Simon H.A. Human problem solving. 1972. Prentice-Hall.
- Ouyang L., Wu J., Jiang X. et al. Training language models to follow instructions with human feedback. 2022. arXiv preprint arXiv:2203.02155.
- Saldaña J. The Сoding Manual for Qualitative Researchers (3rd ed.). 2016. Sage Publications.
- Wong M.-F. et al. EuclidNet: Deep Visual Reasoning for Constructible Problems in Geometry. Advances in Artificial Intelligence and Machine Learning; 2023. Research 3 (1). P. 839–852.
- Zhou R., Chen L.Y.K. Is LLM a Reliable Reviewer? A Comprehensive Evaluation of LLM on Automatic Paper Reviewing Tasks / In Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING 2024). 2024. Р. 9340–9351.
Дополнительные файлы
