МЕТОДИ ВИДІЛЕННЯ КОНЦЕПТІВ У ЛІТЕРАТУРНИХ ТВОРАХ

Автор(и)

DOI:

https://doi.org/10.32782/2307-1222.2025-60-30

Ключові слова:

концептуальний аналіз, великі мовні моделі, автоматизоване виділення концептів, онтологічне моделювання, BERT, опрацювання природної мови

Анотація

Стаття досліджує як традиційні, так і сучасні підходи до виокремлення концептів у літературних текстах, приділяючи особливу увагу лексичному аналізу, семантичному розбору, онтологічному моделюванню та автоматизованим технікам на основі великих мовних моделей. Традиційні ручні методи цінуються за їхню здатність охоплювати нюансові літературні значення, такі як символізм, метафора та інтертекстуальні відсилання, з урахуванням культурного й стильового контексту. Однак їхня залежність від інтенсивної людської інтерпретації робить їх складними для застосування до великих корпусів текстів і порівняльних досліджень. Сучасні автоматизовані підходи, особливо ті, що використовують архітектури трансформерів, як-от BERT, забезпечують значні переваги у швидкості обробки та масштабованості. Завдяки механізмам самоуваги ці моделі ефективно виявляють довготривалі контекстуальні зв’язки та приховані патерни в текстах, даючи змогу швидко визначати й класифікувати ключові концепти у великих наборах даних. Водночас наголошено, що такі системи досі мають обмеження під час роботи з образною насиченістю та семантичною неоднозначністю, притаманними літературному дискурсу. Практична частина дослідження включає експериментальний аналіз концепту толерантності у публікаціях провідних англомовних медіа, зокрема The New York Times, BBC News та The Guardian. Автоматизовані методи виокремлення продемонстрували значний потенціал у виявленні загальних тенденцій і патернів використання концептів. Проте результати підкреслюють необхідність експертної інтерпретації для уточнення отриманих даних, особливо у разі тонких семантичних зсувів або міждисциплінарних культурних відсилань. У підсумку стаття пропонує інтегративну методологічну рамку, яка поєднує автоматизовану обробку з людською експертизою. Автоматичні інструменти рекомендується використовувати на початковому етапі для структурування та класифікації великих обсягів текстових даних, тоді як експертні дослідники відповідають за інтерпретаційну глибину та валідацію. Подальші напрями досліджень включають удосконалення адаптації LLM до літературних текстів, створення спеціалізованих навчальних корпусів та інтеграцію онтологічних моделей із метою підвищення точності та надійності концептуального аналізу в літературознавстві.

Посилання

Aggarwal C.C., Zhai C. A survey of text clustering algorithms. In: Mining Text Data. New York: Springer, 2012. P. 77–128. DOI: https://doi.org/10.1007/978-1-4614-3223-4_4.

Amid Mosul’s ruins, Pope denounces religious fanaticism: Live updates. The New York Times. 2021.

Areshey A.M. Exploring transformer models for sentiment classification: A comparison of BERT, RoBERTa, ALBERT, DistilBERT, and XLNet. Expert Systems. 2024. Vol. 41. P. 1–27. DOI: https://doi.org/10.1111/exsy.13701.

Bartalesi V., Meghini C. Using an ontology for representing the knowledge on literary texts: The Dante Alighieri case study. Semantic Web. 2017. Vol. 8. P. 385–394. DOI: https://doi.org/10.3233/SW-150198.

Benson A. F1 teams face tougher tests on flexi-wings at Chinese GP. BBC News. 2025.

Brewster C. Ontology learning from text: Methods, evaluation and applications. Computational Linguistics. 2006. Vol. 34. P. 569–572.

Bunting M. The problem with tolerance. The Guardian. 2011.

Давидюк Ю.Б. Методика концептуального аналізу художнього тексту. Мова і культура. 2014. Вип. 37. № 1. С. 289–293. URL: http://nbuv.gov.ua/UJRN/Mik_2014_17_1_51

Фісак І.В. Категорія «концепт» у сучасному науковому дискурсі. Філологічні науки. 2014. Вип. 17. С. 69–77. URL: http://nbuv.gov.ua/UJRN/Fil_Nauk_2014_17_12

Giglou H.B., D’Souza J., Auer S. LLMs4OL: Large language models for ontology learning. In: The Semantic Web – ISWC. Springer, 2023. P. 408–427. DOI: https://doi.org/10.1007/978-3-031-47240-4_22.

Giglou H.B., D’Souza J., Enge F. LLMs4OM: Matching ontologies with large language models. ESWC 2024 Special Track on LLMs for Knowledge Engineering. 2024. P. 23–34. DOI: https://doi.org/10.13140/RG.2.2.10832.42240.

Глібовська А.А. Відтворення національно-культурних особливостей вербалізації концепту «толерантність» у сучасній мові ЗМІ під час перекладу з англійської мови на українську. Київ, 2020.

Hu Y., Liu D., Wang Q. Automating knowledge discovery from scientific literature via LLMs: A dual-agent approach with progressive ontology prompting. arXiv. 2024. DOI: https://doi.org/10.48550/arXiv.2409.00054.

Lezard N. Treatise on Tolerance by Voltaire review – An attack on fanaticism. The Guardian. 2016.

Liu Y., Ott M., Nman G. RoBERTa: A robustly optimized BERT pretraining approach. arXiv. 2019. DOI: https://doi.org/10.48550/arXiv.1907.11692.

Mahboub A., Zater M. E., Al-Rfooh B. Evaluation of semantic search and its role in retrieved-augmented-generation (RAG) for Arabic language. arXiv. 2024. DOI: https://doi.org/10.48550/arXiv.2403.18350.

Malik K. Ideas can be tolerated without being respected. The distinction is key. The Guardian. 2020.

Mukanova A., Milosz M., Dauletkaliyeva A. LLM-powered natural language text processing for ontology enrichment. Applied Sciences. 2024. Vol. 14. P. 5860–5875. DOI: https://doi.org/10.3390/app14135860.

Михайлюк А., Михайлюк О., Пилипчук О. Формування лінгвістичної онтології на базі структурованого енциклопедичного ресурсу. Радіоелектронні і комп’ютерні системи. 2012. Вип. 4. С. 81–89. URL: http://nbuv.gov.ua/UJRN/recs_2012_4_14

Nananukula N., Kejriwala M. HALO: An ontology for representing and categorizing hallucinations in large language models. In: SPIE Defense + Commercial Sensing (DCS 2024). 2024. P. 1–15. DOI: https://doi.org/10.1117/12.3014048.

Nixon R. «Zero tolerance» immigration policy surprised agencies, report finds. The New York Times. 2018.

Onishi N., Meheut C. In France’s military, Muslims find a tolerance that is elusive elsewhere. The New York Times. 2021.

Riley A. Resurrection plants: The drought-resistant «zombie plants» that come back from the dead. BBC News. 2025.

Sacked Bradburn fined for discriminatory comments. BBC News. 2025.

To H.Q., Liu M. Towards efficient large language models for scientific text: A review. arXiv. 2024. DOI: https://doi.org/10.48550/arXiv.2408.10729.

Toro S., Anagnostopoulos A.V., Bello S.M. Dynamic retrieval augmented generation of ontologies using artificial intelligence (DRAGON-AI). Journal of Biomedical Semantics. 2024. Vol. 15, No. 19. DOI: https://doi.org/10.1186/s13326-024-00317-z.

Vaswani A., Shazeer N., Parmar N. Attention is all you need. arXiv. 2017. DOI: https://doi.org/10.48550/arXiv.1706.03762.

Zhenzhong L., Chen M., Goodman S. ALBERT: A lite BERT for self-supervised learning of language representations. arXiv. 2019. DOI: https://doi.org/10.48550/arXiv.1909.11942.

Zulkipli Z.Z., Maskat R., Teo N. H.I. A systematic literature review of automatic ontology construction. Indonesian Journal of Electrical Engineering and Computer Science. 2022. Vol. 28. P. 878–889. DOI: https://doi.org/10.11591/ijeecs.v28.i2.pp878-889.

##submission.downloads##

Опубліковано

2025-12-02

Номер

Розділ

СЛОВО МОЛОДОГО ДОСЛІДНИКА