УДК 81`32
DOI 10.20339/PhS.6-25.117
Гусаренко Сергей Викторович,
доктор филологических наук,
профессор департамента лингвистики
Северо-Кавказский федеральный университет
е-mail: sgusarenko@mail.ru
https://orcid.org/0009-0000-9245-2255
Гусаренко Марина Константиновна,
кандидат филологических наук,
доцент департамента лингвистики
Северо-Кавказский федеральный университет
e-mail: mkgusarenko@mail.ru
https://orcid.org/0009-0005-9312-8621
Лингвистические нейросети есть порождение человеческого интеллекта, однако семантическая процедура, формирующая всю полноту значений и смысл сгенерированного текста, в настоящее время не находит полного описания ни у специалистов по искусственному интеллекту, ни у лингвистов, работающих в этой области. При таком положении дел представляется целесообразным изучение содержательных интерпретаций работы нейросетей, в частности построение моделей семантических операций, которые минимально необходимы для глубинного понимания текстов нейросетями. Сделаны выводы о том, что процедура порождения прямого ответа на вопрос по тексту может быть представлена как общая модель, включающая в себя следующие семантические операции: преобразование инверсионной структуры вопроса в промпте в прямую структуру репрезентативного предложения-ответа; операция определения в анализируемом нейросетью тексте дескрипций — кореферентов дескрипций в промпте; обращение к фреймовым структурам (или онтологиям) для установления латентных семантических связей между этими дескрипциями; операция выявления в тексте семантической структуры, соответствующей заданию и структуре сформированного ранее предложения-ответа. Нейросети оказались в состоянии определить юмористический характер незнакомого им и не обнародованного ранее текста, что позволяет говорить о их способности идентифицировать комический прием независимо от материала, на котором этот прием выполнен. Это в свою очередь позволило предположить, что так называемые механизмы внимания в изучаемых нейросетях выделяют релевантные для поставленной задачи латентные связи и зависимости, которые при определенных условиях в тексте и в рамках определенных языковых культур могут идентифицироваться как основание для создания комического эффекта.
Ключевые слова: семантическая модель, языковая нейросеть, сгенерированный текст, семантическая операция, онтологии, глубинное понимание
Литература
1. Wolfram St. What’s Really Going on in Machine Learning? Some Minimal Models. URL: https://writings.stephenwolfram.com/2024/08/whats-really-going-on-in-machine-learning-some-minimal-models/ (06.02.2025).
2. Wolfram St. What is ChatGPT Doing... and Why Does it Work? URL: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ (06.02.2025).
3. Arai Yu., Tsugawa Sh. Do Large Language Models Defend Inferentialist Semantics? On the Logical Expressivism and Anti-Representationalism of LLMs. URL: https://arxiv.org/abs/2412.14501 (06.02.2025).
4. Enyan Zh., Wang Z., Lepori M. A., Pavlick E. Are LLMs Models of Distributional Semantics? A Case Study on Quantifiers. URL: https://www.researchgate.net/publication/385091077_Are_LLMs_Models_of_Distributional_Semantics_A_Case_Study_on_Quantifiers (06.02.2025).
5. Wolfram Natural Language Understanding, Или спасение для студентов. URL: https://habr.com/ru/articles/851536/ (10.02.2025).
6. GigaChat. URL: https://web.telegram.org/a/#6218783903 (04.02.2025).
7. GPT-4o DUM-E. URL: https://web.telegram.org/a/#6010034370 (04.02.2025).
8. DeepSeek Рико. URL: https://web.telegram.org/a/#6433748390 (04.02.2025).
9. Шкловский В.Б. Гамбургский счет: Статьи — воспоминания — эссе (1914–1933). М.: Советский писатель, 1990. 544 с.




.png)







