Корзина пуста.
Войти

Процедурно-семантические модели в описании текстопорождающих функций языковых нейросетей

С.В. Гусаренко, М.К. Гусаренко
80,00 ₽

УДК 81`32
DOI 10.20339/PhS.6-25.117

 

Гусаренко Сергей Викторович,

доктор филологических наук,

профессор департамента лингвистики

Северо-Кавказский федеральный университет

е-mail: sgusarenko@mail.ru

https://orcid.org/0009-0000-9245-2255

Гусаренко Марина Константиновна,

кандидат филологических наук,

доцент департамента лингвистики

Северо-Кавказский федеральный университет

e-mail: mkgusarenko@mail.ru

https://orcid.org/0009-0005-9312-8621

 

Лингвистические нейросети есть порождение человеческого интеллекта, однако семантическая процедура, формирующая всю полноту значений и смысл сгенерированного текста, в настоящее время не находит полного описания ни у специалистов по искусственному интеллекту, ни у лингвистов, работающих в этой области. При таком положении дел представляется целесообразным изучение содержательных интерпретаций работы нейросетей, в частности построение моделей семантических операций, которые минимально необходимы для глубинного понимания текстов нейросетями. Сделаны выводы о том, что процедура порождения прямого ответа на вопрос по тексту может быть представлена как общая модель, включающая в себя следующие семантические операции: преобразование инверсионной структуры вопроса в промпте в прямую структуру репрезентативного предложения-ответа; операция определения в анализируемом нейросетью тексте дескрипций — кореферентов дескрипций в промпте; обращение к фреймовым структурам (или онтологиям) для установления латентных семантических связей между этими дескрипциями; операция выявления в тексте семантической структуры, соответствующей заданию и структуре сформированного ранее предложения-ответа. Нейросети оказались в состоянии определить юмористический характер незнакомого им и не обнародованного ранее текста, что позволяет говорить о их способности идентифицировать комический прием независимо от материала, на котором этот прием выполнен. Это в свою очередь позволило предположить, что так называемые механизмы внимания в изучаемых нейросетях выделяют релевантные для поставленной задачи латентные связи и зависимости, которые при определенных условиях в тексте и в рамках определенных языковых культур могут идентифицироваться как основание для создания комического эффекта.

Ключевые слова: семантическая модель, языковая нейросеть, сгенерированный текст, семантическая операция, онтологии, глубинное понимание

 

Литература

1. Wolfram St. What’s Really Going on in Machine Learning? Some Minimal Models. URL: https://writings.stephenwolfram.com/2024/08/whats-really-going-on-in-machine-learning-some-minimal-models/ (06.02.2025).

2. Wolfram St. What is ChatGPT Doing... and Why Does it Work? URL: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ (06.02.2025).

3. Arai Yu.,  Tsugawa Sh. Do Large Language Models Defend Inferentialist Semantics? On the Logical Expressivism and Anti-Representationalism of LLMs. URL: https://arxiv.org/abs/2412.14501 (06.02.2025).

4. Enyan Zh., Wang Z., Lepori M. A., Pavlick E. Are LLMs Models of Distributional Semantics? A Case Study on Quantifiers. URL: https://www.researchgate.net/publication/385091077_Are_LLMs_Models_of_Distributional_Semantics_A_Case_Study_on_Quantifiers (06.02.2025).

5. Wolfram Natural Language Understanding, Или спасение для студентов. URL: https://habr.com/ru/articles/851536/ (10.02.2025).

6. GigaChat. URL: https://web.telegram.org/a/#6218783903 (04.02.2025).

7. GPT-4o DUM-E. URL: https://web.telegram.org/a/#6010034370 (04.02.2025).

8. DeepSeek Рико. URL: https://web.telegram.org/a/#6433748390 (04.02.2025).

9. Шкловский В.Б. Гамбургский счет: Статьи — воспоминания — эссе (1914–1933). М.: Советский писатель, 1990. 544 с.