Subscription request:

podpiska@panor.ru

For all questions:

+7 495 274-22-22

UDK: 331

Analysis of the impact of large language model generation parameters on text output qualityin the context of HR automation

Rybanov Alexander Aleksandrovich Candidate of Technical Sciences, associate Professor, Head of Department of Informatics and Programming Techniques, Volzhsky Polytechnical Institute, Branch of the Volgograd State Technical University, Volzhsky, Е-mail: rybanoff@yandex.ru

The article presents a systematic analysis of the impact of key text generation hyperparameters — Temperature, Top-K, and Top-P (nucleus sampling) — on the quality of Large Language Model (LLM) outputs in the context of automating Human Resources (HR) processes. The study aims to determine optimal parameter configurations for various classes of HR tasks, ensuring a balance between normative accuracy, contextual adaptability, consistency of results, and minimization of algorithmic biases. The methodology involves experimental testing of the GPT-4 model on a specialized corpus of 50 HR prompts, divided into five categories: formal/legal, analytical, communicative, creative, and methodological (development of assessment tools) HR tasks. The results demonstrate a pronounced dependence of the adequacy and stylistic appropriateness of generated texts on hyperparameter calibration. Based on the findings, practical recommendations are formulated for the parametric configuration of LLMs to support their responsible integration into HR processes.

Внедрение больших языковых моделей (Large Language Models, LLM) ознаменовало собой трансформационный сдвиг в методологии автоматизации процессов управления человеческими ресурсами [1, 2]. Современные модели способны выполнять комплексные задачи, включая первичный скрининг резюме, синтез структурированных вопросов для интервью, генерацию персонализированной обратной связи сотрудникам и формирование проектов внутренних организационно-распорядительных документов. Однако нативные выходные данные модели, генерируемые без целенаправленной калибровки, демонстрируют значительный разброс по шкале «консервативность — креативность»: от стереотипных и шаблонных формулировок до избыточно вариативных, но потенциально нерелевантных или не соответствующих корпоративным нормативным требованиям текстов [3, 4]. Ключом к управлению этим балансом и адаптации вывода модели под специфические операционные контексты HR является регулирование гиперпараметров генерации, детерминирующих механизм вероятностного выбора лексических единиц (токенов) в процессе синтеза текста.

Целью настоящего исследования является проведение систематического анализа влияния трех фундаментальных параметров генерации — температуры (Temperature), Top-K и Top-P (ядерной выборки) — на качественные характеристики выходных данных LLM, имеющих критическое значение для их применения в HR-сфере [5, 6]. Фокус оценки сосредоточен на следующих аспектах:

1. Соответствие и нормативная точность: cпособность модели генерировать контент, строго соответствующий установленным фактологическим данным, требованиям трудового законодательства, внутренним регламентам компании и этическим стандартам [7, 8].

2. Контекстуальная адаптивность и управляемая креативность: оптимизация уровня вариативности формулировок для преодоления избыточной шаблонности при сохранении профессионального тона, уместности и смысловой связности генерируемого текста [4, 9].

3. Согласованность (консистентность) результатов: обеспечение возможности получения стабильных и непротиворечивых результатов с минимальной вариативностью на идентичные входные запросы, что является обязательным условием для использования моделей в стандартизированных и регламентированных HR-процедурах [10]. Следует отметить, что полная детерминированность (идентичность) результатов в стохастических режимах генерации (temperature > 0) не гарантируется.

For citation:
Rybanov Alexander Aleksandrovich, Analysis of the impact of large language model generation parameters on text output qualityin the context of HR automation. HR Manager. 2026;3.
The full version of the article is available for subscribers of the journal
Article language:
Actions with selected: