Внедрение больших языковых моделей (Large Language Models, LLM) ознаменовало собой трансформационный сдвиг в методологии автоматизации процессов управления человеческими ресурсами [1, 2]. Современные модели способны выполнять комплексные задачи, включая первичный скрининг резюме, синтез структурированных вопросов для интервью, генерацию персонализированной обратной связи сотрудникам и формирование проектов внутренних организационно-распорядительных документов. Однако нативные выходные данные модели, генерируемые без целенаправленной калибровки, демонстрируют значительный разброс по шкале «консервативность — креативность»: от стереотипных и шаблонных формулировок до избыточно вариативных, но потенциально нерелевантных или не соответствующих корпоративным нормативным требованиям текстов [3, 4]. Ключом к управлению этим балансом и адаптации вывода модели под специфические операционные контексты HR является регулирование гиперпараметров генерации, детерминирующих механизм вероятностного выбора лексических единиц (токенов) в процессе синтеза текста.
Целью настоящего исследования является проведение систематического анализа влияния трех фундаментальных параметров генерации — температуры (Temperature), Top-K и Top-P (ядерной выборки) — на качественные характеристики выходных данных LLM, имеющих критическое значение для их применения в HR-сфере [5, 6]. Фокус оценки сосредоточен на следующих аспектах:
1. Соответствие и нормативная точность: cпособность модели генерировать контент, строго соответствующий установленным фактологическим данным, требованиям трудового законодательства, внутренним регламентам компании и этическим стандартам [7, 8].
2. Контекстуальная адаптивность и управляемая креативность: оптимизация уровня вариативности формулировок для преодоления избыточной шаблонности при сохранении профессионального тона, уместности и смысловой связности генерируемого текста [4, 9].
3. Согласованность (консистентность) результатов: обеспечение возможности получения стабильных и непротиворечивых результатов с минимальной вариативностью на идентичные входные запросы, что является обязательным условием для использования моделей в стандартизированных и регламентированных HR-процедурах [10]. Следует отметить, что полная детерминированность (идентичность) результатов в стохастических режимах генерации (temperature > 0) не гарантируется.