По всем вопросам звоните:

+7 495 274-22-22

В НИУ ВШЭ предложили системный план для безопасного и эффективного использования ИИ в вузах

Исследователь Андрей Терников из НИУ ВШЭ в Санкт-Петербурге предложил пошаговую схему безопасного внедрения больших языковых моделей в университетах. Она учитывает типичные причины сбоев и помогает выстроить работу так, чтобы снизить риски. Такой подход позволяет вузам заранее выявлять уязвимости и безопасно внедрять искусственный интеллект в обучение. Статья опубликована в журнале Computer.

За последние два года большие языковые модели заметно изменили то, как в вузах учатся и оценивают знания. Студенты и преподаватели теперь активно используют искусственный интеллект. По последним данным, около 87% студентов применяют ИИ в учебе. Исследователи отмечают, что мы вошли в «постплагиатную» эпоху — время, когда привычная схема «сам написал или списал» больше не работает, в связи с чем важно описать допустимую помощь от ИИ и границы ответственности студента. При этом регламенты и инфраструктура не всегда успевают за практикой, особенно в дистанционном формате с его ограничениями онлайн-контроля и высокими требованиями к конфиденциальности.

С ростом интереса к технологии выросли и риски. Модели могут «галлюцинировать» и выдавать неточные ответы, а масштабирование использования ИИ-инструментов в университетской среде добавляет технических и организационных задач. Примечательно, что анализ университетских политик в США показывает дисбаланс: более 90% вузов уже выпустили рекомендации по использованию генеративного ИИ для преподавателей и студентов, но менее 20% — для исследователей, сотрудников и администраторов. Это указывает на разрыв между практиками «на витрине» и внутренними регламентами исследовательских учреждений. Нужна понятная системная политика с четкими рекомендациями для преподавателей, студентов и администраторов.

Доцент Санкт-Петербургской школы экономики и менеджмента НИУ ВШЭ Андрей Терников проанализировал причины сбоев LLM (больших языковых моделей) в вузах — ситуаций, когда модель дает неточные ответы, спотыкается на формулировках, опирается на сомнительные данные, а проверить результат и честно оценить ее работу трудно из-за расплывчатых политик применения технологии.

Исследователь использовал диаграмму Исикавы — причинно-следственную схему анализа проблем, которую еще называют «рыбьей костью»: она помогает разложить одну сложную проблему на группы подпроблем. В исследовании выделены шесть ветвей факторов: «Материалы», «Методы», «Машины», «Среда», «Люди», «Измерения».

Для Цитирования:
В НИУ ВШЭ предложили системный план для безопасного и эффективного использования ИИ в вузах. Ректор ВУЗа. 2026;1.
Полная версия статьи доступна подписчикам журнала
Язык статьи:
Действия с выбранными: