За последние два года большие языковые модели заметно изменили то, как в вузах учатся и оценивают знания. Студенты и преподаватели теперь активно используют искусственный интеллект. По последним данным, около 87% студентов применяют ИИ в учебе. Исследователи отмечают, что мы вошли в «постплагиатную» эпоху — время, когда привычная схема «сам написал или списал» больше не работает, в связи с чем важно описать допустимую помощь от ИИ и границы ответственности студента. При этом регламенты и инфраструктура не всегда успевают за практикой, особенно в дистанционном формате с его ограничениями онлайн-контроля и высокими требованиями к конфиденциальности.
С ростом интереса к технологии выросли и риски. Модели могут «галлюцинировать» и выдавать неточные ответы, а масштабирование использования ИИ-инструментов в университетской среде добавляет технических и организационных задач. Примечательно, что анализ университетских политик в США показывает дисбаланс: более 90% вузов уже выпустили рекомендации по использованию генеративного ИИ для преподавателей и студентов, но менее 20% — для исследователей, сотрудников и администраторов. Это указывает на разрыв между практиками «на витрине» и внутренними регламентами исследовательских учреждений. Нужна понятная системная политика с четкими рекомендациями для преподавателей, студентов и администраторов.
Доцент Санкт-Петербургской школы экономики и менеджмента НИУ ВШЭ Андрей Терников проанализировал причины сбоев LLM (больших языковых моделей) в вузах — ситуаций, когда модель дает неточные ответы, спотыкается на формулировках, опирается на сомнительные данные, а проверить результат и честно оценить ее работу трудно из-за расплывчатых политик применения технологии.
Исследователь использовал диаграмму Исикавы — причинно-следственную схему анализа проблем, которую еще называют «рыбьей костью»: она помогает разложить одну сложную проблему на группы подпроблем. В исследовании выделены шесть ветвей факторов: «Материалы», «Методы», «Машины», «Среда», «Люди», «Измерения».