На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!
Все новости
Новые материалы +

Российских студентов предупредили об угрозе использования ИИ в написании курсовых

Эксперт Богатырева: бороться с использованием ИИ в образовании просто бесполезно

Генеративный ИИ стремительно вошел в повседневную жизнь, особенно среди молодежи и студентов. По данным исследований, около 82% людей в возрасте от 18 до 24 лет знают о нейросетях с текстовыми функциями. Более того, многие активно используют их для написания учебных работ, решения задач и других академических целей. Об угрозах использования ИИ студентами в написании курсовых работ «Газете.Ru» рассказала руководитель ИТ-подразделения Агентства «Полилог», автор Telegram-канала ГОС ИТ Богатырева — Людмила Богатырёва.

Одновременно с этим образовательные учреждения все больше обеспокоены тем, что ИИ становится неотъемлемым инструментом в учебном процессе. Так, сегодня многие университеты внедряют технологии для выявления ИИ-генерации текста (ИИ-детекторы) и разрабатывают правила допустимого использования ИИ. Например, в некоторых вузах разрешается применять нейросети только для составления выводов или аннотаций в курсовых работах.

«Однако на практике такие меры оказываются малоэффективными: студенты находят способы обхода ограничений. Один из них — использование «хьюменайзеров», которые переписывают текст, созданный ИИ. В результате, ИИ-детекторы не могут отличить его от текста, написанного человеком. Поэтому бороться с использованием ИИ в образовательной среде просто бесполезно. Вместо этого важно учить студентов критически мыслить, проверять факты и осознавать ограничения нейросетей», — объяснила она.

Так, одним из главных из ограничений являются так называемые галлюцинации — ситуации, когда модель генерирует неправдивую или полностью вымышленную информацию. Это может происходить по разным причинам: ограниченность обучающих данных, некорректная интерпретация пользовательского запроса и проч. В результате нейросеть может придумывать несуществующие концепции, теории и даже авторов научных работ.

«Так, даже самая продвинутая на сегодняшний день модель ChatGPT-4.5 сталкивается с галлюцинациями в 37% случаев. И, на минуту, это лучший показатель среди всех версий модели. Тем не менее, около 31% студентов доверяют ИИ поиск источников для курсовых и лабораторных работ, согласно опросу НИУ ВШЭ», — объяснила она.

Галлюцинации ИИ в академической среде несут серьезные риски. Если преподаватель заметит недостоверные данные в работе, это может привести к значительному снижению оценки.

«Но еще опаснее, если ошибка останется незамеченной, а работа будет опубликована в интернете — тогда другие ИИ-модели могут использовать ее в обучении, распространяя неверную информацию дальше. В результате это ведет к оскудению академического поля, когда ложные данные становятся частью научного знания», — резюмировала эксперт.

Ранее выяснилось, что российский бизнес вдвое увеличит траты на кибербезопасность.

Что думаешь?
Загрузка
 
Доллар по 75. Почему курс рубля называют «ненастоящим»