Размер шрифта
Новости Спорт
Выйти
США и Израиль атаковали ИранПереговоры о мире на Украине
Общество

Российских студентов предупредили об угрозе использования ИИ в написании курсовых

Эксперт Богатырева: бороться с использованием ИИ в образовании просто бесполезно

Генеративный ИИ стремительно вошел в повседневную жизнь, особенно среди молодежи и студентов. По данным исследований, около 82% людей в возрасте от 18 до 24 лет знают о нейросетях с текстовыми функциями. Более того, многие активно используют их для написания учебных работ, решения задач и других академических целей. Об угрозах использования ИИ студентами в написании курсовых работ «Газете.Ru» рассказала руководитель ИТ-подразделения Агентства «Полилог», автор Telegram-канала ГОС ИТ Богатырева — Людмила Богатырёва.

Одновременно с этим образовательные учреждения все больше обеспокоены тем, что ИИ становится неотъемлемым инструментом в учебном процессе. Так, сегодня многие университеты внедряют технологии для выявления ИИ-генерации текста (ИИ-детекторы) и разрабатывают правила допустимого использования ИИ. Например, в некоторых вузах разрешается применять нейросети только для составления выводов или аннотаций в курсовых работах.

«Однако на практике такие меры оказываются малоэффективными: студенты находят способы обхода ограничений. Один из них — использование «хьюменайзеров», которые переписывают текст, созданный ИИ. В результате, ИИ-детекторы не могут отличить его от текста, написанного человеком. Поэтому бороться с использованием ИИ в образовательной среде просто бесполезно. Вместо этого важно учить студентов критически мыслить, проверять факты и осознавать ограничения нейросетей», — объяснила она.

Так, одним из главных из ограничений являются так называемые галлюцинации — ситуации, когда модель генерирует неправдивую или полностью вымышленную информацию. Это может происходить по разным причинам: ограниченность обучающих данных, некорректная интерпретация пользовательского запроса и проч. В результате нейросеть может придумывать несуществующие концепции, теории и даже авторов научных работ.

«Так, даже самая продвинутая на сегодняшний день модель ChatGPT-4.5 сталкивается с галлюцинациями в 37% случаев. И, на минуту, это лучший показатель среди всех версий модели. Тем не менее, около 31% студентов доверяют ИИ поиск источников для курсовых и лабораторных работ, согласно опросу НИУ ВШЭ», — объяснила она.

Галлюцинации ИИ в академической среде несут серьезные риски. Если преподаватель заметит недостоверные данные в работе, это может привести к значительному снижению оценки.

«Но еще опаснее, если ошибка останется незамеченной, а работа будет опубликована в интернете — тогда другие ИИ-модели могут использовать ее в обучении, распространяя неверную информацию дальше. В результате это ведет к оскудению академического поля, когда ложные данные становятся частью научного знания», — резюмировала эксперт.

Ранее выяснилось, что российский бизнес вдвое увеличит траты на кибербезопасность.

 
Государство затягивает пояса, экономика буксует, зумеры банкротятся. Главное про деньги за неделю
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!