Образование

Этические нормы использования нейросетей в образовании

С каждым днем игнорировать искусственный интеллект становится все сложнее. Ленты соцсетей заполнены различными изображениями от нейросетей, студенты и школьники выполняют работы при помощи ботов. Возникает вопрос, как к этому относиться и насколько использование ИИ в образовательном процессе этично.
Еще в начале февраля Национальная комиссия по этике в сфере ИИ попросила Минобрнауки регламентировать использование ChatGPT в учебном процессе. Причиной тому стала ситуация с написанием диплома при помощи нейросети. Студент не скрывая признался СМИ, что использовал в подготовке ИИ, и получил оригинальность работы в размере 82%.

Министр науки и высшего образования Валерий Фальков, в своем заявлении ТАСС отметил, что необходимо менять подход к обучению, а негативных последствий для выпускника вуза, написавшего диплом, быть не должно.

«Он просто проверил систему на прочность, на мой взгляд. Это первый момент. А второй очень важный момент: вот такого рода ситуации, случающиеся внезапно, – хотя вроде бы об искусственном интеллекте, о нейросети и о ее возможностях известно давно – показывают, что университетам надо перестраиваться», – пояснил чиновник.
После это случая представители Национальной комиссии по этике в сфере ИИ отправили министру науки и высшего образования Валерию Фалькову письмо с просьбой регламентировать использование генеративных моделей искусственного интеллекта в учебном процессе.

Отметим, что в состав комиссии по этике в сфере ИИ входят представители «Сбера», «Яндекса», МТС, университета «Иннополис», фонда «Сколково», ЦСР, Центра ИИ МГИМО, «Сколтеха», Университета ИТМО, МГТУ им. Н. Э. Баумана.

Разумеется один диплом не вызвал бы такой всплеск и ажиотаж вокруг этических норм по применению искусственного интеллекта. Дополнительно на эту ситуацию влияет и тот факт, что, например, в США образовательная система среагировала на появление нейросети запретом использовать ChatGPT в школах Нью-Йорка, Лос-Анджелеса и Балтимора.

Но стоит отметить, что педагоги как в Штатах, так и в России к такой радикальной мере отнеслись со скепсисом.
«Все сейчас обсуждают резонансные случаи в образовании, но технологии продолжат развиваться. Мы видим лучшее решение в том, чтобы адаптировать сферу образования к их использованию», – пояснил СМИ председатель комиссии по реализации Кодекса этики в сфере ИИ Андрей Незнамов.

Комиссия указала в письме Минобрнауки на этическую проблему, связанную с невозможностью отличить созданный ИИ текст от текста, созданного человеком. С другой стороны, по мнению экспертов, использование ChatGPT и аналогичных решений может сократить время на проведение рутинных операций, например поиск и компоновку материалов, форматирование текста, анализ исследований.

«Использование новых технологий может быть уместно и полезно для освоения отдельных специальностей и навыков и в ряде случаев не будет противоречить обязанности студентов выполнять работу самостоятельно», – считают авторы письма в Минобрнауки.

Декан факультета инфокоммуникационных технологий ИТМО Александр Капитонов предложил использовать в учебном процессе генеративные нейросети в полную меру для создания новых проектов. По его мнению эта технология помогает сделать содержание исследований интереснее и подробнее, если уметь её правильно использовать.

Вице-президент по технологиям ИИ VK Андрей Калинин рассказал СМИ, что ChatGPT и подобные ему нейросети помогают снижать расходы на проведение научных исследований и ускоряют разработку новых технологий.

«Сегодня мы работаем с детьми очень активными, которые быстро развиваются. В конце ноября эта нейросеть (ChatGPT ред. прим.) появилась, и буквально в течение месяца ребята поняли, что это удобный инструмент, – говорит член Совета учителей-блогеров и преподаватель информатики Казанского энергетического колледжа Раиль Шамсутдинов. – Поэтому я отношусь к такому инструменту если не хорошо, то по крайней мере нейтрально: детям интересно узнавать. А вот запрет вызовет интерес в двойном размере, ухудшит понимание феномена».

«Важно, чтобы учителя понимали, что это им в помощь, – считает член Совета учителей-блогеров и учитель информатики из школы No 30 города Дзержинска Павел Шорин. – Большая часть учителей хотят, чтобы дети учили их предмет, чтобы у них были знания и они получали положительный результат, постоянно развиваясь. Важно здесь то, что и учителям сегодня необходимо тоже постоянно развиваться».

Профильные юристы уточняют, что с юридической точки зрения использование технических средств является нарушением, в том числе этических норм научного сообщества. В РФ пока не допускается признание прав авторства за человеком, который создал произведение с помощью ИИ. Также использование ИИ в образовательном и научном процессе законодательно не регламентировано, и использование ИИ сейчас пытаются регулировать по аналогии с плагиатом, что неверно по сути, так как эта технология намного сложнее, чем простое заимствование информации. Эксперты считают, что разрешить использовать генеративные сети в РФ в ближайшее время официально не получится.

Этические принципы использования нейросетей в образовании

Бесспорно, искусственный интеллект помогает усиливать эффективность обучения и повышает качество обучения. Но надо понимать, что, как и любая технология, использование ИИ в образовании должно соответствовать этическим принципам.

Во-первых – это прозрачность. Учебные материалы, созданные с помощью AI, должны быть доступны всем участникам образовательного процесса (ученикам, преподавателям, администрации образовательных организаций, родителям). Нет никакой необходимости скрывать технологический процесс, используемый для создания этих материалов. Учащиеся и педагоги должны иметь доступ к информации о том, как нейросеть была обучена и какие данные использовались.

Во-вторых – это защита конфиденциальности данных. При использовании нейросети, личные данные и учебные материалы могут быть собраны и анализированы. Эти данные могут использоваться для создания более точных и персонализированных обучающих программ. Однако участники образовательного процесса должны быть уверены, что их данные не будут использоваться неправомерно или распространяться третьими сторонами.

В-третьих – это необходимость постоянного усовершенствования технологий. Иногда нейросети могут использоваться для принятия решений, там, где нужна человеческая экспертиза. Поэтому важно продолжать работать над технологией, улучшать их и вносить изменения при необходимости. Кроме того, обучение студентов должно быть сконцентрировано не на использовании нейросетей, а на их понимании и развитии критического мышления, что за собой ведет необходимость всеобщего медиаобразования.

В-четвертых – это необходимость постоянного усовершенствования технологий. Иногда нейросети могут использоваться для принятия решений, там, где нужна человеческая экспертиза. Поэтому важно продолжать работать над технологией, улучшать их и вносить изменения при необходимости. Кроме того, обучение студентов должно быть сконцентрировано не на использовании нейросетей, а на их понимании и развитии критического мышления, что за собой ведет необходимость всеобщего медиаобразования.

И, наконец, все участники образовательного процесса должны быть готовы к тому, что инновации в сфере использования нейросетей могут иметь риски и негативные последствия. Необходимо быть готовыми использовать нейросети только при наличии соответствующей адаптации и положительного опыта работы в данной сфере.


Этические нормы использования нейросетей обеспечивают прозрачность и защиту данных, сохраняют ответственность и позволяют ИИ работать на благо учебного процесса. Когда эти нормы соблюдаются, нейросети смогут улучшать образование, помогая понимать материал и достигать наивысших результатов.