Аналитика


Искусственный интеллект убьет образование?
Образование | В России

Защита студентом диплома, написанного нейросетью, поставила общество перед новыми вопросами: насколько допустимо использовать искусственный интеллект (ИИ) в образовании и какие возможности и опасности это несет? Проблема обсуждалась на круглом столе с участием самого студента.

Как сообщалось, в Российском государственном гуманитарном университете произошла защита диплома, написанного нейросетью. На защите качество работы вызвало большие дискуссии, и только презентация работы и ответы на вопросы склонили экзаменационную комиссию истолковать сомнения в пользу студента и поставить тройку. После этого пресс-служба РГГУ заявила, что данный случай заставил задуматься о необходимости разработки инструментария распознавания использования нейросетей при подготовке письменных работ. В РГГУ решение этой задачи поручено Отделению интеллектуальных систем в гуманитарной сфере и Институту информационных наук и технологий безопасности.

Студент-заочник Александр Жадан сделал диплом за 23 часа, хотя и не за одни сутки, — это суммарное количество времени, затраченное на работу. Диплом был посвящен улучшению работы игровой организации. Нейросеть быстро выдавала инфомацию, а студент только скомпоновал ее. По его словам, ему не стыдно за такой диплом.

Член комитета Госдумы по науке и высшему образованию Ольга Пилипенко, принявшая участие в круглом столе, не сформулировала никакой внятной позиции по этому поводу. А вот первый заместитель председателя комитета Госдумы по науке и высшему образованию Олег Смолин сделал конкретное предложение — нужно менять стандартную процедуру защиты дипломных работ, а в скором времени и диссертаций, так как использование ИИ не остановить.

"Есть только один момент, когда все понимают, что наступает критическая ситуация. Это ответы на вопросы. Вот тогда, вспоминая Петра Первого, дурь каждого бывает видна", — сказал Смолин.

Он уверен, что нужно оценивать не представленный текст, а владение материалом. Если студент не владеет материалом, то такой диплом нельзя пропускать. ИИ использовать для рутинных работ вполне можно, но подмена искусственным интеллектом человека — это мертвое образование, которое убивает душу человека. А современные дети и так утрачивают человеческие качества.

Наиболее глубоким было выступление специалиста по искусственному интеллекту, члена президентского Совета по правам человека Игоря Ашманова. Он считает, что никакой революции не произошло — мы имеем дело с очередным более продвинутым "бредогенератором". Они используются с начала 90-х, просто сейчас делаются на нейронных сетях.

"Цель этих "бредогенераторов" одна — это фальсификация. Например, создать спамерское письмо, которое не распознается фильтрами спама, или нагенерировать сайтов, которые поисковик не распознает как копию и захватить поисковую выдачу. История написания "научных" статей тоже берет начало в 90-х. А сейчас это распространенная история. Так, в Китае власти поставили задачу обогнать США по количеству статей по ИИ. По слухам, процентов 30 китайских статей по ИИ написаны ИИ. А почему не сгенерировать статью, если ее примут? Это же рейтинг ученого, университета. Поэтому фальсификация существует давно", — рассказал Ашманов.

Он отметил опасное следствие повсеместного использования ИИ.

"Искусственный интеллект сейчас воспитывает в массах людей так называемую невзыскательность — это выражение журналиста Виктора Мараховского. ИИ понижает качество всего, до чего он дотрагивается. Вы звоните в контакт-центр банка и не можете пробиться к живому оператору. А сам чат-бот не решает вашу проблему. Он снижает нагрузку на контакт-центр, экономит деньги, но вам не помогает. Вас он просто приучил к тому, что контакт с сервисом теперь низкого качества", — подчеркнул специалист по ИИ.

По этой причине теперь невозможно получить хороший перевод текста. Машинный перевод это уничтожил. Даже в дорогих агентствах его вынужденно используют, чтобы сокращать расходы и не прогореть. Человеческий перевод теперь — это машинный перевод, просто отредактированный человеком.

Ашманов не видит никаких существенных плюсов использования ИИ, потому что падает качество всего. В связи с этим он вспомнил, что когда-то президенту Владимиру Путину задали вопрос: когда границу России будут защищать гигантские боевые человекоподобные роботы?

"Журналист Алексей Андреев потом написал: а зачем кому-то нужны человекоподобные роботы, если есть огромное количество маленьких роботообразных людей? Их много, они делают скучную работу и готовы управляться ИИ", — сказал Ашманов.

В этом и есть главная опасность: снижение качества и освобождение от ответственности. Люди привыкают к низкому качеству всего и полной безответственности. В США уже идут разговоры о подготовке судебных решений ИИ.

Недавно сообщалось, что чат-бот GPT на базе OpenAI успешно сдал тест Wharton Business School. Это означает, что он может выступать в качестве руководителя крупной компании или персонального помощника бизнесмена. А модель ИИ от компании Anthropic под названием Claude сдала экзамен по праву и экономике в Университете Джорджа Мейсона, хотя и со значительными замечаниями. Однако экзаменаторы поставили положительную оценку за способность аргументировано отстаивать позицию.

На днях корпорация Google приняла решение приобрести 10% доли в капитале компании Anthropic, чтобы стать ее финансовым и техническим покровителем. Google заинтересована в коммерческой версии ИИ, чтобы догнать Microsoft с его ChatGPT, в который было вложено порядка 10 млрд долларов. На Западе уже начинаются судебные процессы с участием ИИ в качестве адвоката. Билл Гейтс прогнозирует, что ИИ станет самой горячей темой 2023 года.

Кто-то из писателей-фантастов писал, что опасность искусственного интеллекта состоит не в нем самом, а в том, что страдает естественный интеллект людей, который становится все слабее и вытесняется. Похоже, что очередной виток этого сползания вниз сейчас и наблюдается.



Евгений Чернышёв