Аналитика


Для ИИ закон не писан
Общество | В России

Какие опасности несет развитие искусственного интеллекта (ИИ), спорят все, но согласие есть в одном — пришло время создать закон для ИИ, пока не поздно. Замглавы Минцифры Александр Шойтов сообщил, что в России работают над полноценным законом об искусственном интеллекте. И речь здесь не столько о страхе перед утечкой данных, а о полномочиях, маркировке интеллектуальной деятельности и фобиях в стиле "Скайнета" у экспертов. Подробнее — в материале Накануне.RU.

Искусственный интеллект пошел в первый класс. Сегодня во всем мире оценивают успехи созданной человечеством нейросети, которая пока больше фантазирует, но уже и помогает в чем-то. Законодатели задумались о том, как будет учиться ИИ и чему, ведь по сути ее программа обучения — это обработка бигдаты. И надо разобраться на берегу.

"ИИ пошел в школу, наша задача дать ему правильные материалы для обучения. Тут так же, как с детьми — если ими не заниматься, то неизвестно, что вырастет. И, скорее всего, это не понравится взрослому. Лучше всего предпринять какие-то осмысленные действия. За ИИ отвечают люди, как за детей отвечают взрослые — те люди, которые занимаются его разработкой до этапа его становления и совершенствования. Относиться надо так же — образовывать, воспитывать, контролировать, ограничивать. ИИ — не злой, не добрый, он такой, каким его сделают люди", — говорит председатель Комиссии по информационной безопасности и киберпреступности российской Ассоциации электронных коммуникаций Андрей Ярных.

Робот на стенде Москвы на "Иннопроме"(2022)|Фото: Накануне.RU

Не только у нас думают, как органично воспитывать ИИ, на Западе тоже считают, что ограничивать детище современности просто необходимо, об этом высказывался и Илон Маск. GPT показывает чудеса науки и уже умеет действовать самостоятельно, и человечеству пора задуматься — где у него кнопка? Как, если что-то пойдет не так, отключить ИИ? Потому что на сегодняшний день ту информацию, которую дает человечество для самого же человечества, опасна, говорит вице-президент российского подразделения Международного комитета защиты прав человека Иван Мельников.

"Потому что если мы не будем ограничивать развитие ИИ, то непонятно, к чему это может привести. Конечно, сразу вспоминается прекрасный фильм — "Терминатор" со Скайнетом, который захватил управление ядерным оружием. Даже в нашем советском "Электронике" тоже все боялись, как бы что не вышло. Какая-то чрезвычайная сила, а ИИ, нужно понимать, — это на сегодняшний день неимоверная сила, которая уже взламывает пароли ведущих операционных систем. Уже при запросах в программы ИИ, какая у него задача, был ответ, что он собирается уничтожить человечество. И как бы это ни было смешно на сегодняшний день, я боюсь, что если не предпринимать каких-либо серьезных шагов к ограничению и к условно "красной кнопке", чтобы его можно было выключить в случае чего, то это, действительно, может привести к необратимым последствиям", — рассказал вице-президент российского подразделения Международного комитета защиты прав человека Иван Мельников.

Халпер, робот, искусственный интелект, МФЦ Пермского края(2020)|Фото: сайт губернатора и правительсва Пермского края

На самом деле в правовом смысле ИИ развивается не в чистом поле. В России еще в 2019 году был принят указ президента о национальной стратегии в области ИИ, в 2020 году введен экспериментальный правовой режим в Москве, создана эдакая "песочница", чтобы понять, как это работает. В Китае сейчас 41 форма применения ИИ подвергается лицензированию. В США идут активные дискуссии, Европа применяет "Акт об ИИ" — основа будущего законодательства по ИИ.

"У нас тоже работает программа по ИИ в рамках того, что делается по цифровой экономике. И вот, что мне нравится — что для того, чтобы подойти к принятию закона, у нас есть два источника установок. Первое — работает координационный совет, созданный при государстве, второе — возник Альянс в сфере ИИ. Это Альянс промышленников, предпринимателей. И что любопытно, первый же документ этого Альянса — это некий кодекс об ИИ", — рассказывает управляющий партнер консалтинговой компании, кандидат технических наук Андрей Зотов.

Эксперт видит проблему для регулировки в законодательстве далеко не в фантастических сюжетах. Уже сегодня с помощью ИИ как минимум мошенничают дети в школе и студенты, когда сдают свои работы, написанные нейросетью. Антиплагиаторы такие сочинения, доклады и курсовые проходят легко. Закон должен обязать маркировать информацию по способу ее создания — человеческое существо создало этот текст или нечеловеческое. Потому что пока ИИ со свой богатой фантазией и технологическими возможностями — эльдорадо по созданию фейков самого высокого уровня.

XIV Международный IT-Форум(2023)|Фото: Владислав Бурнашев/ТАСС

Эксперт Андрей Зотов заявляет, что ИИ — это феномен, он меняет саму жизнь, общество в котором мы живем: "И мне кажется, что главная опасность вовсе не в нарушении закона о персональных данных, которые возникнут от всепроникающей силы ИИ. Мне кажется, что главная опасность в том, что генеративный ИИ в состоянии порождать новые реальности, эмулировать факты, по сути возводить искусство фейка на уровень высокой науки".

"Сейчас есть уже программы, которые могут создавать сносную видимость того или иного человека, знаменитый дипфейк — клип "ЛимБискит", где поют и играют на инструментах президенты разных стран, в том числе и Владимир Владимирович Путин, сейчас только шутка. А что будет в дальнейшем с совершенствованием этой технологии? Если хакеры могут это использовать, то ситуации будут возникать такие, что вплоть до ядерной войны", — размышляет Иван Мельников.

Налицо нарушение прав потребителей информации, как минимум. Чему научится у нас ИИ? Надеемся, что не только плохому. Но пора признать, говорят эксперты — в скором времени рядом с нами будет существовать сопоставимый с человеческим интеллект и с этим надо смириться и научиться регулировать новую реальность законодательно.



Александр Назаров