ЕС начал разработку закона, который регулирует использование систем, основанных на искусственном интеллекте (ИИ). Предложения к Акту об ИИ опубликованы на сайте цифровой стратегии Еврокомиссии. Этот закон станет первым в мире законом об ИИ.
ИИ определяется как "программное обеспечение... способное для заданного набора целей, определенных человеком, генерировать результаты... влияющие на среду, с которой они взаимодействуют".
В документе предполагается прописать риск-ориентированный подход к регулированию, то есть классифицировать системы по уровню риска. Те, которые имеют неприемлемый риск, должны быть запрещены. Системы с высоким риском нужно жестко отрегулировать, а с низким - предоставить мягкий режим саморегулирования. Это тем более важно, что ИИ представляет собой "черный ящик", получающий решения на основе непрозрачного алгоритма, и может угрожать людям.
К запрещенным относятся системы, действующие на подсознание для причинения физического или психологического вреда человеку, системы социального рейтинга, которые оценивают и прогнозируют "благонадежность" человека, системы биометрической идентификации, в том числе распознавание лиц, в режиме реального времени в публичных местах, за исключением особых случаев, например при поиске жертв, пострадавших и т.п., но при соответствующем разрешении.
К системам высокого риска в ЕС хотят отнести "обычные" системы биометрической идентификации людей, управления критической инфраструктурой, образовательной деятельностью, системы, использующиеся правоохранительными органами, миграционными службами и др. Высокий риск вызван тем, что они несут потенциальную угрозу правам человека. Поэтому они должны быть подконтрольны, подлежать проверке, а техническая документация должна быть написана до вывода продукта на рынок. При этом они должны быть под постоянным человеческим надзором с правом остановки работы в критической ситуации.
Системы низкого риска - это, например, голосовой помощник. В этом случае, например при звонке, человек должен быть проинформирован, что он говорит с роботом. Они не подлежат жесткому регулированию, а компании сами создают кодекс их использования.
В ЕС планируют создать Европейский совет по ИИ из представителей стран-членов ЕС и Еврокомиссии.
Документ имеет в некотором роде философский характер, поэтому многие вещи определены в самых общих чертах, допуская произвол в толковании. При этом принципиально важно то, что проект не наделяет ИИ статусом субъекта, сосуществующего с человеком. Во всяком случае этот вопрос не стоит до тех пор, пока у ИИ не появится "сознание". Этот вопрос является одним из важнейших в научной фантастике. Опасность состоит в том, что некоторые заинтересованные люди, группы, организации, страны со временем могут начать продвигать идею того, что "сознание" у ИИ уже появилось и он должен быть признан субъектом.
Что касается "разума" у ИИ, то большинство специалистов считают, что до настоящего интеллекта еще очень далеко. Нынешний ИИ часто называют "слабым", то есть выполняющим легко алгоритмизируемые функции. Некоторые специалисты считают, что полноценный интеллект вообще никогда не будет создан.
Накануне.RU писало о том, что уже обсуждается идея признать искусственный интеллект субъектом со своими правами. По мнению вице-президента в области искусственного интеллекта и математического моделирования Сколтеха Максима Федорова, это может привести к чудовищным последствиям - установлению технофашизма. К счастью, пока что большинство эту идею отвергают.