Контакты
Подписка
МЕНЮ
Контакты
Подписка

Совет Европы представил рекомендации по защите прав человека от негативного влияния ИИ

15.11.19 12:50

Евровет

Экспертный комитет Совета Европы завершил разработку рекомендаций по защите прав человека от негативного влияния ИИ. Рекомендации были подготовлены в Комитете экспертов по правозащитным аспектам автоматизированной обработки данных и различных форм искусственного интеллекта (MSI-AUT) и в настоящее время размещены в общем доступе в Сети. Об этом пишет Securitylab.

При подготовке документа принимали участие фонд Викимедиа и международная правозащитная группа Access Now. По словам авторов рекомендаций, создание документа стало следствием общественной дискуссии о потенциальном негативном влиянии искусственного интеллекта на демократию и самовыражение.

Документ включает в себя аспекты проектирования, разработки и развертывания алгоритмических систем — управление данными, моделирование, анализ, прозрачность, подотчетность, меры предосторожности, исследования и информирование общественности.

Например, субъекты частного сектора, разрабатывающие алгоритмические системы, должны соблюдать отраслевые стандарты в области прав человека, чтобы избежать поощрения или усиления дискриминации.

Правительствам также необходимо контролировать «компетентность персонала, участвующего в закупках, разработке, внедрении и оценке алгоритмических систем, в правах человека и недискриминации и осознание обязанности обеспечивать не только тщательную техническую оценку, но и соблюдение прав человека». Государства должны обеспечивать внешнее наблюдение за системами искусственного интеллекта с помощью независимого надзорного органа, обладающего соответствующим опытом, с целью смягчения возможного вреда для прав человека, причиняемого данными системами.

Сейчас документ проходит стадию утверждения в среде правозащитников, а дополнительные правки ожидаются в декабре нынешнего года после рассмотрения отчета комитетом Совета Европы по СМИ и информационному обществу.

Темы:ИИЕвропаРегулирование

Еще темы...

More...