Мажилис Казахстана 14 мая принял в первом чтении проект закона «Об искусственном интеллекте». Об этом сообщила пресс-служба парламента республики.
Документ регламентирует права и обязанности всех участников общественных отношений в сфере ИИ. Он закрепляет право граждан на защиту персональных данных, на информирование о работе ИИ, а также возможность оспаривать автоматизированные решения.
В свою очередь, владельцы систем ИИ смогут обозначать условия их использования и принимать решения об управлении рисками. Согласно закону, системы будут классифицированы по степени риска (от минимальной до высокой), а также по уровню автономности (помощники, полуавтономные и полностью автономные).
Системы высокого риска будут признаны объектами критически важной информационной инфраструктуры для контроля их безопасности. Также планируется запретить на территории Казахстана полностью автономные алгоритмы.
Кроме того, законопроект предусматривает запрет некоторых практик использования ИИ. Под него попадут:
- алгоритмы, влияющие на поведение людей без их осознанного согласия (в том числе автоматическая генерация дипфейков);
- алгоритмы для оценки граждан или их классификации по социальному поведению и другим признакам;
- системы для анализа эмоций людей без их согласия;
- системы распознавания лиц в общественных местах (кроме случаев, разрешенных законом).
Одной из важных частей законопроекта станет Национальная платформа искусственного интеллекта, отметила соавтор документа Екатерина Смышляева. Платформа обеспечит доступ к инфраструктуре для создания продуктов с ИИ и библиотекам данных для их обучения.
По словам Смышляевой, при создании законопроекта изучались подходы Евросоюза, Китая, Сингапура, Канады и Японии. Например, закон ЕС об искусственном интеллекте стал источником для принципа классификации систем ИИ по уровню риска, а также для модели прозрачности.
Также она отметила опыт Сингапура в маркировке созданного ИИ контента и Китая — во внедрении ИИ в госуправление, а также в ограничениях на цифровое профилирование. В свою очередь, поддержка образовательных программ по развитию компетенций в сфере ИИ отчасти следует японскому примеру.
Смышляева отдельно затронула тему борьбы с дипфейками. Законопроект предусматривает обязательную маркировку синтетического контента, запрет на автоматическую генерацию дипфейков, а также ответственность владельцев систем ИИ за нарушения.
Ранее Spot писал, что до 30 июня продолжается прием заявок на премию имени Беруни в сфере этики ИИ.