В Роскомнадзоре назвали риски развития искусственного интеллекта без достаточного регулирования законом

Советник гендиректора Главного радиочастотного центра (ГРЧЦ) по научно-техническому развитию Евгения Рыжова рассказала, что одна из сегодняшних тенденций в области ИИ – развитие технологий управления эмоциями.

Например, это чат-боты для комфортного общения или успокоения, психологические консультации для родителей. Злоумышленники с помощью таких технологий могут собирать информацию об интересах и потребностях людей, выявлять слабые места и, используя эти сведения, влиять на их выбор, подчинять своим интересам.

Рыжова считает, что необходимо:

  • ввести регулирование сценариев применения ИИ на уровне федерального закона;

  • установить стандарты безопасности искусственного интеллекта;

  • рассмотреть вопрос введения ответственности за нарушение требований и причинение вреда с использованием технологий ИИ.

Главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН Виктор Наумов в числе рисков, связанных с развитием ИИ, назвал отсутствие идентификации и маркировки этих технологий, злоупотребление доверием пользователей, которые не знают о негативных последствиях использования технологий, радикальную концентрацию власти в руках производителей ИИ. Он отметил еще одну угрозу: спустя несколько десятилетий, вероятно, произойдет деградация многих свойств человека. Например, его творческих и коммуникационных способностей в условиях построения отношений с безальтернативным использованием ИИ.

«Современные ИИ-модели, например GPT, стремительно развиваются. Необходимо понимать, как они устроены, какой и чей код в них работает и на базе какого массива информации он работает. У используемой в GPT информации есть четыре важных критерия: полнота, достоверность, актуальность и легальность. Манипулируя этими четырьмя параметрами, разработчики кода могут управлять восприятием, объемом знаний и в итоге самим человеком», – обратил внимание глава Роскомнадзора Андрей Липов.

Он добавил, что параллельно есть риск потери навыков критического мышления, самостоятельного поиска и анализа информации и получения знаний, в первую очередь молодежью. Есть только один путь – создавать собственные технологии и сервисы в сфере ИИ.

Читать далее https://www.klerk.ru/buh/news/615187/

Точка