На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

ФедералПресс

20 подписчиков

«Данные должны соответствовать интересам государства»: как в России готовятся регулировать ИИ

ИИ уже проникает во все сферы жизни – от медиапроизводства до здравоохранения. Но чем больше он умеет, тем выше тревожность: не потеряет ли человек контроль над машиной? В России начали разрабатывать закон, который должен удержать ИИ в безопасных границах.

Что предлагают депутаты Средства массовой информации выяснили, что в Государственной думе по поручению ее председателя Вячеслава Володина была создана рабочая группа по подготовке законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России».

Появление инициативы связывают с реализацией Национальной стратегии развития ИИ до 2030 года, которую президент утвердил в феврале 2024 года. Среди анонсированных парламентариями нововведений:

запрет на разработку и эксплуатацию систем искусственного интеллекта с чрезмерно высоким уровнем риска, которые угрожают безопасности личности, общества и государства; введение обязательной госрегистрации и сертификации для систем ИИ с высоким уровнем риска, которые применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах; введение системы внутреннего контроля качества и добровольной сертификации для систем ИИ с ограниченным уровнем риска; введение ответственности за причинение вреда жизни, здоровью или имуществу лиц, участвующих в разработке и эксплуатации систем ИИ; определение прав на результат интеллектуальной деятельности, созданный с использованием ИИ, с учетом существенного творческого вклада человека.

Поручение Володина Корреспондент «ФедералПресс» обратился в профильный комитет Государственной думы с вопросом, какие уже известны детали законодательной инициативы. Как отметил первый заместитель председателя комитета по информационной политике, технологиям и связи Антон Горелкин, пока парламентарии не выработали общую стратегию по решению вопроса применения ИИ. «По поручению председателя Государственной думы создана межфракционная рабочая группа, которая будет заниматься анализом законотворческих инициатив, направленных на регулирование ИИ. Сейчас общей позиции по этому вопросу у представителей власти нет», – рассказал Горелкин корреспонденту. Он пояснил, что кто-то предлагает дать нашим ИТ-компаниям карт-бланш, чтобы не допустить технологического отставания на глобальном рынке, обеспечить участие России в ИИ-гонке. Другие считают, что искусственный интеллект «необходимо срочно зарегулировать», внедрить риск-ориентированный подход и установить ответственность для разработчиков. «Поиск баланса между двумя этими подходами и станет основной задачей нашей рабочей группы», – отметил депутат. В чем риски применения ИИ О рисках ИИ сегодня говорят многие эксперты. Первый заместитель председателя комитета по информационной политике, технологиям и связи Антон Ткачев в беседе с «ФедералПресс» отмечает, что ИИ сегодня чрезвычайно важен, но «заигрываться» с ним может быть опасно. «В первую очередь технология искусственного интеллекта – это возможность во многих сферах организовать жизнь граждан в лучшую сторону, сэкономить огромное количество времени и средств для развития, в том числе и науки, ряда промышленных отраслей и многого другого. Но в том числе есть и ряд рисков, которые нужно купировать. И это касается, конечно, в том числе национальных интересов государства и интересов граждан этих государств», – рассказал Антон Ткачев. Когда люди пользуются той или иной генеративной сетью, например иностранного типа, она содержит те данные, которые в нее внесли, и на основании их формирует свои ответы на запросы. «И в этом смысле очень важно, чтобы эти данные соответствовали тем самым национальным, суверенным интересам государства», – поясняет представитель профильного комитета. Сегодня разные нейросети в зависимости от своей «прописки» отвечают на одни и те же вопросы по-разному, в том числе даже по территориальной целостности разных государств. Нужно соблюдать вопросы этики в искусственном интеллекте, считает Ткачев. «Это кодекс этики, которым пользуются крупные компании, бигтехи и те компании, которые занимаются разработкой технологии ИИ. В том числе национальные и религиозные вопросы, вопросы, касающиеся безопасности стран. В этом смысле это некий саморегулируемый документ, который дает возможность формировать рынок, производить новые технологии в рамках кодекса этики», – рассказал Антон Ткачев. В вопросе подготовки законопроекта он отметил, что сегодня действует ряд норм, которые эту технологию регулирует, но при таком стремительном развитии ИИ этого недостаточно. Депутаты начинают серьезную работу над сферой ИИ, обращая внимание на международный опыт. «Здесь не хочется перегнуть с регулированием, что произошло, например, в Европе, когда компании, которые занимались этим искусственным интеллектом, после введения законодательства просто начали уезжать из стран Евросоюза, для того чтобы дальше развивать технологии. Нужно подходить к этому вопросу аккуратно», – отмечает Ткачев. В первую очередь законодательство должно быть направлено на развитие технологии, чтобы был доступ к центрам обработки данных и оборудования. Необходимо разработать положения по защите данных, которые используются для обучения ИИ, ответственности разработчиков за решения машинного разума, поясняет депутат. Особенно если ИИ применяют для мошенничества. «Кого ругать? Саму нейросеть, условно, и будет нести ответственность разработчик или все-таки тот, кто ее применил в противоправных действиях? И в этом смысле нужно очень аккуратно отработать таким образом, чтобы не страдали вопросы развития данной технологии», – отмечает Антон Ткачев. Он заключил, что Дума будет учитывать мнение экспертного сообщества, игроков рынка, для того чтобы выработать ту самую кристаллизованную модель регулирования искусственного интеллекта. Изображение сгенерировано нейросетью Kandinsky 3.1

 

Ссылка на первоисточник
наверх