Что будут делать в Казахстане с ИИ, чтобы люди не разучились думать

Исследования показывают, что из-за частого использования искусственного интеллекта (ИИ) у людей снижаются когнитивные функции. В Казахстане будут регулировать эту сферу для того, чтобы дети не утратили способность думать, анализировать и критически мыслить. Об этом стало известно на презентации законопроекта об ИИ.

В мажилисе прошла презентация законопроекта о регулировании ИИ. Автор законопроекта Екатерина Смышляева заявила , что исследования доказывают, что частое использование ИИ приводит к снижению способности думать и анализировать. Это может стать угрозой для детского мышления.

«Другой вопрос в том, что использование этих ассистентов не предполагает полное отсутствие потребности думать. Оно предполагает помощь на этапе базового текста. Потом человек, по идее, должен включить критическое мышление, оценить где правда и ложь, доработать, найти дополнительные источники, перезадавать 500 раз вопросы, чтобы получить качественный контент.

Если мы включим вторую часть критического мышления, то риск снижения когнитивных функций снизится или мы его (риск — прим.) утратим», – считает Смышляева.

Для решения проблемы нужно пересмотреть образовательные стандарты. Если сейчас в детских садах и школах учат собирать и анализировать информацию, то в будущем её нужно учить критически оценивать.

Ещё нужно помнить, что в случае введения каких-либо ограничений на использование ИИ, то следует помнить, что за соблюдение запретов будут отвечать родители, а не дети, отметила автор инициативы.

«В рамках законопроекта мы будем рассматривать этот вопрос многогранно и вводить запреты, которые будут реально работать и реально администрироваться», – добавила Смышляева.

Ещё одна проблема связанная с ИИ — это дипфейки, которые вводят людей в заблуждение. Смышляева заявила, что уже сейчас за дипфейки можно применять статьи Административного и Уголовного кодекса. Но наказание связано не с самим фактом распространения дипфейка, а за его содержание.

«Если он оскорбил честь и достоинство человека, манипулировал общественным мнением или привёл к мошенническим действиям и повлек материальный ущерб, то за вторичную часть уже применяется ответственность», – сообщила Смышляева.

По её словам, рабочая группа обсудит вопрос о дипфейках и сформирует свою позицию примерно через месяц.

Поскольку законопроект только начали разрабатывать, на презентации не озвучили конкретные меры, которые будут вводить. Известно, что депутаты планируют классифицировать риски в сфере ИИ (минимальный, средний и высокий), и регулировать именно системы среднего и высокого риска, поскольку они плотно связаны с безопасностью общества и государства. Также мажилисмены намерены создать национальную платформу для разработок в сфере ИИ, в которую будет инвестировать государство. Ещё мажилисмены хотят принять меры для усиления защиты персональных данных.

«Законопроект устанавливает требования к владельцам-разработчикам о том, что они должны предупреждать пользователей, что они имеют дело с технологией ИИ. Однако у этого вопроса две медали: на рабочих группах тоже придётся по этому поводу строить конструктивное обсуждение, потому что далеко не все продукты можно и нужно маркировать, потому что их объём на сегодня становится колоссальным», — рассказала депутат.

В рабочую группу, которая обсуждает законопроект вошли депутаты, представители госорганов, а также эксперты. Всего около 150 человек, заключил депутат Нуртай Сабильянов.

Ранее «Курсив» сообщал, что в Казахстане хотят создать Национальный словарный фонд казахского языка.