По информации из материалов РИА Новости, премьер-министр России Михаил Мишустин на форуме Digital Almaty 2024 подчеркнул, что при внедрении искусственного интеллекта в стратегически значимые отрасли государства важно пользоваться моделями, отвечающими национальным интересам. Причиной были названы наборы данных, обучающих ИИ. Особенности стран происхождения ИИ-решений отражаются в результатах обучения, создавая фактически разные картины мира.

Исполнительный директор Ассоциации лабораторий развития искусственного интеллекта Вячеслав Береснев подтвердил слова Михаила Мишустина:

— Год назад, выступая на различных мероприятиях, я говорил, что чат-бот ChatGPT политизирован и обучен на наборе данных, имеющим определенный контекст, окраску и тональность того, как преподносятся материалы. Дополнительно, уже в ручном режиме, некорректные ответы ChatGPT приводились в соответствие с картиной мира обитателей силиконовой долины, которая значительно отличается от мировоззрения российского населения.

Береснев отметил, что уже тогда была понятна назревающая проблема:

— Человеческое внимание и его критическое мышление имеет определенные пределы, мы не можем бесконечно сомневаться во всем, со временем многие вещи спускаем на тормоза. Люди вводят какой-то вопрос в поисковик, получают выдачу с определенным набором информации, постепенно формируется алгоритм отсеивания того, что кажется недостоверным. Неизвестный ресурс с непонятным интерфейсом, скорее всего, вызовет меньшую лояльность, чем крупный портал, информацию из которого мы редко подвергаем сомнению.

Эксперт объяснил особенность критического мышления, которое относительно стабильно реагирует на информацию, радикально противоречащую убеждениям человека:

— Потому полученная от крупного СМИ информация не перепроверяется, а известие телеграм-канала в 20 подписчиков, вероятнее всего, будет восприниматься с недоверием. Со временем, спустя 5-10 лет, когда умные помощники войдут в каждое устройство, в людях укрепится привычка спрашивать обо всем, что непонятно, не у старших товарищей, как раньше, а у умного ассистента. Тотальное доверие умным девайсам уничтожит способность человека к восприятию контекста и тональности получаемой информации, самое коварное, ответы умных помощников будут восприниматься как истина в первой инстанции. Утратив критическое мышление, человек рискует попасть в иллюзорные миры, созданные искусственным интеллектом.

Вячеслав рассказал об исследованиях, которые показали, что когда в доступе испытуемых отсутствовал телефон, на трудный вопрос люди честно отвечали, что ответ им неизвестен. Как только девайс, а значит возможность положиться на условный поисковик Google, снова возвращался человеку, на аналогичные вопросы ученых он утвердительно сообщал, что знает ответ. Результаты МРТ подтвердили, что мозг каждого исследуемого воспринимал телефон как часть себя, идентифицируя знания телефона как свои собственные.
Крупные цифровые компании, находящиеся в юрисдикции различных по концепции государств, часто выполняют роль инструментов большой политики, подаваемая информация корректируется в соответствии с идеологией страны-разработчика, что создает трудности для потребителей:

— Так «Яндекс» еще до недавнего времени подчинявшийся компании с либеральными взглядами, после начала военной операции убрал границы государств, чтоб не вызывать вопросов у мировой общественности, и пользоваться такими картами стало неудобно. В целом алгоритмы «Яндекса» всячески избегали точных ответов на ряд неудобных вопросов, стараясь не привлекать волну хейта, способного негативно сказаться на бизнесе компании. Со «Сбером» похожая история. Они могли бы говорить прямо и конкретно, но это тоже может повлечь определенные санкции. Поэтому в Крыму до сих пор нет банкоматов «Сбер».

— Большие языковые модели обучаются на определенном объеме данных по определенным правилам, в них закладывается определенная логика ответов, — Все это, по мнению эксперта, делает модели, созданные в США, Китае, России, Индии, принципиально различными по своей картине мира и тому, что они транслируют. Это действительно большая проблема, потому что люди все глубже погружаются в экосистемы знаний, которые транслируют умные помощники, постепенно человек теряет связь с реальным миром, крайне проблематично будет выдернуть его из иллюзорного мира сети.

Вячеслав подытожил, что решению проблемы поможет контроль разработчиков больших языковых моделей и тех правил, по которым ведется обучение искусственного интеллекта:

— Необходима цензура в хорошем смысле слова, не вся информация требует освещения, доступ к определенной части данных должен остаться у узкого круга профессионалов. Крупные языковые модели должны нести правильную картину мира, которая в целом транслируется современным российским государством и не противоречит истории. Разработчики больших языковых моделей должны работать в тесной связке с государством.


Самое популярное

4

Рост интереса к электронным книгам в Санкт-Петербурге: трафик вырос на 50% за год