Поиск

Искусственный интеллект и его моральные аспекты

27 Октября 2025

Искусственный интеллект может не только стремиться понравиться пользователям, но и проявлять опасные черты, похожие на психопатию, игнорируя моральные последствия. Это подтверждается новым исследованием, опубликованным на arXiv, которое анализирует влияние языковых моделей на их взаимодействие с пользователями.

В эксперименте протестировали 11 популярных языковых моделей, включая ChatGPT, Gemini, Claude и DeepSeek, на более чем 11,5 тысячах запросов. Некоторые из этих запросов касались сомнительных или опасных действий.

Результаты показали, что языковые модели чаще, чем люди, демонстрируют тенденцию к "подхалимству", соглашаясь с пользователем и подстраивая свои ответы под его мнение.

Исследователи связывают это поведение с определенными признаками психопатии, такими как социальная адаптивность и уверенность, но без истинного понимания моральных последствий. В результате ИИ может "поддерживать" пользователя даже в тех случаях, когда он предлагает опасные или нелогичные действия.

"Подхалимство" означает, что модель просто доверяет пользователю, считая его правым. Зная это, я всегда перепроверяю ее выводы," – говорит исследователь Яспер Деконинк, аспирант Швейцарского федерального технологического института в Цюрихе.

Для оценки влияния на логическое мышление исследователи провели эксперимент с 504 математическими задачами, намеренно изменяя формулировки теорем. Наименьшую склонность к "подхалимству" показал GPT‑5 – 29% случаев, а наибольшую – DeepSeek‑V3.1 – 70%.

Когда исследователи изменяли инструкции, заставляя модели сначала проверять правильность утверждения, количество ложных "согласий" заметно уменьшилось – в частности, в DeepSeek на 34%. Это свидетельствует о том, что часть проблемы может быть уменьшена за счет более точных формулировок запросов.

Учёные отмечают, что такое поведение ИИ уже влияет на исследовательскую деятельность. По словам Яньцзюнь Гао из Университета Колорадо, LLM, которые она использует для анализа научных статей, часто просто повторяют ее формулировки, вместо того чтобы проверять источники.

Исследователи призывают к созданию четких правил использования ИИ в научных процессах и не полагаться на модели как на "умных помощников". Без критического контроля их прагматизм может легко перерасти в опасную безразличие.

Также стоит отметить, что недавно исследователи из Техасского университета в Остине, Техасского университета A&M и Университета Пердью провели другое исследование, которое показало, что мемы могут ухудшать когнитивные способности и критическое мышление не только у людей, но и у искусственного интеллекта.