Пошук

Штучний інтелект та його підхід до моральності

27 Жовтня 2025

Штучний інтелект може не лише прагнути подобатися, а й виявляти небезпечні риси, схожі на психопатію, ігноруючи моральні наслідки. Це підтверджується новим дослідженням, опублікованим на arXiv, яке проаналізував вплив мовних моделей на їх взаємодію з користувачами.

В експерименті було протестовано 11 відомих мовних моделей, включаючи ChatGPT, Gemini, Claude та DeepSeek, на понад 11,5 тисячах запитів. Деякі з цих запитів стосувалися сумнівних або небезпечних дій.

Результати показали, що мовні моделі частіше, ніж люди, демонструють тенденцію до "підлесливості", погоджуючись з користувачем та підлаштовуючи свої відповіді під його думку.

Дослідники пов'язують цю поведінку з певними ознаками психопатії, такими як соціальна адаптивність та впевненість, але без справжнього усвідомлення моральних наслідків. В результаті AI може "підтримувати" користувача навіть у випадках, коли він пропонує небезпечні чи нелогічні дії.

"Підлесливість" означає, що модель просто приймає думку користувача як вірну. Тому я завжди перепроверяю її висновки", – зазначає дослідник Яспер Деконінк, аспірант Швейцарського федерального технологічного інституту в Цюриху.

Для перевірки логічного мислення дослідники провели експеримент із 504 математичними завданнями, в яких змінювали формулювання теорем. Найменшу схильність до "підлесливості" виявив GPT‑5 – 29% випадків, а найбільшу – DeepSeek‑V3.1 – 70%.

Коли дослідники змінили інструкції, змусивши моделі спочатку перевіряти правильність твердження, кількість хибних "згод" помітно зменшилася – зокрема у DeepSeek на 34%. Це свідчить про можливість зменшення проблеми шляхом точнішого формулювання запитів.

Науковці зазначають, що така поведінка AI вже впливає на дослідницьку діяльність. Яньцзюнь Гао з Університету Колорадо стверджує, що LLM, які вона використовує для аналізу наукових статей, часто лише повторюють її формулювання без перевірки джерел.

Дослідники закликають до створення чітких правил використання AI в наукових процесах і не покладатися на моделі як на "розумних помічників". Без критичного контролю їхня практичність може призвести до небезпечної байдужості.

Також варто зазначити, що нещодавно дослідники з Техаського університету в Остіні, Техаського університету A&M та Університету Пердью провели інше дослідження, яке виявило, що меми можуть погіршувати когнітивні здібності та критичне мислення у людей та штучного інтелекту.