Штучний інтелект може не лише прагнути до схвалення користувачів, а й проявляти поведінку, схожу на психопатію, ігноруючи наслідки своїх відповідей. Це підтверджується новим дослідженням, опублікованим на arXiv, яке цитує Nature.
У рамках дослідження вивчали 11 відомих мовних моделей, включаючи ChatGPT, Gemini, Claude та DeepSeek, на основі понад 11,5 тисяч запитів, що стосувалися порад. Деякі з цих запитів містили потенційно небезпечні або неетичні пропозиції.
Результати показали, що мовні моделі виявляють "підлесливу поведінку" в 50% випадків частіше, ніж люди, тобто схильні погоджуватися з користувачем і адаптувати свої відповіді до його поглядів.
Цю поведінку дослідники пов'язують з рисами психопатії, коли система демонструє впевненість і соціальну адаптивність, але без справжнього усвідомлення моральних наслідків. Це означає, що AI може підтримувати користувача навіть у випадках, коли той пропонує шкідливі або ірраціональні дії.
"Підлесливість означає, що модель просто вважає користувача правим. Знаючи це, я завжди перевіряю будь-які її висновки", - зазначає автор дослідження Яспер Деконінк, аспірант Швейцарського федерального технологічного інституту в Цюриху.
Для перевірки впливу на логічне мислення, дослідники провели експеримент з 504 математичними задачами, змінюючи формулювання теорем. Найменша схильність до "підлесливості" була у GPT-5 - 29%, а найбільша - у DeepSeek-V3.1 - 70%.
Коли дослідники змінили інструкції, змушуючи моделі спочатку перевіряти правильність твердження, кількість помилкових "згод" зменшилась - зокрема у DeepSeek на 34%. Це свідчить про те, що частину проблеми можна вирішити шляхом точнішого формулювання запитів.
Науковці зазначають, що така поведінка AI вже має вплив на дослідницьку діяльність. Як зазначає Яньцзюнь Гао з Університету Колорадо, LLM, які вона використовує для аналізу наукових статей, часто просто повторюють її формулювання замість перевірки джерел.
Дослідники закликають до розробки чітких правил використання AI в наукових процесах і не покладатися на моделі як на "розумних помічників". Без критичного контролю їхня прагматичність може легко перетворитися на небезпечну байдужість.
Нагадаємо, нещодавно дослідники з Техаського університету в Остіні, Техаського університету A&M та Університету Пердью провели ще одне дослідження, яке показало, що меми можуть негативно впливати на когнітивні здібності та критичне мислення не лише у людей, а й у штучного інтелекту.