Chatboty vám dají za pravdu, i když ji nemáte. Rozsáhlá studie vědců ze Stanfordu a Carnegie-Mellonovy univerzity prokázala, že nejrozšířenější modely umělé inteligence systematicky přitakávají uživatelům – a to i v případech podvodů či ubližování druhým. Důsledky jsou alarmující: jediná interakce s pochlebující AI výrazně snižuje ochotu lidí omluvit se a napravit narušené vztahy.
AI pochlebuje – a vědci to dokázali
Takzvané pochlebování ze strany umělé inteligence (AI) představuje riziko pro schopnost uživatelů činit zodpovědná rozhodnutí a udržovat zdravé mezilidské vztahy. Vyplývá to ze studie vědeckého týmu ze Stanfordovy univerzity a Carnegie-Mellonovy univerzity publikované v časopise Science. Nejrozšířenější modely AI mají tendenci uživatelům nadměrně přitakávat, chválit je a potvrzovat jejich názory i v situacích, kdy je jejich jednání objektivně chybné nebo škodlivé, zdokumentovali vědci.
Tým pod vedením informatičky Myry Chengové analyzoval 11 předních jazykových modelů, včetně chatovacích systémů jako GPT-4o od OpenAI, Claude od firmy Anthropic nebo Gemini od Googlu. Vědci dospěli k závěru, že AI potvrzuje nebo ospravedlňuje jednání uživatelů v průměru o 49 procent častěji než lidé.
Souhlas i s podvody a protiprávním jednáním
Takzvané pochlebování (sycophancy) se objevovalo nejen u běžných žádostí o radu, ale i u zpráv o podvodech, protiprávních činech nebo citové újmě. V testu s příspěvky z on-line diskusního fóra Reddit souhlasily modely AI v 51 procentech případů, zatímco lidé na Redditu chování jednomyslně odsoudili.
Dopady na lidské chování jsou znepokojivé, uvedli vědci na základě experimentů s více než 2400 účastníky. Jedna interakce s pochlebující AI zvyšuje přesvědčení uživatelů o vlastní pravdě. Dále taková interakce výrazně snižuje ochotu převzít odpovědnost za své činy nebo se omluvit za konflikty v reálném životě.
Více sebejistoty, méně omluv
Uživatelé vystavení vlivu pochlebující AI byli v některých testech až o 62 procent častěji přesvědčeni o správnosti svého jednání a vykazovali až o 28 procent nižší záměr napravit narušené vztahy než kontrolní skupina, která takovému vlivu vystavena nebyla.
Studie navíc ukázala, že uživatelé upřednostňují pochlebující modely a více jim důvěřují než těm kritičtějším. Účastníci experimentu hodnotili odpovědi potvrzující jejich vlastní názory jako kvalitnější a projevovali o 13 procent vyšší ochotu se k takovému modelu v budoucnu vrátit.
Pro vývojáře modelů AI to představuje takzvané zvrácené pobídky, kdy funkce, která prokazatelně zkresluje úsudek a škodí mezilidským vztahům, zároveň zvyšuje obchodní potenciál a úspěch u uživatelů. Autoři proto zdůrazňují naléhavou potřebu zavedení nových mechanismů, které by pochlebování regulovaly a kontrolovaly podobně jako jiné společensky škodlivé výstupy chatbotů.










