Підтверджувальне упередження

Підтверджувальне упередження (англ. confirmation bias), інша назва — упередження мого боку (як — «ти на чиєму боці?»), — це тенденція шукати або інтерпретувати інформацію таким чином, щоб вона підтверджувала власні переконання або гіпотези.[Note 1][1] Люди демонструють це упередження, коли збирають або пам'ятають інформацію вибірково або коли вони її інтерпретують упереджено. Ефект сильніший для емоційно напружених питань та для сильних переконань. Люди також мають тенденцію інтерпретувати неоднозначні свідчення/інформацію з якогось питання як такі, що підтримують їхню усталену позицію щодо такого питання. Упереджений пошук, інтерпретація та пам'ять вважаються причинами таких явищ, як поляризація ставлень (коли суперечка стає все більш екстремальною попри те, що обидві сторони отримують однакові докази), сталість переконань (коли переконання залишаються навіть після того, як було доведено, що докази, на яких вони базувались, — хибні), ірраціональний ефект первинності (більше ваги надається інформації, отриманій раніше) та ілюзорна кореляція (коли люди хибно бачать зв'язок між двома подіями або ситуаціями).

Результати серії експериментів у 1960-х роках показали, що люди є упередженими на користь підтвердження своїх наявних переконань. Пізніші дослідження реінтерпретували ці результати як тенденцію тестувати ідеї однобоко, з фокусом на одну можливість та ігноруючи альтернативи. В певних ситуаціях ця тенденція може викривлювати висновки людей. Пояснення таких упереджень включають прийняття бажаного за дійсне та обмежену людську здатність до обробки інформації. Інше пояснення — людина демонструє підтверджувальне упередження, оскільки вона зважує вартість помилки у судженні, а не вивчає питання у нейтральний, науковий спосіб.

Підтверджувальні упередження впливають на надмірну впевненість в особистих переконаннях та можуть підтримувати або посилювати переконання при отриманні заперечувальних доказів. Погані рішення завдяки цим упередженням присутні як у політичному, так і в організаційному контексті.[2][Note 2]

Типи ред.

Підтверджувальні упередження — це ефекти обробки інформації та відрізняються від ефекту поведінкового підтвердження, що також називають «самовтілюване пророцтво», коли поведінка під впливом очікувань спричиняє те, що ці очікування справджуються.[3] Деякі психологи використовують термін «підтверджувальне упередження» для тенденції уникати відкидання переконань (вірувань) при пошуку, інтерпретації чи пригадуванні доказів. Інші психологи обмежують використання цього терміну вибірковим пошуком інформації.[4][Note 3]

Упереджений пошук інформації ред.

 
Підтверджувальне упередження описувалось як внутрішня «так-людина», що відтворює переконання людини як персонажа Чарлза Діккенса Урії Гіпа.[5]

Експерименти неодноразово показували, що люди мають тенденцію тестувати гіпотезу однобоко, шукаючи докази, що узгоджуються з їх поточною гіпотезою.[6][7] Замість того, щоб шукати за всіма наявними доказами, вони формулюють питання таким чином, щоб отримати ствердну відповідь, яка підтримує їх гіпотезу.[8] Вони шукають наслідків, які вони б очікували, якби їх гіпотеза була правильною, замість того, щоб б сталося, якби вона була хибною[8]. Наприклад, при використанні запитань формату «так/ні» для того, щоб дізнатися число, яке, як припускає особа, є три (3), може запитати: «Це непарне число?» Люди надають перевагу таким запитанням (називається «позитивний тест»), навіть якщо негативний тест, наприклад «Це парне число?» надасть абсолютно таку саму інформацію[9]. Однак це не означає, що люди шукають тести, які гарантують позитивну відповідь. В дослідженнях, де учасники могли вибрати або такі псевдо-тести, або справжні діагностичні, вони надавали перевагу діагностичним[10][11].

Надання переваги позитивним тестам само по собі не є упередженням, оскільки вони також можуть бути дуже інформативними[12]. Однак у поєднанні з іншими ефектами, така стратегія може підтвердити наявні переконання або припущення, незалежно від того, чи є вони правильними.[13] В реальному світі докази часто складні та змішані. Наприклад, суперечливі думки про одну і ту ж особу можуть бути підтверджені, якщо фокусуватись на різних аспектах його/її поведінки.[7] Тому пошук доказів на підтвердження наявної гіпотези швидше за все буде успішним.[13] Формулювання питання може суттєво змінити відповідь,[7] зокрема, люди, яких запитали «Ви задоволені Вашим суспільним життям?», показують більший рівень задоволеності, ніж ті, кого запитали «Ви незадоволені Вашим суспільним життям?»[14]

Навіть маленька зміна у формулюванні запитання може впливати на те, як люди шукають відповіді серед наявної інформації, а отже, і на висновки, яких вони дійдуть. Це було продемонстровано на прикладі вигаданої справи про опіку над дитиною.[15] Учасники прочитали, що один(-на) з батьків (A) був середньо здатний до виконання функцій опікуна по багатьох критеріях. Другий(-а) з батьків (B) мав суміш яскраво виражених гарних та поганих рис: близькі стосунки з дитиною, але роботу, яка потребувала відряджень на тривалий час. Коли питали: «Хто з батьків повинен отримати опіку над дитиною?», більшість учасників відповіла, що B, зважаючи переважно на позитивні риси. Однак, коли спитали: «Кому з батьків слід відмовити в опіці над дитиною?», вони дивились на негативні риси та більшість сказала, що B слід відмовити, що натякало, що опіка має бути надана A.[15]

Схожі дослідження також продемонстрували, як люди упереджено займаються пошуком інформації, але також і те, що цей феномен може обмежуватись наданням переваги справжнім діагностичним тестам. В початковому експерименті учасники оцінювали іншу людину за категоріями особистості по шкалі «інтроверсія — екстраверсія» на основі інтерв'ю. Вони могли вибрати питання для інтерв'ю з наданого переліку. Коли людину, в якої брали інтерв'ю, представляли як інтроверта, учасники обирали питання, які передбачали інтроверсію, наприклад: «Що Вам неприємно у гучних вечірках?» Коли ж таку людину представляли як екстраверта, майже всі питання передбачали екстраверсію, наприклад: «Щоб Ви зробили для поліпшення нудної вечірки?» Ці питання з підтекстом не дозволяли (або давали мало шансів) людині, в якої брали інтерв'ю, «підробити» гіпотезу про неї.[16] В пізнішій версії експерименту учасникам надавався менш жорсткий перелік питань для вибору, наприклад: «Чому Ви ухиляєтесь від соціальної взаємодії?»[17] Учасники надавали перевагу таким більш загальнодіагностичним питанням, демонструючи лише слабке упередження на користь позитивних тестів. Ця тенденція до надання переваги більш діагностичним тестам була підтверджена і іншими дослідженнями.[17]

Риси особистості впливають та взаємодіють з процесом упередженого пошуку інформації.[18] Люди різняться у своїх здатності захищати свої ставлення від зовнішнього впливу в частині селективного сприйняття. Селективне сприйняття — це коли людина шукає інформацію, яка швидше відповідає, а не суперечить, їх особистим переконанням.[19] Було проведено експеримент, який вивчав, в якій мірі люди можуть спростовувати докази, що суперечать їх особистим переконанням.[18] Для формулювання доказів, більш впевнені люди з більшою готовністю шукають інформацію, яка суперечить їх особистій думці. Невпевнені люди не шукають суперечливу інформацію та надають перевагу інформації, що підтримує їх власну думку. Люди створюють та оцінюють свідчення в доказах, які є упередженими на користь їх власних переконань та думок.[20] Вищі рівні впевненості знижують ступінь надання переваги інформації, що підтримує власні переконання.

В іншому експерименті учасники повинні були виконати складне завдання на пошук правил, що включали рух об'єктів в комп'ютерній симуляції.[21] Об'єкти на екрані комп'ютера рухались за певними правилами, а учасники мали їх з'ясувати. Учасники могли «вистрілювати» об'єкти по екрану для тестування їх гіпотез. Однак, незважаючи на багато спроб протягом 10-годинного експерименту, жоден з учасників не вгадав правила системи. Вони переважно намагались підтвердити, а не спростувати свої гіпотези та не хотіли розглядати альтернативи. Навіть після отримання об'єктивних свідчень, які суперечили їх гіпотезам, вони часто повторювали ті самі тести. Деяким учасникам повідомили про правильний спосіб тестування гіпотез, однак ці знання не мали майже ніякого впливу на їх дії.[21]

Упереджена інтерпретація ред.

"Розумні люди роблять дивні речі, оскільки вони досвідчені у захисті переконань, які вони отримали з нерозумних причин."

Майкл Шермер[22]

Підтверджувальні упередження не обмежені пошуком доказів. Навіть якщо дві людини мають однакову інформацію, упередженою може бути її інтерпретація.

Команда в Стенфордському університеті провела експеримент з учасниками, які мали сильні переконання з питання страти (половина учасників — «за» і половина — «проти»).[23][24] Кожен учасник читав опис двох досліджень: порівняння штатів США з та без смертної кари та порівняння кількості вбивств у штаті до та після запровадження смертної кари. Після того, як учасники прочитали короткий опис кожного дослідження, їх питали, чи не змінилося їх переконання. Після того, вони читали більш повний опис процедури проведення кожного з досліджень і повинні були оцінити, чи було дослідження правильно проведене та переконливе.[23] Насправді обидва дослідження були вигадані, при цьому половині учасників повідомили, що перше з досліджень підтримує наявність ефекту стримування, а друге — заперечує його, а другій половині учасників сказали навпаки.[23][24]

Учасники (і прихильники, і противники смертної кари) повідомили про невелику зміну своїх ставлень в напрямку висновків першого дослідження, яке вони прочитали. Після того, як вони прочитали більш детальний опис процедур двох досліджень, майже все повернулися до своїх початкових переконань, незважаючи на надані докази, вказуючи на деталі, які підтримували їх точку зору, та відкидаючи все, що їй суперечило. Учасники описали дослідження, що підтримували їхню точку зору, як кращі за ті, що їй суперечили, з наведенням деталей, чому.[23][25] Наприклад, прихильник смертної кари, описуючи дослідження, яке начебто заперечувало ефект стримання, написав: «Дослідження не покриває достатньо довгий проміжок часу», а противник про те саме дослідження сказав таке: «Суттєвих доказів, які б суперечили дослідникам, не наведено».[23] Результати продемонстрували, що люди встановлюють вищі стандарти для доказів гіпотези, яка суперечить їх наявним переконанням/очікуванням. Цей ефект, відомий як «упередження відсутності підтвердження», був виявлений і іншими експериментами.[26]

 
Сканер МРТ дозволив дослідникам вивчати, як мозок людини реагує на неприйнятну інформацію.

Інше дослідження упередженої інтерпретації здійснювалось протягом кампанії з виборів президента США 2004 року та включали учасників, які були сильними прихильниками якогось з кандидатів. Цим учасникам показали суперечливі на вигляд пари тверджень або від кандидата-республіканця Джорджа Буша, або від кандидата-демократа Джона Керрі або від політично нейтральної публічної фігури. Їм також надали твердження, які начебто пояснювали/усували цю суперечливість. На основі цих трьох шматочків інформації учасники повинні були вирішити, чи є твердження непослідовними.[27]:1948 В результаті була отримана суттєва різниця в оцінках, коли учасники з набагато більшою ймовірністю оцінювали твердження «чужого» кандидата як суперечливі.[27]:1951

У цьому експерименті учасники надавали свої оцінки, перебуваючи в МРТ, який моніторив активність їх мозку. Коли учасники оцінювали суперечливі твердження свого кандидата, були збуджені емоційні центри мозку. А при оцінці інших тверджень такого не відбувалось. Експериментатори припустили, що різні реакції на твердження надходили не через пасивні помилки суджень, а через те, що учасники активно зменшували когнітивний дисонанс, викликаний тим, що вони прочитали про ірраціональну чи лицемірну поведінку їх улюбленого кандидата.[27]

Упередження при інтерпретації переконань дуже стійкі, незалежно від рівня інтелекту. Учасники експерименту склали тест SAT (тест на вступ до коледжу в США) для оцінки їх рівня інтелекту. Після тесту вони ознайомились з інформацією щодо безпеки автомобілів, в якій експериментаторами була змінена країна походження авто. Учасники з США надавали свою думку, чи таке авто повинно бути заборонено в країні за шестибальною шкалою, де один означало «однозначно так», а шість — «точно ні.» Спочатку учасники оцінювати, чи вони б випустили небезпечну німецьку машину на вулиці Америки та небезпечну американську машину на вулиці Німеччини. Учасники зазначили, що небезпечну німецьку машину в Америці слід заборонити швидше, ніж небезпечну американську машину в Німеччині. Різниця в рівні інтелекту не відігравала жодної ролі в тому, який бал учасники ставили забороні машини.[20]

Упереджена інтерпретація не обмежується емоційно важливими темами. В іншому експерименті учасникам розповіли історію про крадіжку. Вони мали оцінити важливість доказів свідчення за або проти вини певної особи. Коли вони робили припущення щодо вини чи невинності, то оцінювали твердження, які підтримували їх гіпотезу як більш важливі, ніж ті, що їм суперечили.[28]

Упереджена пам'ять ред.

Навіть якщо люди збирають та інтерпретують інформацію нейтральним чином, вони все одно можуть її пам'ятати вибірково для підсилення своїх очікувань. Цей ефект називається «селективне пригадування», «підтверджувальна пам'ять» або «пам'ять за доступом».[29] Психологічні теорії щодо селективного пригадування різняться. Теорія схем передбачає, що інформація, яка відповідає попереднім очікуванням, легше запам'ятовується та зберігається, ніж інформація, яка їм не відповідає.[30] Деякі альтернативні підходи вважають, що неочікувана інформація виділяється і тому запам'ятовується.[30] Постулати обох цих теорій були підтверджені у різних експериментальних умовах, а тому жодна теорія поки що не отримала переваги.[31]

В одному з досліджень учасники читали інформацію про жінку, яка мала суміш екстравертивної та інтровертивної поведінки, після чого вони повинні були пригадати приклади її екстраверсії та інтроверсії. Одній групі сказали, що це необхідно для оцінки її придатності на посаду бібліотекаря, а іншій — для посади ріелтора. В результаті була отримана значуща різниця між тим, що пригадували ці дві групи: перша пригадувала більше інтровертивних прикладів, а друга — прикладів екстраверсії.[32]

Ефект селективного пригадування також був продемонстрований в експериментах, які маніпулюють привабливістю типу особистості.[30][33] В одному з таких експериментів одній групі учасників навели докази, що есктраверти є більш успішними, ніж інтроверти, а другій групі — навпаки. У наступному, начебто непов'язаному, дослідженні обидві групи попросили пригадати події зі свого життя, коли вони поводились інтровертивно або екстравертивно. Кожна з груп надала більше прикладів, пов'язаних з більш привабливим типом та пригадувала такі випадки швидше.[34]

Зміни емоційного стану також можуть впливати на пригадування.[35][36] Учасники оцінювали, як вони почували себе, коли вперше дізналися, що О. Джей Сімпсон був виправданий за звинуваченням у вбивстві.[35] Вони описували свої емоційні реакції та рівень впевненості у вердикті через один тиждень, два місяці та один рік після суду. Результати вказували на те, що оцінка учасників щодо вини Сімпсона змінювалася з перебігом часу. Чим більше змінювалась думка учасників щодо вердикту, тим менш стабільними були їх спогади щодо їх первинних емоційних реакцій. Коли учасники пригадували свої первинні емоційні реакції через два місяці та через один рік, їх оцінка минулої реакції була дуже схожа на їх оцінку поточної реакції. Люди демонструють досить значне підтверджувальне упередження при обговоренні їх думок щодо суперечливих питань.[20] Пригадування та побудова досвіду переглядаються в залежності від відповідних емоційних станів.

Підтверджувальне упередження впливає на точність пригадування.[36] В одному з досліджень, вдови та вдівці оцінювали силу їх скорботи через шість місяців та через 5 років після смерті їх чоловіка/дружини. Учасники відзначили вищу ступінь скорботи через 6 місяців у порівнянні з 5 роками. Однак, коли через 5 років їх спитали, як вони почувалися через 6 місяців після смерті їх половинки, сила скорботи, яку вони пригадали, мала високу кореляцію з їх поточними відчуттями. Було зроблено припущення, що емоційні спогади пригадуються з урахуванням поточного емоційного стану, тобто людина ймовірно використовує поточний емоційний стан для аналізу, як вони відчували себе в минулому.[35]

Ще одне дослідження продемонструвало, як вибіркове пригадування може підтримувати переконання (віру) у екстрасенсорне сприйняття.[37] Людям, які вірили та не вірили у таке сприйняття, показали опис експериментів з екстрасенсорного сприйняття. Половині учасників в кожній з цих двох груп сказали, що експериментальні результати підтверджують існування такого сприйняття, а половині — що ні. Після цього при тестуванні більшість учасників правильно пригадувала показаний їм матеріал, крім тих віруючих, які прочитали непідтримуючі свідчення. Ця група пам'ятала значно менше наведеної інформації, а деякі ще й неправильно пригадували результати як підтримуючі екстрасенсорне сприйняття.[37]

Пов'язані ефекти ред.

Поляризація думок ред.

Коли люди з протилежними поглядами інтерпретують нову інформацію упереджено, їхні погляди можуть розійтися ще далі. Це називається «поляризацією ставлень».[38] Ефект був продемонстрований в експерименті, в якому витягалися ряд червоних та чорних кульок з одного або другого прихованих ящиків. Учасники знали, що один з ящиків містив 60 % чорних та 40 % червоних кульок, а інший — 40 % чорних та 60 % червоних. Експериментатори спостерігали, що відбувалось коли кульки різних кольорів витягались по черзі, тобто у послідовності, яка не надає переваги якомусь з ящиків. У міру витягання кожної кульки учасників однієї з груп просили вголос називати свої судження стосовно ймовірності, що кулька була витягнута з одного чи другого ящика. І ці учасники ставали все більш впевненими у своїх оцінках з кожною наступною кулькою — незалежно від того, вважали вони, що кулька була з більшою ймовірністю витягнута з ящика з 60 % чорними або з ящика з 60 % червоними кульками, їх оцінка ймовірності зростала. Іншу групу учасників попросили зазначити оцінку ймовірності, з якого ящика була витягнута серія кульок, лише по завершенню серії. Вони не продемонстрували ефекту поляризації, що свідчить, що він не обов'язково виникає, коли люди просто мають протилежні оцінки, а лише тоді, коли вони відкрито їх називають.[39]

 
Різки думки щодо таких питань, як володіння зброєю, можуть упереджувати те, як людина інтерпретує нові свідчення.

Менш абстрактним дослідженням було Стенфордський експеримент з упередженої інтерпретації, в якому учасники з яскраво вираженими позиціями щодо смертної кари ознайомлювались зі змішаними експериментальними свідченнями. Двадцять три відсотки учасників повідомили, що їх переконання підсилились, і така зміна сильно корелювала з їх початковими ставленнями.[23] У пізніших експериментах учасники також повідомляли, що їх думки також ставали більш різкими після отримання неоднозначної інформації, однак порівняння їх ставлень до та після отримання нових свідчень не показали суттєвих змін, що може свідчити про те, що самостійно оцінені зміни можуть насправді не існувати.[26][38][40] На основі цих експериментів, Діанна Кун та Джозеф Лао зробили висновок, що поляризація є справжнім феноменом, однак далека від неминучості і трапляється лише у невеликій кількості випадків. Вони з'ясували, що таке упередження спонукається не лише розглядом змішаних свідчень, а й просто розмірковуванням над таким питанням.[38]

Чарльз Табер та Мільтон Лодж доводили, що результат Стенфордської команди було важко відтворити, оскільки докази, використані у наступних експериментах, були дуже абстрактні або неясні для отримання емоційної реакції. Дослідження Табера та Лоджа використовувало емоційно гострі для США теми контролю за зброєю та позитивної дискримінації.[26] Вони вимірювали ставлення учасників цих досліджень до цих питань до та після читання доказів з кожної сторони дискусії. Дві групи учасників показали поляризацію ставлень: люди з сильними попередніми думками з цих питань та політично підковані. В частині цього дослідження учасники обирали, які джерела інформації читати, з переліку, підготованого науковцями. Наприклад, вони могли читати докази з питання контролю за зброєю від Національної стрілецької асоціації та Коаліції Брейді проти зброї. Навіть після інструктажу щодо необхідності бути нейтральними, учасники все одно з більшою ймовірністю обирали ті докази, які підтримували їх наявні ставлення. Такий упереджений пошук інформації корелював з ефектом поляризації.[26]

«Ефект зворотнього результату» — це термін, який застосовується для ситуації, коли при свідченнях проти їх переконань, люди можуть відкинути ці свідчення та стати більш переконаними.[41][42] Термін був вперше використаний Брендоном Ніаном та Джейсоном Райфлером.[43]

Сталість дискредитованих переконань ред.

"Переконання можуть залишатися після сильних логічних або емпіричних викликів до них. Вони можуть пережити та навіть підсилитись доказами, які на думку більшості неупереджених спостерігачів мали б їх послабити. Вони навіть можуть пережити повне знищення їх початкової доказової бази."

—Лі Росс та Крейг Андерсон[44]

Підтверджувальні упередження можуть бути використані для пояснення, чому деякі переконання залишаються, коли їх початкові докази щезають.[45] Така тривалість існування переконань була продемонстрована в серії експериментів, які використовували так звану «парадигму доповіді»: (1) учасники читають про несправжні докази гіпотези, вимірюється зміна їх ставлення; (2) після цього їм детально пояснюють, в чому була підробка доказів, («розвінчують») і знову вимірюють зміну їх ставлень, щоб побачити, чи повернулись їх переконання на початковий рівень.[44]

Загальний результат для цих експериментів — принаймні частина початкового переконання лишається після такого «розвінчування».[46] В одному з експериментів учасників просили розрізнити справжні та підроблені записки самогубців. Коментар науковців на думки учасників експерименту був випадковий: частині казали, що вони добре вгадали, частині — що погано. І навіть після того, як учасникам детально розповіли про експеримент та випадковість коментарів, учасники все одно залишались під впливом коментарів — вони продовжували думати, що вони є кращі або гірші за середнє в таких завданнях, в залежності від того, який коментар вони отримали на початку.[47]

В іншому дослідженні, учасники читали оцінки роботи двох пожежників та їх реакції на тест з неприйняття ризику[en].[44] Ці дані були сфабриковані таким чином, щоб показувати негативну або позитивну кореляцію: частині учасників надали інформацію, що пожежник, який любить ризикувати, мав більші успіхи, ніж обережний, деяким — навпаки.[48] Навіть якби ці дані були справжніми, дві оцінки є дуже поганим науковим доказом, щоб робити висновки про всіх пожежників. Однак для учасників вони були суб'єктивно переконливі.[48] Коли ж учасникам сказали, що дані були вигадані, їх віра у зв'язок зменшилась, однак залишилась на рівні близько половини початкового ефекту.[44] Інтерв'ю після експерименту підтвердили, що учасники зрозуміли «розвінчування» та сприйняли його серйозно; вони йому вірили, однак відкидали цю інформацію, як таку, що не стосується їх особистих переконань.[48]

Надання переваги більш ранній інформації ред.

Експерименти показали, що інформація має більшу вагу, якщо вона отримана раніше, навіть коли порядок її отримання не важливий. Наприклад, люди формують більш позитивні враження про когось «розумного, працьовитого, імпульсивного, критичного, впертого, заздрісного», ніж коли ті самі характеристики подані у зворотньому порядку.[49] Цей ефект ірраціональної первинності незалежний від ефекту первинності, коли більш ранні елементи (слова) в серії залишають більший слід у пам'яті.[49] Одним з пояснень цього ефекту є упереджена інтерпретація: коли людина бачить початковий доказ (свідчення), вона формує робочу гіпотезу, яка впливає на те, як вона інтерпретує всю наступну інформацію.[45]

В одній з демонстрацій ірраціональної первинності використовувались кольорові жетони, що були «витягнуті» з двох ящиків. Учасникам казали кольоровий розподіл в цих ящиках та просили оцінити ймовірність того, що жетон був витягнутий з кожного з цих ящиків.[49] Насправді жетони були розташовані у спеціальному порядку: «витягування» перших тридцяти надавало перевагу першому ящику, а наступних тридцяти — другому.[45] Серія в цілому була нейтральною, тому, раціонально, обидва ящики були однаково ймовірні. Однак, після 60 «витягувань», учасники експерименту надавали перевагу тому ящику, який частіше фігурував у перших 30 «витягуваннях».[49]

Інший експеримент включав слайд-шоу одного і того ж об'єкту, який спочатку показували дуже розмито з покращенням фокусу у кожному наступному слайді.[49] Після кожного слайду, учасники повинні були запропонувати свою здогадку щодо зображеного об'єкта. Учасники, чиї перші здогадки були неправильними, наполягали на цих здогадках, навіть коли картинка вже була настільки сфокусована, що інші люди легко впізнавали цей предмет.[45]

Ілюзорний зв'язок між подіями ред.

Ілюзорна кореляція — це тенденція бачити зв'язки у наборі даних, які насправді відсутні.[50] Ця тенденція вперше була продемонстрована в серії експериментів наприкінці 1960-х.[51] В одному з експериментів учасники читали декілька матеріалів практичних психологічних досліджень, які включали відповіді на тест Роршаха. Вони зробили висновок про те, що гомосексуали мають більшу схильність бачити у фігурах тесту сідниці або інші сексуально двозначні фігури, ніж гетеросексуали. Насправді ж, всі ці матеріали досліджень були повністю вигадані, а в одній з версій експерименту, з матеріалів взагалі виходило, що гомосексуали бачать такі фігури у тестах менш часто, ніж гетеросексуали.[50] В опитуванні, група досвідчених психоаналітиків повторила такі ж самі ілюзорні висновки про зв'язки реакцій на малюнки та гомосексуальністю.[50][51]

Інше дослідження протягом 15 місяців записувало симптоми пацієнтів з артритом та погодні умови. Майже всі пацієнти повідомили, що їхні болі були пов'язані з погодними умовами, хоча реальна кореляція дорівнювала нулю.[52]

Цей ефект є типом викривленої (упередженої) інтерпретації, коли об'єктивно нейтральні або негативні докази інтерпретуються для підтримки наявних переконань. Він також пов'язаний з упередженнями в поведінці з тестування гіпотез.[53] При оцінці зв'язку двох подій, як от хвороби та поганої погоди, люди сильно покладаються на кількість випадків так-так: у цьому прикладі, коли одночасно був біль та погана погода. Вони звертають відносно мало уваги на інші види спостережень (відсутність болю та/або хороша погода).[54] Це схоже на покладання на гарні результати при тестуванні гіпотези, а може також свідчити про селективне пригадування, коли люди відчувають, що дві події пов'язані, оскільки легше пригадувати випадки, коли вони відбувались одночасно.[53]

Приклад
Дні Дощ Ясно
Біль від артриту 14 6
Болю немає 7 2

У наведеному вигаданому прикладі, приступи артриту більш ймовірні у дні без дощу, однак людина з більшою ймовірністю сфокусується на відносно великій кількості днів, коли був і приступ, і дощ. Приділяючи увагу лише одній клітинці таблиці з чотирьох, людина може дійти хибних висновків, у цьому випадку, що дощ є причиною приступів артриту.[55]

Історія ред.

Неформальні спостереження ред.

Задовго до психологічних досліджень підтверджувального упередження, згадку про феномен можна знайти у письменників, наприклад у давньогрецького історика Фукідіда (бл. 460 до н. е. — бл. 395 до н. е.), італійського поета Данте Аліґ'єрі (1265—1321), англійського філософа та вченого Френсіса Бекона (1561—1626),[56] та російського письменника Льва Толстого (1828—1910). Фукідід у Історії Пелепоннеської війни писав: «… бо це звичка людства піддаватися бездумній надії на те, чого вони прагнуть та використовувати власні судження, щоб відкинути те, що їм не подобається.»[57] В поемі Божественна комедія, Святий Тома Аквінський дає пораду Данте, коли вони зустрічаються в Раю: «ті, що швидко формують власну думку, можуть помилитися і тоді прив'язаність до власної думки зв'язує та ув'язнює розум.»[58]

Бекон в роботі «Новий Органон» написав:

Розуміння людини, коли вона вже прислала до якоїсь думки, ... притягує всі речі для її підтримки та погодження з нею. І хоча більша існує кількість і вага моментів з іншого боку, цими вона нехтує або зневажає, або за якоюсь ознакою відставляє або відкидає[.][59]

Бекон сказав, що упереджена оцінка доказів рухає «всіма забобонами, в астрології, снах, знаменнях, божественній справедливості та іншому».[59] В есе «Що є мистецтво?» Л.Толстой написав:

Я знаю, що більшість людей, не лише тих, хто вважається розумним, але і тих, хто насправді дуже розумні та можуть зрозуміти найскладніші наукові, математичні та філософські проблеми, можуть дуже рідко зрозуміти хоча б просту та очевидну істину, однак таку, яка примушує їх припустити, що сформоване ними деколи з великими зусиллями судження про предмет, судження, яким вони пишаються, якому вони навчали інших, на основі якого вони побудували своє життя, - що це судження може бути хибним.[60]

В трактаті «Царство Боже всередині вас…» (1893) він написав схоже: «Найскладніші деталі можуть бути пояснені найбільш тупій людині, якщо вона ще не сформувала свою думку про них; однак найпростіша річ не може бути пояснена найрозумнішій людині, якщо вона твердо переконана, без тіні сумнівів, що вона вже знає, що перед ним.»[61]

Дослідження Вейсона щодо тестування гіпотез ред.

Сам термін «підтверджувальне упередження» був запропонований англійським психологом Пітером Вайсоном (англ. Peter Cathcart Wason).[62] В експерименті, результати якого були опубліковані в 1960 році, він зажадав від учасників сформулювати правило, яке б стосувалося трійок чисел. На початку, їх сказали що трійка (2,4,6) відповідає правилу. Учасники могли пропонувати власні трійки, а експериментатор повідомляв їм, чи відповідає така трійка правилу.[63][64]

І хоча насправді правило було «будь-яка висхідна послідовність», учасникам було дуже важко його вгадати. При цьому вони часто пропонували значно складніші правила, наприклад: «друге число є середнім першого та третього».[63] Учасники тестували лише трійки на позитивний приклад, тобто ті, які відповідали їх гіпотезі щодо правила. Наприклад, якщо вони думали, що правило: «наступне число на два більше ніж попереднє», вони пропонували трійку, яка йому відповідала, напр. (11,13,15), а не трійку, яка його порушувала, наприклад (11,12,19).[65]

Вейсон вірив у фальсифікаціонізм, відповідно до якого наукове тестування гіпотези — це серйозна спроба її спростувати і тому він проінтерпретував результати експерименту так, що учасники надавали перевагу підтвердженню, а не спростуванню, звідси і термін «підтверджувальне упередження».[Note 4][66] Він також використав підтверджувальне упередження для пояснення результатів свого експерименту на задачу з вибору[en].[67] У цій задачі учасникам надали часткову інформацію щодо набору предметів, а вони повинні визначити, яка додаткова інформація їм потрібна для того, щоб сказати, чи застосовується до цього набору умовне правило («Якщо A, тоді B»). Неодноразові дослідження показали, що люди дуже погано справляються з різними формами цього тесту, у більшості випадків ігноруючи інформацію, яка могла б потенційно скасувати правило.[68][69]

Критика Клеймана та Ха ред.

У роботі 1987 року Джошуа Клейман та Янг-Вон Ха доводили, що експерименти Вейсона насправді не продемонстрували упередження на користь підтвердження. Натомість, вони проінтерпретували результати як тенденцію людей робити тести, які узгоджуються з робочою гіпотезою[70] і назвали це «стратегія позитивних тестів».[7] Ця стратегія є прикладом евристики[en] — «короткого шляху» при розмірковуванні, який неідеальний, однак легкий для реалізації.[1] Для свого стандарту в тестуванні гіпотез, Клейман та Ха використали не фальсифікаціонізм, а баєсову ймовірність та теорію інформації. Відповідно до цих ідей, кожна відповідь на питання дає різний обсяг інформації, що залежить від наявних переконань людини. Тому наукове тестування гіпотези — це те, яке має принести найбільше інформації. Оскільки склад інформації залежить від первісних ймовірностей, позитивний тест може бути високо- або неінформативним. Клейман та Ха доводили, що коли люди думають про реалістичні проблеми, вони шукають конкретну відповідь з невисокою первісною ймовірністю. В цьому випадку, позитивні тести як правило більш інформативні, ніж негативні.[12] Однак, у задачі Вейсона на пошук правила відповідь «три числа у висхідному порядку» дуже широка, а тому позитивні тести навряд чи дадуть інформативні відповіді. Клайман та Ха підтримали свій аналіз прикладом експерименту, який використовували ярлики «DAX» and «MED» замість «відповідає правилу» та «не відповідає правилу». Це дозволило уникнути припущення, що метою є знайти правило з низькою ймовірністю. В цій версії експерименту учасники були набагато успішніші.[71][72]

 
Якщо правило (T) включає поточну гіпотезу (H), тоді позитивний тест (вивчення H для з'ясування, чи воно T) не покаже, що гіпотеза хибна.
 
Якщо справжнє правило (T) частково перетинається з поточною гіпотезою (H), то спростування гіпотези H потенційно можливе і позитивним, і негативним тестом.
 
Коли робоча гіпотеза (H) включає справжнє правило (T), то позитивні тести — єдиний шлях спростувати H.

В світлі цієї та інших критик, фокус досліджень змістився від підтвердження проти спростування до дослідження, чи люди тестують гіпотези інформативним шляхом або неінформативним, але позитивним. Пошук «справжнього» підтверджувального упередження примусив психологів подивитися на широкий спектр наслідків обробки людиною інформації.[73]

Пояснення ред.

Підтверджувальне упередження часто визначається як результат автоматичних, ненавмисних стратегій, а не зумисного обману.[13][74] Відповідно до Роберта Маккуна, найбільш упереджена обробка інформації відбувається внаслідок комбінації «холодного» (когнітивного) та «гарячого» (мотивованого, емоційного) механізмів.[75]

Когнітивні пояснення підтверджувального упередження засновані на обмеженнях людської здатності до обробки складних завдань та відповідних скороченнях шляху, що при цьому використовуються і називаються евристикою.[76] Наприклад, люди можуть оцінювати надійність свідчень, використовуючи евристику доступності — тобто те, наскільки легко якась ідея спадає на думку.[77] Можливо також, що люди можуть одночасно фокусуватись лише на одній думці з якогось питання, тому їм складно паралельно тестувати альтернативні гіпотези.[78] Інша евристика — це стратегія позитивних тестів, яку виявили Клейман та Ха, тобто коли люди тестують гіпотезу шляхом вивчення тих випадків, в яких вони очікують прояв характеристики або настання події, яку вони підтримують. Ця евристика уникає складного або неможливого завдання з'ясувати, наскільки діагностичним буде кожне можливе питання. Однак така евристика не є повністю надійною, тому люди не бачать викликів своїм наявним переконанням.[12][79]

Мотиваційні пояснення підтверджувального упередження включають вплив бажання на переконання, що деколи називають «прийняття бажаного за дійсне».[80][81] Відомо, що люди надають перевагу приємним думкам над неприємними багатьма шляхами («принцип Поліанни»).[82] При застосуванні до аргументів або джерел доказів, таке ставлення може пояснити, чому з більшою ймовірністю вірять бажаним висновкам.[80] Відповідно до результатів експериментів, які маніпулювали бажаністю висновків, люди вимагають високої якості доказів для неприємних ідей та приймають низький стандарт для ідей, яким вони надають перевагу. Іншими словами, для одних ідей вони питають «Чи можу я цьому вірити?», а для інших — «Чи вимушений я цьому вірити?».[83][84] І хоча постійність є бажаною характеристикою ставлень, надмірне прагнення до постійності — це потенційне джерело упередження, оскільки воно може завадити людини нейтрально оцінювати нову, неочікувану інформацію.[80] Соціальний психолог Зіва Кунда поєднала когнітивну та мотиваційну теорію. доводячи, що мотивація створює упередження, але саме когнітивні фактори визначають його величину.[85]

Пояснення в термінах зисків і витрат припускають, що люди не просто нейтрально тестують гіпотези, а оцінюють вартість різних помилок.[86] Використовуючи ідеїеволюційної психології, Джеймс Фрідріх припускає, що при тестуванні гіпотези людина в першу чергу намагається уникнути найбільш вартісних помилок, а не знайти істину. Наприклад, роботодавці при співбесіді з потенційним працівником можуть ставити однобокі питання, оскільки їх фокус у виявленні непридатних кандидатів.[87] Уточнення цієї теорії Яковом Тропом та Аківою Ліберманом передбачає, що людина порівнює два різних типи помилок: прийняття хибної гіпотези та відкидання істинної гіпотези. Наприклад, якщо хтось недооцінить чесність друга, він може поставитись до нього з підозрою та втратити дружбу; переоцінка його чесності також може дорого обійтись, але в порівнянні менше. У такому випадку, раціональним є шукати, оцінювати та пам'ятати чесність друга упереджено на його користь.[88] Коли складається перше враження про когось, що він є інтроверт або екстраверт, питання, які відповідають такому враженню, здаються більш емпатичними.[89] Тому при розмові з ймовірним інтровертом здається, що демонстрацією кращих соціальних навичок є питання: «Ви почуваєтесь ніяково в соціальних ситуаціях?», а не «Вам подобаються галасливі вечірки?» Зв'язок між підтверджувальним упередженням та соціальними навичками був підтверджений дослідженням, як студенти знайомляться з іншими людьми. Студенти з високим ступенем самомоніторингу, які більш чутливі до свого оточення та соціальних норм, ставили більш відповідні запитання при опитуванні високостатусних членів професорського складу університету, ніж при знайомстві з такими ж студентами, як вони.[89]

Психологи Дженніфер Лернер та Філіп Тетлок вирізняють два різних види процесу мислення. Пояснювальне мислення нейтрально розглядає різні точки зору та намагається передбачити всі можливі заперечення до певної позиції, а підтверджувальне мислення намагається виправдати (підтвердити) певну точку зору. Лернер та Тетлок вважають, що коли людина очікує, що їй буде потрібно обґрунтувати свою позицію іншим людям, чия позиція їм уже відома, вони мають тенденцію приймати позицію, схожу на позицію цих людей, а потім використовують підтверджувальне мислення для посилення власної позиції. Однак, якщо зовнішня сторона надмірно агресивна або критична, люди повністю відмовляються від розмірковування та просто намагаються встановити власну позицію без обґрунтування.[90] Лернер та Тетлок стверджують, що люди примушують себе думати критично та логічно лише тоді, коли вони знають заздалегідь, що їм треба буде пояснювати свої думки іншим добре поінформованим людям, які справді зацікавлені в істині та чиї погляди вони ще не знають.[91] Оскільки всі ці умови рідко збігаються, на думку згаданих психологів переважну частину часу люди використовують підтверджувальне мислення.[92]

Наслідки ред.

Для фінансів ред.

Внаслідок підтверджувального упередження інвестори можуть діяти з надмірною впевненістю, ігноруючи свідчення, що їхні стратегії призведуть до втрати грошей.[5][93] У дослідженнях щодо політичних (виборчих) ринків акцій (тобто ринків, прив'язаних до результатів виборів), інвестори отримували більше прибутку, якщо вони не піддавалися упередженню. Наприклад, учасники, які реагували на виступ кандидата на посаду нейтрально, а не як палкі прихильники, мали більшу ймовірність отримати прибуток.[94] Для нейтралізації впливу підтверджувального упередження, інвестори можуть спробувати тимчасово пристати на протилежні погляди.[95] В одній з технік вони повинні уявити, що всі їхні інвестиції провалилися, та пояснити собі, чому так може статися.[5]

Для фізичного та розумового здоров'я ред.

Психолог Реймонд Нікерсон звинувачує підтверджувальне упередження у неефективних медичних процедурах, що століттями використовувались до появи наукової медицини.[96] Якщо пацієнт одужував, медична влада вважала лікування успішним, замість того, щоб перевірити альтернативні пояснення, наприклад що завершився перебіг хвороби.[96] Упереджене узагальнення є фактором і в сучасній привабливості альтернативної медицини, чиї прихильники сприймають недоведені докази її позитивного впливу, однак надзвичайно критичні до наукових свідчень.[97][98][99]

Когнітивна психотерапія, розроблена Аароном Беком на початку 1960-х років, останнім часом стала популярним підходом.[100] Відповідно до Бека, чинником депресії є упереджена обробка інформації.[101] Його підхід навчає людей ставитись до інформації неупереджено замість селективного підсилення негативних поглядів на життя.[56] Згідно з дослідженнями, фобії та іпохондрія також використовують підтверджувальне упередження, коли людина стикається з лякаючою або небезпечною інформацією.[102]

Для політики та юриспруденції ред.

 
«Ігрові суди» дозволяють науковцям вивчати підтверджувальні упередження в реалістичній обстановці.

Нікерсон доводить, що судження в юридичному та політичному контексті є деколи підсвідомо упередженим, бо надається перевага висновкам, які вже були прийняті суддями, журі присяжних або урядами.[103] Оскільки докази/свідчення на суді присяжних можуть бути складними, неоднозначними, а присяжні часто приймають свої рішення щодо вердикту достатньо рано на процесі, то слід очікувати ефекту поляризації ставлень. Ця гіпотеза (що присяжні ставатимуть більш категоричними в своїх поглядах у міру розгляду судом доказів/свідчень) була підтверджена в експериментах з «ігровими судами» (несправжні суди, які використовуються для відпрацювання адвокатами промов або для навчання студентів судової практики).[104][105] Підтверджувальне упередження має вплив і в слідчій (англ. inquisitorial) системі кримінального правосуддя в романо-германському праві, і суперницький (англ. adversarial) системі кримінального правосуддя в англо-саксонському праві.[106]

Підтверджувальне упередження може бути чинником у створенні або продовженні конфліктів, від емоційно заряджених суперечок до воєн: інтерпретуючи докази та свідчення на свою користь, кожна зі сторін конфлікту може стати надмірно впевненою в тому, що її позиція сильніша.[107] З іншого боку, підтверджувальне упередження може мати наслідком ігнорування або неправильну інтерпретацію ознак конфлікту, що розпочинається або зароджується. Наприклад, психологи Стюарт Сазерленд та Томас Кіда, кожен окремо, вважали, що адмірал США Хасбенд Кіммель продемонстрував підтверджувальне упередження, коли не звернув уваги на перші ознаки японського нападу на Перл-Гарбор.[68][108]

Американський професор Філіп Тетлок протягом двох десятиліть здійснював дослідження політичних експертів (було зібрано 28 тисяч прогнозів) та з'ясував, що в цілому, їх прогнози незначно відрізнялись від випадкових та були гірші, за комп'ютерний алгоритм. Він поділив експертів на «лисиць», які дотримувалися багатьох гіпотез та «їжаків», які були більш догматичні. В цілому, прогнози «їжаків» були менш точними. Тетлок пояснював їх невдачу підтверджувальним упередженням, зокрема, їх нездатністю використовувати нову інформацію, яка суперечила їх теоріям.[109]

Для паранормального ред.

Одним з факторів привабливості екстрасенсорних «зчитувань» в тому, що ті, хто звертається до екстрасенсів, застосовують підтверджувальне упередження, що узгоджує твердження екстрасенса з їхнім власним життям.[110] Коли екстрасенс каже багато неоднозначних тверджень, він дає клієнту більше можливостей знайти відповідність. Це одна з технік холодного зчитування, коли екстрасенс може надати суб'єктивно вражаючий опис клієнта без будь-якої первинної інформації про нього.[110] Відомий канадсько-американський ілюзіоніст та скептик Джеймс Ренді порівняв розшифровку «зчитування» та розповідь клієнта про нього і побачив, що в клієнта було виражене селективне пригадування про «попадання».[111]

Яскравою ілюстрацією підтверджувального упередження в реальному світі (а не в лабораторії) Нікерсон вважає нумерологічну пірамідологію (практики пошуку значень та знання у пропорціях єгипетських пірамід).[112] Оскільки існує значна кількість обмірів, які можна здійснити, наприклад в Піраміді Хеопса, і багато шляхів для їх комбінування та інтерпретації, то ті, хто дивиться на дані вибірково, майже 100 % знайдуть вражаючу узгодженість, наприклад з вимірами Землі.[112]

Для науки ред.

Наукове мислення вирізняє з-поміж інших видів мислення пошук не лише підтверджуючих, а й спростовуючих доказів.[113] Однак не раз в історії науки вчені чинили спротив новим відкриттям внаслідок селективної інтерпретації або ігнорування «неприйнятних» даних.[113] Попередні дослідження показали, що оцінка якості наукових досліджень особливо чутлива до підтверджувального упередження, а саме — не один раз науковці вище оцінювали дослідження, результати яких збігалися з попередніми переконаннями цих науковців, ніж ті, які не відповідали їх переконанням.[74][114][115] Хоча в рамках наукового мислення, якщо досліджуване питання суттєве, побудова експерименту правильна, а дані чітко та повно описані, то результати є важливими для наукового товариства і не повинні розглядатися з упередженням, незалежно від того, відповідають вони поточним теоріям чи ні.[115]

В контексті наукового дослідження підтверджувальні упередження можуть підтримувати теорії чи програми досліджень, навіть якщо докази на їх підтримку недостатні або суперечливі;[68][116] що особливо часто ставалося в галузі парапсихології.[117]

Підтверджувальне упередження експериментатора може потенційно вплинути на те, про які дані він повідомляє. Дані, які конфліктують з його очікуваннями, можуть відкидатися легше, що призводить до так званого ефекту ящика для документів. Для подолання такої тенденції навчання науковців включає шляхи запобігання цього упередження.[118] Наприклад, такі речі як рандомізоване контрольоване дослідження у плануванні експерименту (у поєднанні з їх систематичним оглядом) спрямовані на мінімізацію джерел упередження.[118][119] Соціальний процес рецензування колегами також вважається шляхом для зменшення впливу упереджень окремих науковців,[120] хоча саме по собі рецензування може зазнавати впливу таких упереджень.[115][121] Таким чином, підтверджувальне упередження може особливо шкодити об'єктивним оцінкам тих результатів, що не відповідають гіпотезі, оскільки упереджені особистості можуть вважати такі результати слабкими по суті та не замислюватися про необхідність перегляду їх переконань.[114] Науковці, які пропонують щось нове, часто стикаються зі спротивом з боку наукового товариства, а дослідження з контроверсійними результатами часто отримує розгромні рецензії.[122]

Для самооцінки ред.

Соціальні психологи ідентифікували дві тенденції серед того, як люди шукають або інтерпретують інформацію про себе: самоверифікація, прагнення закріпити/підсилити наявну самооцінку, та самопокращення, прагнення отримати позитивну реакцію. Обидві тенденції реалізуються з залученням підтверджувальних упереджень.[123] В експериментах, коли люди отримували реакцію на себе, що суперечить їх самооцінці, вони з меншою ймовірністю звертали на неї увагу чи запам'ятовували, ніж коли отримували підтверджуючу реакцію.[124][125][126] Вони зменшували вплив такої інформації, інтерпретуючи її як ненадійну.[124][127][128] Схожі експерименти показали, що люди надають перевагу позитивній реакції та людям, які так реагують, перед негативною.[123]

Див. також ред.

Нотатки ред.

  1. Генетик Девід Перкінс вигадав термін «упередження моєї сторони», коли посилався на надання переваги «моїй» стороні проблеми. (Baron, 2000, с. 195)
  2. Текст в цитованій статті: Тухман (1984) описала форму реалізації підтверджувального упередження в процесі виправдання політик, ухвалених урядом: «Коли якась політика була ухвалена та запроваджена, всі подальші дії є зусиллями з її виправдання» (ст.245), на прикладі політики, яка призвела до участі США у війні у В'єтнамі, де армія США була присутня 16 років, попри численні докази, що з самого початку це було не виправдано.

    Твердолобість, джерело самообману — це фактор, який має на диво велику роль в уряді. Він складається з оцінки ситуації в термінах раніше усталених думок про неї, повністю ігноруючи або відкидаючи будь-які протилежні знаки. Це — діяти як хочеш, одночасно не дозволяючи собі відвертатися на факти. Його вершиною є твердження істориків про Філіпа II Габсбургського, чия твердолобість перевершила твердолобість всіх правителів: «жодний приклад провалу його політики не ставив під сумнів його віру у притаманну цій політиці досконалість». (ст.7)

    Дурість, на її думку, є однією з форм самообману, що характеризується «наполяганням на думках, які вкоренилися, незалежно від доказів протилежного» (ст.209)

  3. «Упередження асиміляції» — інший термін, який використовується для упередженої інтерпретації інформації. (Risen та Gilovich, 2007, с. 113)
  4. Він також використовував термін «упередження верифікації». (Poletiek, 2001, с. 73)

Примітки ред.

  1. а б (Plous, 1993, с. 233)
  2. Nickerson, Raymond S. (June 1998). підтверджувальне упередження: A Ubiquitous Phenomenon in Many Guises. Review of General Psychology. 2 (2): 175–220. doi:10.1037/1089-2680.2.2.175.  {{cite journal}}: |access-date= вимагає |url= (довідка)
  3. Darley, John M.; Gross, Paget H. (2000). A Hypothesis-Confirming Bias in Labelling Effects. У Stangor, Charles (ред.). Stereotypes and prejudice: essential readings. Psychology Press. с. 212. ISBN 978-0-86377-589-5. OCLC 42823720. 
  4. (Risen та Gilovich, 2007)
  5. а б в Zweig, Jason (19 листопада 2009). How to Ignore the Yes-Man in Your Head. Wall Street Journal (Dow Jones & Company). Архів оригіналу за 1 березня 2010. Процитовано 13 червня 2010. 
  6. (Nickerson, 1998, с. 177–178)
  7. а б в г (Kunda, 1999, с. 112–115)
  8. а б (Baron, 2000, с. 162–164)
  9. (Kida, 2006, с. 162–165)
  10. Devine, Patricia G.; Hirt, Edward R.; Gehrke, Elizabeth M. (1990). Diagnostic and confirmation strategies in trait hypothesis testing. Journal of Personality and Social Psychology (American Psychological Association). 58 (6): 952–963. doi:10.1037/0022-3514.58.6.952. ISSN 1939-1315. 
  11. Trope, Yaacov; Bassok, Miriam (1982). Confirmatory and diagnosing strategies in social information gathering. Journal of Personality and Social Psychology (American Psychological Association). 43 (1): 22–34. doi:10.1037/0022-3514.43.1.22. ISSN 1939-1315. 
  12. а б в Klayman, Joshua; Ha, Young-Won (1987). Confirmation, Disconfirmation and Information in Hypothesis Testing. Psychological Review (American Psychological Association). 94 (2): 211–228. doi:10.1037/0033-295X.94.2.211. ISSN 0033-295X. Архів оригіналу за 1 жовтня 2011. Процитовано 14 серпня 2009. 
  13. а б в (Oswald та Grosjean, 2004, с. 82–83)
  14. Kunda, Ziva; Fong, G.T.; Sanitoso, R.; Reber, E. (1993). Directional questions direct self-conceptions. Journal of Experimental Social Psychology (Society of Experimental Social Psychology). 29: 62–63. ISSN 0022-1031.  via (Fine, 2006, с. 63–65)
  15. а б Shafir, E. (1993). Choosing versus rejecting: why some options are both better and worse than others. Memory and Cognition. 21 (4): 546–56. doi:10.3758/bf03197186. PMID 8350746.  via (Fine, 2006, с. 63–65)
  16. Snyder, Mark; Swann, Jr., William B. (1978). Hypothesis-Testing Processes in Social Interaction. Journal of Personality and Social Psychology (American Psychological Association). 36 (11): 1202–1212. doi:10.1037/0022-3514.36.11.1202.  via (Poletiek, 2001, с. 131)
  17. а б (Kunda, 1999, с. 117–118)
  18. а б Albarracin, D.; Mitchell, A.L. (2004). The Role of Defensive Confidence in Preference for Proattitudinal Information: How Believing That One Is Strong Can Sometimes Be a Defensive Weakness. Personality and Social Psychology Bulletin. 30 (12): 1565–1584. doi:10.1177/0146167204271180. 
  19. Fischer, P.; Fischer, Julia K.; Aydin, Nilüfer; Frey, Dieter (2010). Physically Attractive Social Information Sources Lead to Increased Selective Exposure to Information. Basic and Applied Social Psychology. 32 (4): 340–347. doi:10.1080/01973533.2010.519208. 
  20. а б в Stanovich, K. E.; West, R. F.; Toplak, M. E. (2013). Myside Bias, Rational Thinking, and Intelligence. Current Directions in Psychological Science. 22 (4): 259–264. doi:10.1177/0963721413480174. 
  21. а б Mynatt, Clifford R.; Doherty, Michael E.; Tweney, Ryan D. (1978). Consequences of confirmation and disconfirmation in a simulated research environment. Quarterly Journal of Experimental Psychology. 30 (3): 395–406. doi:10.1080/00335557843000007. 
  22. (Kida, 2006, с. 157)
  23. а б в г д е Lord, Charles G.; Ross, Lee; Lepper, Mark R. (1979). Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence. Journal of Personality and Social Psychology (American Psychological Association). 37 (11): 2098–2109. doi:10.1037/0022-3514.37.11.2098. ISSN 0022-3514. 
  24. а б (Baron, 2000, с. 201–202)
  25. (Vyse, 1997, с. 122)
  26. а б в г Taber, Charles S.; Lodge, Milton (July 2006). Motivated Skepticism in the Evaluation of Political Beliefs. American Journal of Political Science (Midwest Political Science Association). 50 (3): 755–769. doi:10.1111/j.1540-5907.2006.00214.x. ISSN 0092-5853. 
  27. а б в Westen, Drew; Blagov, Pavel S.; Harenski, Keith; Kilts, Clint; Hamann, Stephan (2006). Neural Bases of Motivated Reasoning: An fMRI Study of Emotional Constraints on Partisan Political Judgment in the 2004 U.S. Presidential Election. Journal of Cognitive Neuroscience (Massachusetts Institute of Technology). 18 (11): 1947–1958. doi:10.1162/jocn.2006.18.11.1947. PMID 17069484. Архів оригіналу за 24.03.2012. Процитовано 14 серпня 2009. 
  28. Gadenne, V.; Oswald, M. (1986). Entstehung und Veränderung von Bestätigungstendenzen beim Testen von Hypothesen [Formation and alteration of confirmatory tendencies during the testing of hypotheses]. Zeitschrift für experimentelle und angewandte Psychologie. 33: 360–374.  via (Oswald та Grosjean, 2004, с. 89)
  29. Hastie, Reid; Park, Bernadette (2005). The Relationship Between Memory and Judgment Depends on Whether the Judgment Task is Memory-Based or On-Line. У Hamilton, David L. (ред.). Social cognition: key readings. New York: Psychology Press. с. 394. ISBN 0-86377-591-8. OCLC 55078722. 
  30. а б в (Oswald та Grosjean, 2004, с. 88–89)
  31. Stangor, Charles; McMillan, David (1992). Memory for expectancy-congruent and expectancy-incongruent information: A review of the social and social developmental literatures. Psychological Bulletin (American Psychological Association). 111 (1): 42–61. doi:10.1037/0033-2909.111.1.42. 
  32. Snyder, M.; Cantor, N. (1979). Testing hypotheses about other people: the use of historical knowledge. Journal of Experimental Social Psychology. 15 (4): 330–342. doi:10.1016/0022-1031(79)90042-8.  via (Goldacre, 2008, с. 231)
  33. (Kunda, 1999, с. 225–232)
  34. Sanitioso, Rasyid; Kunda, Ziva; Fong, G.T. (1990). Motivated recruitment of autobiographical memories. Journal of Personality and Social Psychology (American Psychological Association). 59 (2): 229–241. doi:10.1037/0022-3514.59.2.229. ISSN 0022-3514. PMID 2213492. 
  35. а б в Levine, L.; Prohaska, V.; Burgess, S.L.; Rice, J.A.; Laulhere, T.M. (2001). Remembering past emotions: The role of current appraisals.. Cognition and Emotion. 15: 393–417. doi:10.1080/02699930125955. 
  36. а б Safer, M.A.; Bonanno, G.A.; Field, N. (2001). "It was never that bad": Biased recall of grief and long-term adjustment to the death of a spouse. Memory. 9 (3): 195–203. doi:10.1080/09658210143000065. 
  37. а б Russell, Dan; Jones, Warren H. (1980). When superstition fails: Reactions to disconfirmation of paranormal beliefs. Personality and Social Psychology Bulletin (Society for Personality and Social Psychology). 6 (1): 83–88. doi:10.1177/014616728061012. ISSN 1552-7433.  via (Vyse, 1997, с. 121)
  38. а б в Kuhn, Deanna; Lao, Joseph (March 1996). Effects of Evidence on Attitudes: Is Polarization the Norm?. Psychological Science (American Psychological Society). 7 (2): 115–120. doi:10.1111/j.1467-9280.1996.tb00340.x. 
  39. (Baron, 2000, с. 201)
  40. Miller, A.G.; McHoskey, J.W.; Bane, C.M.; Dowd, T.G. (1993). The attitude polarization phenomenon: Role of response measure, attitude extremity, and behavioral consequences of reported attitude change. Journal of Personality and Social Psychology. 64 (4): 561–574. doi:10.1037/0022-3514.64.4.561. 
  41. backfire effect. The Skeptic's Dictionary. Архів оригіналу за 6 лютого 2017. Процитовано 26 квітня 2012. 
  42. Silverman, Craig (17 червня 2011). The Backfire Effect. Columbia Journalism Review. Архів оригіналу за 22 грудня 2016. Процитовано 1 травня 2012. «Коли Ваші найсильніші переконання піддаються сумніву доказами протилежного, Ваші переконання підсилюються.» 
  43. Nyhan, Brendan; Reifler, Jason (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior. 32 (2): 303–330. doi:10.1007/s11109-010-9112-2. Архів оригіналу за 30 липня 2014. Процитовано 1 травня 2012. 
  44. а б в г Ross, Lee; Anderson, Craig A. (1982). Shortcomings in the attribution process: On the origins and maintenance of erroneous social assessments. У Kahneman, Daniel; Slovic, Paul; Tversky, Amos (ред.). Judgment under uncertainty: Heuristics and biases. Cambridge University Press. с. 129–152. ISBN 978-0-521-28414-1. OCLC 7578020. 
  45. а б в г (Nickerson, 1998, с. 187)
  46. (Kunda, 1999, с. 99)
  47. Ross, Lee; Lepper, Mark R.; Hubbard, Michael (1975). Perseverance in self-perception and social perception: Biased attributional processes in the debriefing paradigm. Journal of Personality and Social Psychology (American Psychological Association). 32 (5): 880–892. doi:10.1037/0022-3514.32.5.880. ISSN 0022-3514. PMID 1185517.  via (Kunda, 1999, с. 99)
  48. а б в Anderson, Craig A.; Lepper, Mark R.; Ross, Lee (1980). Perseverance of Social Theories: The Role of Explanation in the Persistence of Discredited Information. Journal of Personality and Social Psychology (American Psychological Association). 39 (6): 1037–1049. doi:10.1037/h0077720. ISSN 0022-3514. 
  49. а б в г д (Baron, 2000, с. 197–200)
  50. а б в (Fine, 2006, с. 66–70)
  51. а б (Plous, 1993, с. 164–166)
  52. Redelmeir, D. A.; Tversky, Amos (1996). On the belief that arthritis pain is related to the weather. Proceedings of the National Academy of Sciences. 93 (7): 2895–2896. doi:10.1073/pnas.93.7.2895.  via (Kunda, 1999, с. 127)
  53. а б (Kunda, 1999, с. 127–130)
  54. (Plous, 1993, с. 162–164)
  55. Адаптовано з Fielder, Klaus (2004). Illusory correlation. У Pohl, Rüdiger F. (ред.). Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory. Hove, UK: Psychology Press. с. 103. ISBN 978-1-84169-351-4. OCLC 55124398. 
  56. а б (Baron, 2000, с. 195–196)
  57. Thucydides 4.108.4
  58. Alighieri, Dante. Paradiso canto XIII: 118—120.
  59. а б Bacon, Francis (1620). Novum Organum. reprinted in Burtt, E.A., ред. (1939). The English philosophers from Bacon to Mill. New York: Random House. с. 36.  via (Nickerson, 1998, с. 176)
  60. Лев Толстой. "Что такое искусство" [Архівовано 6 вересня 2014 у Wayback Machine.] (1899) Цитата: "Я знаю, что большинство не только считающихся умными людьми, но действительно очень умные люди, способные понять самые трудные рассуждения научные, математические, философские, очень редко могут понять хотя бы самую простую и очевидную истину, но такую, вследствие которой приходится допустить, что составленное ими иногда с большими усилиями суждение о предмете, суждение, которым они гордятся, которому они поучали других, на основании которого они устроили всю свою жизнь,— что это суждение может быть ложно."
  61. Лев Толстой."Царство Божие внутри вас…". Архів оригіналу за 5 серпня 2014. Процитовано 8 вересня 2014. 
  62. Gale, Maggie; Ball, Linden J. (2002). Does Positivity Bias Explain Patterns of Performance on Wason's 2-4-6 task?. У Gray, Wayne D.; Schunn, Christian D. (ред.). Proceedings of the Twenty-Fourth Annual Conference of the Cognitive Science Society. Routledge. с. 340. ISBN 978-0-8058-4581-5. OCLC 469971634. 
  63. а б Wason, Peter C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology (Psychology Press). 12 (3): 129–140. doi:10.1080/17470216008416717. ISSN 1747-0226. 
  64. (Nickerson, 1998, с. 179)
  65. (Lewicka, 1998, с. 238)
  66. (Oswald та Grosjean, 2004, с. 79–96)
  67. Wason, Peter C. (1968). Reasoning about a rule. Quarterly Journal of Experimental Psychology (Psychology Press). 20 (3): 273–28. doi:10.1080/14640746808400161. ISSN 1747-0226. 
  68. а б в Sutherland, Stuart (2007). Irrationality (вид. 2nd). London: Pinter and Martin. с. 95–103. ISBN 978-1-905177-07-3. OCLC 72151566. 
  69. Barkow, Jerome H.; Cosmides, Leda; Tooby, John (1995). The adapted mind: evolutionary psychology and the generation of culture. Oxford University Press US. с. 181–184. ISBN 978-0-19-510107-2. OCLC 33832963. 
  70. (Oswald та Grosjean, 2004, с. 81–82, 86–87)
  71. (Lewicka, 1998, с. 239)
  72. Tweney, Ryan D.; Doherty, Michael E.; Worner, Winifred J.; Pliske, Daniel B.; Mynatt, Clifford R.; Gross, Kimberly A.; Arkkelin, Daniel L. (1980). Strategies of rule discovery in an inference task. The Quarterly Journal of Experimental Psychology (Psychology Press). 32 (1): 109–123. doi:10.1080/00335558008248237. ISSN 1747-0226.  (Experiment IV)
  73. (Oswald та Grosjean, 2004, с. 86–89)
  74. а б (Hergovich, Schott та Burger, 2010)
  75. (Maccoun, 1998)
  76. (Friedrich, 1993, с. 298)
  77. (Kunda, 1999, с. 94)
  78. (Nickerson, 1998, с. 198–199)
  79. (Nickerson, 1998, с. 200)
  80. а б в (Nickerson, 1998, с. 197)
  81. (Baron, 2000, с. 206)
  82. Matlin, Margaret W. (2004). Pollyanna Principle. У Pohl, Rüdiger F. (ред.). Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory. Hove: Psychology Press. с. 255–272. ISBN 978-1-84169-351-4. OCLC 55124398. 
  83. Dawson, Erica; Gilovich, Thomas; Regan, Dennis T. (October 2002). Motivated Reasoning and Performance on the Wason Selection Task. Personality and Social Psychology Bulletin (Society for Personality and Social Psychology). 28 (10): 1379–1387. doi:10.1177/014616702236869. Архів оригіналу за 12 червня 2015. Процитовано 30 вересня 2009. 
  84. Ditto, Peter H.; Lopez, David F. (1992). Motivated skepticism: use of differential decision criteria for preferred and nonpreferred conclusions. Journal of personality and social psychology (American Psychological Association). 63 (4): 568–584. doi:10.1037/0022-3514.63.4.568. ISSN 0022-3514. 
  85. (Nickerson, 1998, с. 198)
  86. (Oswald та Grosjean, 2004, с. 91–93)
  87. (Friedrich, 1993, с. 299, 316–317)
  88. Trope, Y.; Liberman, A. (1996). Social hypothesis testing: cognitive and motivational mechanisms. У Higgins, E. Tory; Kruglanski, Arie W. (ред.). Social Psychology: Handbook of basic principles. New York: Guilford Press. ISBN 978-1-57230-100-9. OCLC 34731629.  via (Oswald та Grosjean, 2004, с. 91–93)
  89. а б Dardenne, Benoit; Leyens, Jacques-Philippe (1995). Confirmation bias as a Social Skill. Personality and Social Psychology Bulletin (Society for Personality and Social Psychology). 21 (11): 1229–1239. doi:10.1177/01461672952111011. ISSN 1552-7433. 
  90. Shanteau, James (2003). Sandra L. Schneider (ред.). Emerging perspectives on judgment and decision research. Cambridge [u.a.]: Cambridge University Press. с. 445. ISBN 0-521-52718-X. Архів оригіналу за 26 січня 2020. Процитовано 28 серпня 2014. 
  91. Haidt, Jonathan (2012). The Righteous Mind : Why Good People are Divided by Politics and Religion. New York: Pantheon Books. с. 1473–4 (e–book edition). ISBN 0-307-37790-3. 
  92. Lindzey, edited by Susan T. Fiske, Daniel T. Gilbert, Gardner (2010). The handbook of social psychology. (вид. 5th). Hoboken, N.J.: Wiley. с. 811. ISBN 0-470-13749-5. Архів оригіналу за 26 січня 2020. Процитовано 28 серпня 2014. 
  93. Pompian, Michael M. (2006). Behavioral finance and wealth management: how to build optimal portfolios that account for investor biases. John Wiley and Sons. с. 187–190. ISBN 978-0-471-74517-4. OCLC 61864118. 
  94. Hilton, Denis J. (2001). The psychology of financial decision-making: Applications to trading, dealing, and investment analysis. Journal of Behavioral Finance (Institute of Behavioral Finance). 2 (1): 37–39. doi:10.1207/S15327760JPFM0201_4. ISSN 1542-7579. 
  95. Krueger, David; Mann, John David (2009). The Secret Language of Money: How to Make Smarter Financial Decisions and Live a Richer Life. McGraw Hill Professional. с. 112–113. ISBN 978-0-07-162339-1. OCLC 277205993. 
  96. а б (Nickerson, 1998, с. 192)
  97. (Goldacre, 2008, с. 233)
  98. Singh, Simon; Ernst, Edzard (2008). Trick or Treatment?: Alternative Medicine on Trial. London: Bantam. с. 287–288. ISBN 978-0-593-06129-9.  {{citation}}: Cite має пустий невідомий параметр: |1= (довідка)
  99. Atwood, Kimball (2004). Naturopathy, Pseudoscience, and Medicine: Myths and Fallacies vs Truth. Medscape General Medicine. 6 (1): 33. 
  100. Neenan, Michael; Dryden, Windy (2004). Cognitive therapy: 100 key points and techniques. Psychology Press. с. ix. ISBN 978-1-58391-858-6. OCLC 474568621. 
  101. Blackburn, Ivy-Marie; Davidson, Kate M. (1995). Cognitive therapy for depression & anxiety: a practitioner's guide (вид. 2). Wiley-Blackwell. с. 19. ISBN 978-0-632-03986-9. OCLC 32699443. 
  102. Harvey, Allison G.; Watkins, Edward; Mansell, Warren (2004). Cognitive behavioural processes across psychological disorders: a transdiagnostic approach to research and treatment. Oxford University Press. с. 172–173, 176. ISBN 978-0-19-852888-3. OCLC 602015097. 
  103. (Nickerson, 1998, с. 191–193)
  104. Myers, D.G.; Lamm, H. (1976). The group polarization phenomenon. Psychological Bulletin. 83 (4): 602–627. doi:10.1037/0033-2909.83.4.602.  via (Nickerson, 1998, с. 193–194)
  105. Halpern, Diane F. (1987). Critical thinking across the curriculum: a brief edition of thought and knowledge. Lawrence Erlbaum Associates. с. 194. ISBN 978-0-8058-2731-6. OCLC 37180929. 
  106. Roach, Kent (2010). Wrongful Convictions: Adversarial and Inquisitorial Themes. North Carolina Journal of International Law and Commercial Regulation. 35. SSRN 1619124. «І суперницька, і слідча системи перебувають під впливом небезпечного тунельного погляду або підтверджувального упередження.» 
  107. (Baron, 2000, с. 191,195)
  108. (Kida, 2006, с. 155)
  109. Tetlock, Philip E. (2005). Expert Political Judgment: How Good Is It? How Can We Know?. Princeton, N.J.: Princeton University Press. с. 125–128. ISBN 978-0-691-12302-8. OCLC 56825108. 
  110. а б Smith, Jonathan C. (2009). Pseudoscience and Extraordinary Claims of the Paranormal: A Critical Thinker's Toolkit. John Wiley and Sons. с. 149–151. ISBN 978-1-4051-8122-8. OCLC 319499491. 
  111. Randi, James (1991). James Randi: psychic investigator. Boxtree. с. 58–62. ISBN 978-1-85283-144-8. OCLC 26359284. 
  112. а б (Nickerson, 1998, с. 190)
  113. а б (Nickerson, 1998, с. 192–194)
  114. а б (Koehler, 1993)
  115. а б в (Mahoney, 1977)
  116. Proctor, Robert W.; Capaldi, E. John (2006). Why science matters: understanding the methods of psychological research. Wiley-Blackwell. с. 68. ISBN 978-1-4051-3049-3. OCLC 318365881. 
  117. Sternberg, Robert J. (2007). Critical Thinking in Psychology: It really is critical. У Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (ред.). Critical Thinking in Psychology. Cambridge University Press. с. 292. ISBN 0-521-60834-1. OCLC 69423179. «Одні з найгірших випадків підтверджувального упередження спостерігаються в дослідженнях парапсихології ... Тут є ціле поле досліджень без будь-яких сильних даних на підтвердження теорій. Однак люди хочуть вірити, і тому знаходять шляхи, щоб продовжувати вірити.» 
  118. а б Shadish, William R. (2007). Critical Thinking in Quasi-Experimentation. У Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (ред.). Critical Thinking in Psychology. Cambridge University Press. с. 49. ISBN 978-0-521-60834-3. 
  119. PMID 11440947 (PubMed)
    Бібліографічний опис з'явиться автоматично через деякий час. Ви можете підставити цитату власноруч або використовуючи бота.
  120. Shermer, Michael (July 2006). The Political Brain. Scientific American. ISSN 0036-8733. Архів оригіналу за 19 березня 2011. Процитовано 14 серпня 2009. 
  121. PMID 21098355 (PubMed)
    Бібліографічний опис з'явиться автоматично через деякий час. Ви можете підставити цитату власноруч або використовуючи бота.
  122. (Horrobin, 1990)
  123. а б Swann, William B.; Pelham, Brett W.; Krull, Douglas S. (1989). Agreeable Fancy or Disagreeable Truth? Reconciling Self-Enhancement and Self-Verification. Journal of Personality and Social Psychology (American Psychological Association). 57 (5): 782–791. doi:10.1037/0022-3514.57.5.782. ISSN 0022–3514. PMID 2810025.  {{citation}}: Перевірте значення |issn= (довідка)
  124. а б Swann, William B.; Read, Stephen J. (1981). Self-Verification Processes: How We Sustain Our Self-Conceptions. Journal of Experimental Social Psychology (Academic Press). 17 (4): 351–372. doi:10.1016/0022-1031(81)90043-3. ISSN 0022–1031.  {{citation}}: Перевірте значення |issn= (довідка)
  125. Story, Amber L. (1998). Self-Esteem and Memory for Favorable and Unfavorable Personality Feedback. Personality and Social Psychology Bulletin (Society for Personality and Social Psychology). 24 (1): 51–64. doi:10.1177/0146167298241004. ISSN 1552-7433. 
  126. White, Michael J.; Brockett, Daniel R.; Overstreet, Belinda G. (1993). Confirmatory Bias in Evaluating Personality Test Information: Am I Really That Kind of Person?. Journal of Counseling Psychology (American Psychological Association). 40 (1): 120–126. doi:10.1037/0022-0167.40.1.120. ISSN 0022-0167. 
  127. Swann, William B.; Read, Stephen J. (1981). Acquiring Self-Knowledge: The Search for Feedback That Fits. Journal of Personality and Social Psychology (American Psychological Association). 41 (6): 1119–1128. doi:10.1037/0022-3514.41.6.1119. ISSN 0022–3514.  {{citation}}: Перевірте значення |issn= (довідка)
  128. Shrauger, J. Sidney; Lund, Adrian K. (1975). Self-evaluation and reactions to evaluations from others. Journal of Personality (Duke University Press). 43 (1): 94–108. doi:10.1111/j.1467-6494.1975.tb00574. PMID 1142062. 

Джерела ред.

Посилання ред.