Список когнитивных искажений: 20 когнитивных искажений, которые влияют на ваши решения

Содержание

Список когнитивных искажений

Наткнулся в Википедии на совершенно замечательную подборку психологических дефектов, встречающихся в обществе. Да что в обществе — в каждом из нас встречаются некоторые из этих перечисленных искажений

Принятие решений и искажения, связанные с поведением

Эффект повального увлечения, конформизм — тенденция делать (или верить в) вещи, потому что много других людей делают это (или верят в это). Относится к групповому мышлению, стадному поведению и маниям.
Ошибка, связанная с частными примерами — игнорирование доступных статистических данных, в пользу частных случаев.
Слепое пятно в отношении когнитивных искажений — тенденция не компенсировать свои собственные когнитивные искажения.
Искажение в восприятии сделанного выбора — тенденция помнить свои выборы как более правильные, чем они были на самом деле.
Рационализация после покупки — тенденция убеждать себя с помощью рациональных аргументов, что покупка стоила своих денег.


Отвращение к потере — отрицательная полезность, связываемая с потерей объекта, оказывается больше, чем полезность, связанная с приобретением его.
Предвзятость подтверждения (Confirmation bias) — тенденция искать или интерпретировать информацию таким образом, чтобы подтвердить имевшиеся заранее концепции.
Систематическая ошибка согласованности — тенденция проверять гипотезы исключительно путём прямого тестирования, вместо того, чтобы тестировать возможные альтернативные гипотезы.
Эффект контраста
— усиление или преуменьшение значения одного измерения, когда оно сравнивается с недавно наблюдавшимся контрастным объектом. Например, человек радуется тому, что купил недорого какую-то вещь в магазине, но перестаёт радоваться после того, как узнаёт, что в соседнем магазине эта же вещь стоит в 2 раза дешевле.
Профессиональная деформация — психологическая дезориентация личности в ходе профессиональной деятельности. Тенденция смотреть на вещи согласно правилам, общепринятым для своей профессии, отбрасывая более общую точку зрения. Наиболее ей подвержены лица, работающие с людьми (полиция/милиция, соц.работники, учителя, медики, психологи и т.п)[источник не указан 154 дня].
Систематическая ошибка различения — тенденция воспринимать два варианта как более различные, когда они реализуются одновременно, чем когда они реализуются по отдельности.
Эффект вклада — тот факт, что люди часто хотят продать некий объект гораздо дороже, чем они готовы заплатить, чтобы приобрести его.
Отвращение к крайним решениям — тенденция избегать экстремальных решений, выбирая промежуточные.
Эффект фокусировки — ошибка в предсказаниях, возникающая, когда люди уделяют слишком много внимания какому-то одному аспекту явления; вызывает ошибки в правильном предсказании полезности будущего исхода. Например, концентрация внимания на том, кто виноват в возможной ядерной войне, отвлекает внимание от того, что пострадают в ней все.

Эффект узких рамок — использование слишком узкого подхода или описания ситуации или проблемы. Эффект воздействия рамок — различные выводы в зависимости от того, как данные представлены.
Гиперболический уровень дискаунта (англ.)русск. — тенденция людей тем больше предпочитать более близкие во времени выплаты относительно выплат в более отдаленном будущем, чем ближе обе выплаты к настоящему времени.
Иллюзия контроля — тенденция людей верить, что они могут контролировать или, по крайней мере, влиять на результаты событий, на которые они на самом деле влиять не могут.
Переоценка воздействия — тенденция людей переоценивать длительность или интенсивность воздействия некого события на их будущие переживания.
Уклон в сторону поиска информации — тенденция искать информацию даже тогда, когда она не влияет на действия.
Иррациональное усиление — тенденция принимать иррациональные решения, основанные на прошлых рациональных решениях, или оправдание уже совершённых действий.
Проявляется, например, на аукционах, когда вещь покупается выше её стоимости.
Эффект знакомства с объектом — тенденция людей выражать необоснованную симпатию к некому объекту только потому, что они знакомы с ним.
Эффект морального доверия — человек, относительно которого известно, что у него нет предубеждений, имеет в будущем большие шансы проявить предубеждения. Иначе говоря, если все (в том числе он сам) считают человека безгрешным, то у него возникает иллюзия, что его любое действие также будет безгрешным.
Потребность в завершении — потребность достигнуть завершения в важном вопросе, получить ответ и избежать чувства сомнений и неуверенности. Текущие обстоятельства (время или социальное давление) могут усилить этот источник ошибок.
Потребность в противоречии — более быстрое распространение более сенсационных, цепляющих за больные темы или возбуждающих дух противоречия сообщений в открытой печати.
Отрицание вероятности — тенденция полностью отвергать вероятностную проблематику при принятии решений в условиях неопределённости.
Недооценка бездействия — тенденция оценивать вредоносные действия как худшие и менее моральные, чем в равной степени преступное бездействие.
Отклонение в сторону результата — тенденция судить о решениях по их окончательным результатам, вместо того, чтобы оценивать качество решений по обстоятельствам того момента времени, когда оно было принято. («Победителей не судят».)
Ошибка при планировании — тенденция недооценивать время выполнения задач. Также известно как следствие закона Мёрфи: «Всякая работа требует больше времени, чем вы думаете».
Эффект псевдоуверенности — тенденция принимать решения, избегающие риска, если ожидаемый результат позитивный, однако принимать рискованные решения, чтобы избежать негативного исхода.
Сопротивление, «дух противоречия»
— потребность делать нечто противоположное тому, что некто побуждает вас делать, из-за потребности противостоять кажущимся попыткам ограничить вашу свободу выбора.
Селективное восприятие — тенденция, состоящая в том, что ожидания влияют на восприятие.
Отклонение в сторону статуса кво — тенденция людей желать, чтобы вещи оставались приблизительно теми же самыми.
Предпочтение целостных объектов — потребность закончить данную часть задачи. Ярко проявляется в том, что людям свойственно есть больше, когда предлагаются большие порции еды, чем брать много маленьких порций.
Эффект фон Ресторфа — склонность людей лучше запоминать отдельно стоящие выдающиеся объекты.
Предпочтение нулевого риска — предпочтение уменьшить какой-то один маленький риск до нуля вместо того, чтобы значительно уменьшить другой, больший риск. Например, большинство людей предпочли бы уменьшить вероятность террористических актов до нуля вместо снижения аварийности на дорогах, даже если бы второй эффект давал бы больше сохранённых жизней. Другой распространённый пример — ятрофобия: многие люди боятся осложнений медицинских вмешательств больше, чем заболевания или смерти в результате естественных причин, независимо от данных статистики.

Подчинение авторитету — склонность людей подчиняться авторитету, игнорируя свои собственные суждения о целесообразности действия. Смотрите также эксперимент Милгрэма.

Искажения, связанные с вероятностями и верованиями

Многие из этих когнитивных искажений часто исследуются в связи с тем, как они влияют на бизнес и как они влияют на экспериментальные исследования.

Когнитивное искажение в условиях неоднозначности — избегание вариантов действий, в которых отсутствующая информация делает вероятность «неизвестной».

Эффект привязки — особенность принятия численных решений человеком, вызывающая иррациональные смещения ответов в сторону числа, попавшего в сознание перед принятием решения.
Отклонение, связанное со вниманием — пренебрежение релевантной информацией при суждении о корреляции или ассоциации.
Эвристика доступности — оценка как более вероятного того, что более доступно в памяти, то есть уклонение в сторону более яркого, необычного или эмоционально заряженного.
Каскад доступной информации
— самоусиливающийся процесс, в ходе которого коллективная вера во что-то становится всё более убедительной за счёт нарастающего повторения в публичном дискурсе («повторяйте нечто достаточно долго и это станет правдой»).
Иллюзия кластеризации — тенденция видеть паттерны там, где их на самом деле нет.
Ошибка полноты распределения — тенденция верить, что чем ближе среднее значение к заданному, тем уже распределение набора данных.
Ошибка совпадений — тенденция полагать, что более специальные случаи являются более вероятными, чем более частными.
Ошибка игрока — тенденция полагать, что отдельные случайные события испытывают влияние предыдущих случайных событий.
Хоторнский эффект — феномен, состоящий в том, что люди, наблюдаемые в ходе исследования, временно изменяют своё поведение или производительность. Пример: повышение производительности труда на заводе, когда приезжает комиссия по исследованию производительности труда на этом заводе.
Эффект знания задним числом — иногда называется «Я так и знал, что так будет» (как вариант — «А ведь я говорила…») — склонность воспринимать прошлые события предсказуемыми.
Иллюзия корреляции — ошибочная вера во взаимосвязь определённых действий и результатов.
Ошибочность, связанная с играми — анализ проблем, связанных с выпадением шансов, с помощью узкого набора игр.
Эффект ожидания наблюдателя — этот эффект возникает, когда исследователь ожидает определённого результата и бессознательно манипулирует ходом эксперимента или неправильно интерпретирует данные, чтобы обнаружить этот результат (см. также эффект ожиданий субъекта).
Отклонение, связанное с оптимизмом — тенденция систематически переоценивать и быть сверхоптимистичным относительно шансов успеха планируемых действий.
Эффект сверхуверенности — тенденция переоценивать свои собственные способности.
Отклонение в сторону позитивного исхода — тенденция переоценивать при предсказании вероятность хороших вещей.
Эффект первенства — тенденция переоценивать изначальные события более, чем последующие события.
Эффект недавнего — тенденция оценивать значение недавних событий выше, чем более ранних событий.
Недооценка возвращения величины к среднему значению — тенденция ожидать, что экстраординарное поведение системы продолжится.
Эффект воспоминаний — эффект, состоящий в том, что люди помнят больше событий из своей молодости, чем из других жизненных периодов.
Приукрашивание прошлого — тенденция оценивать прошлые события более позитивно, чем они воспринимались в тот момент, когда на самом деле происходили.
Искажение, связанное с селекцией — искажение в экспериментальных данных, которое связано с тем, каким образом данные были собраны.
Ошибка выжившего (survivorship bias) — возможность недооценивать свою уязвимость на основании своего выживания в тех или иных ситуациях, в действительности объясняющегося лишь законами вероятности и естественным отбором.
Стереотипизация — ожидание от члена группы определённых характеристик, без знания какой-либо дополнительной информации о его индивидуальности.
Эффект субаддитивности — тенденция оценивать вероятность целого в качестве меньшей, чем вероятности составляющих его частей.
Субъективное придание значимости — восприятие чего-либо, как истинного, если верования субъекта требуют, чтобы это было истинным. Сюда также входит восприятие совпадений как взаимосвязи.
Эффект телескопа — этот эффект состоит в том, что недавние события кажутся более отдалёнными, а более дальние события — более близкими во времени.
Ошибочность в духе меткого стрелка из Техаса — выбор или подстройка гипотезы после того, как данные собраны, что делает невозможным проверить гипотезу честно.

Социальные искажения

Большинство из этих искажения связаны с ошибками атрибуции.

Искажение в оценке роли субъекта действия — тенденция при объяснении поведения других людей чрезмерно подчёркивать влияние их профессиональных качеств и недооценивать влияние ситуации (см. также фундаментальная ошибка атрибуции). Однако парной к этому искажению является противоположная тенденция при оценке собственных поступков, при которой люди переоценивают влияния на них ситуации и недооценивают влияние своих собственных качеств.
Эффект Даннинга-Крюгера — «когда люди некомпетентны в выбранных ими стратегиях достижения успеха, они терпят двойной удар: они не только приходят к ошибочным заключениям и делают неудачные выборы, но также их некомпетентность лишает их возможности осознать это. Вместо этого они остаются с ошибочным впечатлением, что всё в порядке. (см. также эффект озера Вобегон и эффект сверхуверенности.)
Эффект эгоцентричности — он имеет место, когда люди считают себя более ответственными за результат неких коллективных действий, чем это находит внешний наблюдатель.
Эффект Форера (а также эффект Барнума) — тенденция высоко оценивать точность описаний своей личности, как если бы они были нарочно выкованы специально для них, но которые в действительности являются достаточно общими, чтобы их можно было приложить к очень большому числу людей. Например, гороскопы.
Эффект фальшивого консенсуса — тенденция людей переоценивать ту степень, в которой другие люди соглашаются с ними.
Фундаментальная ошибка атрибуции — тенденция людей переоценивать объяснения поведения других людей, основанные на их личностных качествах, и в то же время недооценивать роль и силу ситуационных влияний на то же самое поведение (см. также Искажение в оценке роли субъекта действия, ошибку групповой атрибуции, эффект позитивности и эффект негативности.)
Эффект ореола — имеет место при восприятии одного человека другим и состоит в том, что позитивные и негативные черты человека «перетекают», с точки зрения воспринимающего, из одной области его личности в другую. (см. также стереотип физической привлекательности).
Стадный инстинкт — распространённая тенденция принимать мнения и следовать за поведением большинства, чтобы чувствовать себя в безопасности и избегать конфликтов.
Иллюзия асимметричной проницательности — человеку кажется, что его знание о своих близких превосходит их знание о нём.
Иллюзия прозрачности — люди переоценивают способность других понимать их, и они также переоценивают свою способность понимать других.
Искажение в пользу своей группы — тенденция людей отдавать предпочтение тем, кого они считают членом своей собственной группы.
Феномен «справедливого мира» — тенденция людей верить, что мир «справедлив» и следовательно люди получают «то, что они заслуживают».
Эффект озера Вобегон — человеческая тенденция распространять льстивые верования о себе и считать себя выше среднего. (см. также хуже-чем-в-среднем эффект и эффект сверхуверенности).
Искажение в связи с формулировкой закона — эта форма культурного искажения связана с тем, что запись некого закона в виде математической формулы создаёт иллюзию его реального существования.
Искажение в оценке гомогенности членов другой группы — люди воспринимают членов своей группы как относительно более разнообразных, чем члены других групп.
Искажение в связи с проекцией — тенденция бессознательно полагать, что другие люди разделяют те же, что и субъект, мысли, верования, ценности и позиции.
Искажение в собственную пользу — тенденция признавать большую ответственность за успехи, чем за поражения. Это может проявляться также как тенденция людей преподносить двусмысленную информацию благоприятным для себя образом (См. также искажение в пользу группы.)
Самосбывающиеся пророчества — тенденция вовлекаться в те виды деятельности, которые приведут к результатам, которые (сознательно или нет) подтвердят наши верования.
Оправдание системы — тенденция защищать и поддерживать статус кво, то есть тенденция предпочитать существующие социальное, политическое и экономическое устройство, и отрицать перемены даже ценой жертвования индивидуальными и коллективными интересами.
Искажение при описании черт характера — тенденция людей воспринимать себя как относительно изменчивых в отношении личных качеств, поведения и настроения, одновременно воспринимая других как гораздо более предсказуемых.
Эффект первого впечатления — влияние мнения о человеке, которое сформировалось у субъекта в первые минуты при первой встрече, на дальнейшую оценку деятельности и личности этого человека. Причисляют также к ряду ошибок, часто совершаемых исследователями при использовании метода наблюдения наряду с эффектом ореола и другими.

Ошибки памяти

Благодетель — восприятие себя как ответственного за желательные исходы, но не ответственного за нежелательные. (Термин предложен Гринвальдом (1980)) (Смотри Искажение самовозвеличения.)
Кажущееся постоянство — неправильное воспоминание чьих-либо прошлых позиций и поведения как напоминающих теперешние позиции и поведение.
Криптомнезия — форма неправильного установления авторства, когда воспоминание ошибочно принимается за результат воображения. Например, человеку может казаться, что он сам сочинил анекдот, в то время, как в действительности он его уже слышал и просто вспомнил.
Эгоцентрическое искажение — воспоминание прошлого в самовозвеличивающей манере, например, воспоминание экзаменационных оценок лучшими, чем они были, а пойманной рыбы — большей, чем она была.
Ложная память — принятие неизвестного за известное.
Ретроспективное искажение — фильтрация памяти о прошлых событиях сквозь теперешнее знание. При этом события выглядят более предсказуемыми, чем они были в действительности. Известно также как ‘эффект Я-всё-это-знал’.
Внушаемость — форма неправильного установления авторства, когда идеи, на которые намекнул спрашивающий, неверно воспринимаются как вспомненные.

А вот и сама статья, дополненная призывом технолога Википедии пожертвовать бабло сервису, считающему эту статью плохой.

Человеку, написавшую статью, однозначный респект. Жаль только, Википедия относится к личности очень неубедительно.

страшные слова или первый помощник в продуктовом дизайне — часть 1

В работе над своим сервисом у нас регулярно возникают вопросы: откуда взять хорошие идеи, как развивать продукт? Как появляются правильные гипотезы? Проблема в том, что у нас просто физически нет времени тестировать все гипотезы, чтобы путем проб и ошибок найти лучшие. От пользователя эту информацию так же получить невозможно, так как в работе над новым — наша задача предугадывать.

Как человек принимает решение? Очевидно, что понимание этого – ключ к правильному развитию вашего продукта. Какие есть паттерны поведения, как ими пользоваться, чтобы понимать, куда развивать продукт. Как встраиваться в существующие паттерны и создавать новые?

Поиск ответов на все эти вопросы – это, наверное, основная функция продуктового дизайнера.

В работе над tagvisor.com мы хотим научиться читать мысли своей аудитории. Здесь мы подходим к теме когнитивной психологии.

Ниже представлен перевод статьи Cognitive bias cheat sheet, автор Buster Benson. Ценность статьи в том, что она дает понятную классификацию когнитивных искажений исходя из психической проблемы, которую пытается решить то или иное искажение. Взгляд с точки зрения задачи помогает понять пользу и механизм действия этих искажений, проще осознать его применимость к вашему продукту, к вашим CJM. Список был дополнен русскими описаниями каждого из когнитивных эффектов. Им довольно удобно оперировать, чтобы получить необходимое и, в некоторой степени достаточное, представление о всевозможных эффектах для того, чтобы начать знакомство с данной темой.

Я провел много лет, апеллируя к Списку когнитивных искажений (материал из Википедии) всякий раз, когда у меня появлялась догадка, что определенный тип взглядов — это официальное искажение, но я не мог вспомнить название и детали. Это была неоценимая ссылка, которая помогла мне определить скрытые недостатки в моих собственных взглядах. Никакой материал из тех, что мне встречались, не были одновременно столь исчерпывающим, и столь краткими.

Однако, если честно, страница Wikipedia — что-то вроде запутанного беспорядка. Несмотря на попытку усвоить информацию с этой страницы много раз за эти годы, я очень мало запомнил. Я часто просматриваю список и понимаю, что я не в состоянии найти искажение; я ищу, затем быстро забываю то, что я изучил. Я думаю, что это связано с тем, как страница органично развивалась на протяжении многих лет. Сегодня, это 175 искажений, сгруппированных в расплывчатые категории (Искажения, связанные с поведением и принятием решений; Социально обусловленные искажения; Искажения, связанные с ошибками памяти и т.д.), которые на самом деле не кажутся взаимоисключающими, а затем их перечисление их в алфавитном порядке по категориям. В статье есть дубликаты, и много схожих искажений с разными именами, разбросанных кое-как.

Я выделил немного времени в течение последних четырех недель (я в отпуске по уходу за ребенком), чтобы попытаться более глубоко усвоить и понять этот список, и попытаться придумать более простую, более четкую организационную структуру, чтобы разложить все по полочкам. Более детальное изучение различных искажений дало мне пищу для размышлений, пока я убаюкивал маленького Луи.

Я начал с чернового списка из 175 искажений и добавил их всех в электронную таблицу затем просмотрел еще раз для удаления дубликатов и сгруппировал схожие искажения (такие как эффект причудливости и эффект юмора) или дополняющие друг друга (как искажение, вызванное оптимизмом и искажение, вызванное пессимизмом). Список свелся приблизительно к 20 уникальным необъективным умственным стратегиям, которые мы используем по очень специфическим причинам.

Я сделал несколько различных попыток сгруппировать эти 20 или около того на более высоком уровне, и в конце концов остановился на группировке по общей психической проблеме, которую они пытались решить. Каждое когнитивное искажение, в первую очередь, находится там для того, чтобы сохранить время или энергию нашего мозга. Если вы посмотрите на них с точки зрения задачи, которую они пытаются решить, становится намного легче понять, почему они существуют, насколько они полезны и компромиссные решения (в результате ментальных ошибок), которые они представляют.

Четыре проблемы, которые искажения помогают нам решить:

Информационная перегрузка, недостаток смысла, необходимость действовать быстро, и как узнать, что необходимо запомнить для последующего использования.

Проблема 1: Слишком много информации.

Существует слишком много информации в мире, у нас нет иного выбора, кроме как отфильтровать почти всю информацию. Наш мозг использует несколько простых трюков, чтобы выбрать частицы информации, которые скорее всего, будут полезны в некотором смысле.

  • Мы замечаем вещи, которые уже заложенных в памяти или часто повторяются. Это простое правило, что наш мозг более склонен замечать вещи, которые связаны с материалом, который недавно был загружен в память.
    • Attentional bias. Искажение, вызванное вниманием.Если что-то постоянно находится в фокусе вашего внимания, то это влияет на вашу способность к адекватной оценке. Частный пример: игнорировать некоторые варианты при оценке вероятностей (фанатик-националист в первую очередь обращает внимание на национальность и упускает, что носитель «неприятной» ему национальности может быть достойным человеком).
    • Availability heuristic. Эвристика доступности.Склонность считать «более вероятным» то, что проще вспомнить или снабдить примером из памяти; отклонение в сторону более яркого, необычного или эмоционально заряженного.
    • Illusory truth effect. Каскад доступной информации (эффект мнимой правды).Самоусиливающийся процесс, в ходе которого коллективная вера во что-то становится всё более убедительной за счёт нарастающего публичного повторения («повторяйте это долго и это станет правдой»).
    • Mere exposure effect. Эффект знакомства с объектом.Склонность иметь чрезмерное расположение к объекту лишь из-за знакомства с ним.
    • Context effect. Эффект контекста.Эффект: без контекстуальных «зацепок», сигналов, знаков вспоминать информацию и вообще вести мыслительную деятельность — сложнее. «Работать в офисе проще, чем дома».
    • Cue-dependent forgetting, Mood-congruent memory bias. Отклонение в сторону соответствия эмоциям.Эмоционально заряженный материал лучше запоминается в соответствующем ему эмоциональном состоянии
    • Frequency illusion, Baader-Meinhof Phenomenon. Иллюзия частотности (феномен Баадера-Майнхоф).Услышав или узнав что-то, вы очень скоро снова наталкиваетесь на эту же информацию, которая была в общем доступе и раньше, однако до вас не доходила. И кажется, что частотность её появления повысилась.
    • Empathy gap. Эмоциональный разрыв.Склонность недооценивать влияние или силу чувств (применительно к себе или другим людям).
    • Omission bias. Недооценка бездействия.Склонность осуждать вредоносные действия сильнее, чем настолько же вредоносное бездействие.
    • Base rate fallacy. Ошибка базовой доли (ошибка, связанная с частными примерами).Ошибочная оценка конкретной информации из «частного случая» как верной, при том что более общая информация (например, статистика) подталкивает к противоположным выводам. Пример: ваши подозрения, что этот незнакомый человек со зловещим лицом — бандит, хотя не-бандитов зловещего вида — больше, чем бандитов).
  • Причудливые / смешные / визуально поразительные / антропоморфные вещи запоминаются больше, чем не-причудливые / не-остроумные вещи. Наш мозг, склонен повышать значимость вещей, которые являются необычными и удивительными. В качестве альтернативы, мы склонны пропускать информацию, которая по нашему мнению, является обычной или ожидаемой.
    • Bizarreness effect,. Эффект причудливости.Причудливое запоминается лучше, чем обычное.
    • Humor effect. Эффект юмора.Смешные вещи проще запомнить, чем несмешные.
    • Von Restorff effect. Эффект Ресторфф (эффект изоляции).Объект, выделяющийся из ряда схожих объектов, запоминается лучше других.
    • Picture superiority effect. Эффект превосходства картинки. Концепт понятнее для людей, если объяснен в картинках, а не только письменными словами.
    • Self-relevance effect. Эффект собственной значимости. Воспоминания о себе лучше удерживаются в памяти, чем аналогичная информация о других.
    • Negativity bias. Искажение отрицательности. Психологический феномен: плохие воспоминания запоминаются и вспоминаются лучше, чем хорошие
  • Мы замечаем, когда что-то изменилось. И мы обычно склонны взвешивать смысл нового значения исходя из направления, в котором изменение произошло (положительное или отрицательное) больше, чем переоценивать новое значение, как если бы оно было представлено в одиночку. Это же относится и к тому, когда мы сравниваем две схожие вещи.
    • Anchoring, Эффект привязки (эффект якоря). Склонность смещать оценку неизвестного значения в сторону «якоря» — числа, попавшего в сознание перед принятием решения.
    • Contrast effect. Эффект контраста. Увеличение или уменьшение воспринимаемого значения из-за сравнения с ранее воспринятым контрастирующим значением (на картине серый кажется рыжеватым или голубоватым из-за соседних красок; цена — более высокой или низкой из-за цены в соседнем магазине).
    • Focusing effect. Эффект фокусировки.Ошибка в предсказаниях, возникающая, когда люди уделяют слишком много внимания какому-то одному аспекту явления.
    • Money illusion Денежная иллюзии.Склонность смотреть на номинальную стоимость денег, а не на их реальную покупательную способность.
    • Framing effect. Эффект обрамления (эффект воздействия рамок). Из информации делаются различные выводы в зависимости от того, как она представлена («потерю можно представить приобретением и наоборот»).
    • Weber–Fechner law. Закон Вебера — Фехнера эмпирический.Психофизиологический закон, заключающийся в том, что интенсивность ощущения прямо пропорциональна логарифму интенсивности раздражителя.
    • Conservatism. Консерватизм (коррекция мнения). Склонность при предъявлении новых свидетельств изменять мнение недостаточно («недосчитывать» правильную вероятность или проделывать это медленнее, чем если бы использовалась теорема Байеса).
    • Distinction bias. Систематическая ошибка различения. Склонность воспринимать два варианта как более различные при одновременной оценке — сравнительно с отдельной оценкой каждого из них.
  • Нас привлекают детали, которые подтверждают наши собственные существующие убеждения. Это важно. Как следствие: мы склонны игнорировать детали, которые противоречат нашим собственным убеждениям.
    • Confirmation bias. Предвзятость подтверждения. Cклонность искать или интерпретировать информацию таким образом, чтобы подтвердить имеющиеся мнения.
    • Congruence bias. Систематическая ошибка согласованности. Склонность проверять гипотезу только прямым её тестированием, пренебрегать косвенным тестированием и проверкой альтернативных гипотез.
    • Post-purchase rationalization. Рационализация после покупки. Склонность убеждать себя рациональными аргументами, что покупка стоила своих денег.
    • Choice-supportive bias, Искажение, поддерживающее выбор. Склонность помнить свои выборы как более правильные, чем они были в действительности.
    • Selective perception. Выборочное восприятие. Восприятие, искаженное ожиданиями.
    • Observer-expectancy effect. Эффект наблюдательского ожидания.Склонность исследователя ожидать определённого результата и бессознательно манипулировать ходом эксперимента (или неправильно интерпретировать его итоги), чтобы обнаружить именно этот результат
    • Expectation bias. Искажение из-за ожиданий. Склонность предпочитать данные, подтверждающие ожидания экспериментатора, данным, которые опровергают ожидания.
    • Observer effect. Эффект наблюдательского ожидания. Склонность исследователя ожидать определённого результата и бессознательно манипулировать ходом эксперимента (или неправильно интерпретировать его итоги), чтобы обнаружить именно этот результат
    • Ostrich effect. Эффект страуса. Эффект: игнорирование очевидно существующей негативной ситуации
    • Subjective validation. Субъективное подтверждение (субъективное придание значимости). Субъект считает что-либо правдивым/существенным, если ему важно, чтобы это было правдивым/существенным. Касается утверждений, взаимосвязей и т.д.
    • Continued influence effect. Подтверждения.Cклонность искать или интерпретировать информацию таким образом, чтобы подтвердить имеющиеся мнения.
    • Semmelweis reflex. Эффект Семмелвайса. Склонность отвергать новые факты или знания, если они противоречат устоявшимся догмам
  • Мы легко замечаем недостатки в других, чем в себе. Да, прежде чем вы увидите эту статью целиком в виде списка причуд, которые компрометируют то, как другие мыслят, осознайте, что вы — тоже субъект этих искажений.
    • Bias blind spot. Мертвая зона когнитивных искажений (слепое пятно в отношении когнитивных искажений). Склонность считать, что другие подвержены большему числу искажений, чем ты.
    • Naïve cynicism. Простодушный цинизм. Склонность ожидать от других больше эгоцентрических искажений, чем от себя
    • Naïve realism. Наивный реализм. Эпистемологическая позиция в философии и в обыденном сознании, согласно которой реально всё, что нормальный человек воспринимает в нормальных условиях и описывает общепринятым и соответствующим фактам языком

Проблема 2: Недостаток смысла.

Мир очень сбивает с толку, и мы в конечном итоге видим только его крошечный кусочек, но нам нужен какой-то смысл для того, чтобы выжить. После того, как поступает уменьшенный поток информации, мы соединяем точки, заполняем пробелы материалом, который, как нам кажется, мы уже знаем и обновляем наши ментальные модели мира.

  • Мы находим истории и закономерности даже в разреженных данных. Как только мы получаем крошечный кусочек информации о мире, а также отфильтровываем почти все остальное, мы никогда не можем позволить себе такую роскошь, как иметь полную историю. Это — то, как наш мозг восстанавливает мир, чтобы чувствовать его законченным в наших головах.
    • Confabulation. Ложная память. Способность считать сильно искаженные воспоминания правдивыми, искренне выдавать выдумку, фантазию за реальное воспоминание.
    • Clustering illusion. Иллюзия кластеризации. Склонность видеть паттерны и закономерности там, где их нет.
    • Insensitivity to sample size. Ошибка из-за размера выборки. Склонность не учитывать, что вариативность при малых размерах выборки — значительнее, чем при больших
    • Neglect of probability. Отрицание вероятности. Склонность пренебрегать одной или несколькими вероятностями при принятии решения в условиях неопределенности.
    • Anecdotal fallacy. Анекдотическая ошибка. Вы используете личный опыт или изолированный пример вместо звукового аргумента или убедительного свидетельства. Для людей часто намного легче верить чьим-то свидетельским показаниям в противоположность пониманию сложных данных и изменения через континуум. Количественные научные меры почти всегда более точны, чем личное восприятие и события, но наше предпочтение состоит в том, чтобы верить материальным вещам и/или словам кого-то, кому мы доверяем, чем ‘абстрактной’ статистической действительности.
    • Illusion of validity. Иллюзия обоснованности. Вера, что собранная в дальнейшем информация позволит делать более точные прогнозы (на самом деле — нет, не позволит).
    • Masked man fallacy. Ошибка про человека в маске. Ошибка в формальной логике, при которой замена обозначения на идентичное в верном утверждении приводит к неверному.
    • Recency illusion. Иллюзия новизны. Восприятие слова или языкового правила как нового, хотя в действительности оно используется давно.
    • Gambler’s fallacy. Ошибка игрока. Склонность думать, что прошлые события повлияют на будущие вероятности («чем больше раз подряд выбрасываешь решку, тем выше вероятность «орла»)
    • Hot-hand fallacy. Заблуждение «счастливой руки». Склонность считать, что тот, кому повезло, и при следующих попытках будет более везучим.
    • Illusory correlation. Иллюзорная корреляция. Ошибочная вера во взаимосвязь определённых переменных
    • Pareidolia. Парейдолия. Разновидность зрительных/слуховых иллюзий: появление образов, основой которых являют детали реального объекта. Пример — фигуры людей и животных в облаках, лицо человека на поверхности Марса и т.д.
    • Anthropomorphism. Антропоморфизм. Перенесение человеческого образа и его свойств на неодушевлённые предметы, на одушевлённых существ, на явления и силы природы, на сверхъестественных существ, на абстрактные понятия и др.
  • Мы заполняем характеристики из стереотипов, обобщений и предшествующих историй каждый раз, когда появляются новые конкретные случаи или пробелы в информации. Когда у нас есть частичная информация об определенной вещи, которая принадлежит группе вещей, с которыми мы достаточно хорошо знакомы, наш мозг не имеет никаких проблем, заполняя пробелы лучшими догадками или другими данными из проверенных источников. Удобно то, что тогда мы забываем, какие части были реальными, а какие были заполнены.
    • Group attribution error. Ошибка коллективной атрибуции. Вера в то, что свойства участника коллектива совпадают с общими коллективными свойствами. Вариант: вера в то, что решение группы отражает предпочтения всех участников группы (даже если есть свидетельства обратного).
    • Ultimate attribution error. Предельная ошибка атрибуции. Родственница фундаментальной ошибки атрибуции: тот же принцип (хорошее — моя заслуга, плохое — вина обстоятельств) распространяется на всю «свою» группу. Соответственно другие группы в плохом виноваты сами, а успехи их вызваны обстоятельствами и везением.
    • Stereotyping. Стереотипизация. Ожидание определенных свойств от человека из-за его принадлежности к какой-либо группе, при том, что о самом человеке значимых данных нет.
    • Essentialism. Эссенциализм. теоретическая и философская установка, характеризующаяся приписыванием некоторой сущности неизменного набора качеств и свойств, «концепция, предполагающая, что у вещей есть некая глубинная реальность, истинная природа, которую нельзя узреть напрямую, и что для нас важна именно эта скрытая сущность» Наука удовольствия. Почему мы любим то, что любим
    • Functional fixedness. Функциональная закрепленность. Склонность использовать предмет лишь таким образом, каким его традиционно используют.
    • Moral credential effect. Эффект морального доверия. Эффект: человек, которого считают объективным, с большей вероятностью проявит необъективность («сам поверит в то, что он всегда прав»).
    • Just-world hypothesis. Гипотеза «справедливого мира». Склонность верить: мир — справедлив, а жертвы — «сами виноваты».
    • Argument from fallacy. Ошибочность аргумента. Формальная ошибка анализа аргумента и вывода, который также содержит ошибку, ее заключение должно быть ложным.
    • Authority bias. Влияние авторитета.Тенденция приписать большую точность мнению авторитетной фигуры (не связанный с его содержанием) и быть под большим влиянием этого мнения
    • Automation bias. Эффект автоматизации. Тенденция зависеть чрезмерно от автоматизированных систем, которые могут привести к ошибочной автоматизированной информации, отвергающей правильные решения.
    • Bandwagon effect. Эффект повального увлечения. Cклонность делать что-то или верить во что-то лишь потому, что многие люди так делают или верят.
    • Placebo effect. Эффект плацебо. Основывается на целенаправленном или неосознанном внушении врачом или экспериментатором, что определенный фактор (препарат, способ действий) должен привести к желаемому результату
  • Мы представляем себе вещи и людей, с которыми мы знакомы или любим, лучше, чем вещи и людей, с которыми мы не знакомы или не любим. Как сказано выше, заполненные фрагменты восприятия в целом также включают построенные предположения о качестве и ценности вещи, на которую мы смотрим.
    • Halo effect. Эффект ореола (гало-эффект). Эффект: общее хорошее или плохое впечатление о чем-либо (явлении, человеке, вещи) распространяется на восприятие частных особенностей.
    • In-group bias. Искажение в пользу своей группы. Склонность отдавать предпочтение тем, кого вы считаете «своими», участниками вашей группы.
    • Out-group homogeneity bias. Ошибочная оценка единообразия в группе. Склонность воспринимать участников своего коллектива как относительно более разнообразных, чем участники других коллективов.
    • Cross-race effect. Эффект встречи разных рас. Эффект: представителей другой расы сложнее различать, чем представителей своей.
    • Cheerleader effect. Эффект чирлидера. Ошибка в оценке привлекательности: в группе люди кажутся более привлекательными, чем поодиночке.
    • Well-traveled road effect. Эффект хорошо знакомой дороги. Эффект: незнакомые маршруты кажутся более времязатратными.
    • Not invented here. Синдром неприятия чужой разработки. позиция в социальной, корпоративной или организационной культурах, при которой избегается использование или покупка уже существующих разработок, исследований, стандартов или знаний, из-за их внешних происхождения и затрат.
    • Reactive devaluation. Реактивное обесценивание. Эффект: предложение обесценивается, если исходит от противника или другого неприятного субъекта.
    • Positivity effect. Эффект положительности (эффект позитивности). Склонность объяснять успехи людей, которые вам нравятся, их личными качествами, а провалы — неудачными обстоятельствами.
  • Мы упрощаем вероятности и числа, чтобы сделать их легче для обдумывания. Наше подсознание ужасно разбирается в математике и в целом генерирует неправильные данные о вероятности происходящего, если какие-либо данные отсутствуют.
    • Mental accounting. Ментальный учет. Попытки описать процесс, посредством чего люди кодируют, категоризируют и оценивают экономические результаты
    • Normalcy bias. Искажение нормальности (в смысле «нормального распределения данных»). Отказ человека готовиться к несчастью, которое не случалось с ним раньше, или реагировать на него.
    • Appeal to probability fallacy. Является логической ошибкой объяснения чего-то само собой разумеющимся, потому что это, вероятно, имело бы место (или могло бы возможно иметь место).
    • Murphy’s Law. Закон Мерфи. Если есть вероятность того, что какая-нибудь неприятность может случиться, то она обязательно произойдёт
    • Subadditivity effect. Эффект субаддитивности. Эффект: вероятность целого оценивается как меньшая, чем сумма вероятностей его частей.
    • Survivorship bias. Систематическая ошибка выживаемости. Аналитическая ошибка: при расчете по данным одной группы («выжившие»), данные по другой («погибшие») не учитываются, так как их просто нет в наличии.
    • Zero sum bias. Эвристика нулевой суммы. Склонность уравновешивать возможные потери и приобретения, видеть в ситуации «игру с нулевой суммой». Например, стремиться выиграть, чтобы не оказаться проигравшим, забывая о возможности взаимовыгодного исхода.
    • Denomination effect. Эффект деноминации. Склонность людей с большей вероятностью тратить мелкие, «размененные», деньги, чем крупные купюры.
    • Magic number 7+-2. Магическое число семь плюс-минус два.Закономерность, согласно которой кратковременная человеческая память, как правило, не может запомнить и повторить более 7 ± 2 элементов.
  • Мы думаем, что знаем, что думают другие. В некоторых случаях это означает, что мы предполагаем, что они знают, то что знаем мы, в других случаях, мы предполагаем, что они думают о нас так столько же, сколько мы думаем о себе. В основном это просто случай того, что мы моделируем их собственный ум как свой (или в некоторых случаях как значительно менее сложный ум, чем собственный).
    • Curse of knowledge. Проклятие знания. Эффект: хорошо знакомым с проблемой людям очень сложно рассматривать её с точки зрения менее информированных людей («учитель не может подобрать понятные объяснения сложной темы для учеников»).
    • Illusion of transparency. Иллюзия прозрачности. Склонность переоценивать и свою способность понимать других, и способность других понимать тебя.
    • Spotlight effect. Эффект прожектора. психологический эффект, заключающийся в тенденции к переоценке того, насколько действия человека и его внешний вид заметны для окружающих.
    • Illusion of external agency. Иллюзия постороннего участия. Склонность объяснять свои предпочтения влиянием внешних сил, которые «положительны» (эффективны, проницательны, дружественны).
    • Illusion of asymmetric insight. Иллюзия асимметричной проницательности.Склонность считать, что ты знаешь людей лучше, чем они знают тебя.
    • Extrinsic incentive error. Отклонение в сторону внешних стимулов. (условное)Исключение из ряда фундаментальных ошибок атрибуции: другие люди видятся как обладатели внешней (например, денежной) мотивации, а себя человек рассматривает как внутренне мотивированного.
  • Мы проектируем наше текущее мышление и предположения на прошлое и будущее. Преувеличенные тем фактом, что мы не очень хорошо представляем себе, как быстро или медленно вещи будут происходить или изменятся с течением времени.
    • Hindsight bias. Ретроспективное искажение. Эффект «я так и знал!»: прошлое кажется более предсказуемым из настоящего. «Знание задним числом»
    • Outcome bias. Отклонение в сторону результата. Тенденция судить о решениях по их окончательным результатам, вместо того чтобы оценивать качество решений по обстоятельствам того момента времени, когда они были приняты («Победителей не судят»).
    • Moral luck. Случайная добродетель (отклонение в сторону результата). Склонность оценивать добродетельность поступка (ругать или хвалить) по результатам, к которым этот поступок привел — как будто совершивший поступок заранее знал последствия или мог их контролировать (на самом деле всё часто определяется вмешательством случайности)
    • Declinism.
    • Telescoping effect. Эффект телескопа. Недавние события кажутся более отдалёнными, а более давние события — более близкими во времени.
    • Rosy retrospection. Приукрашивание прошлого. Эффект: прошлое кажется лучшим, чем оно было на самом деле.
    • Impact bias. Переоценка воздействия. Склонность переоценивать длительность или интенсивность будущих переживаний, вызванных неким событием.
    • Pessimism bias. Искажение, вызванное пессимизмом. Склонность постоянно переоценивать вероятность негативного исхода.
    • Planning fallacy. Ошибка планирования. Склонность недооценивать время выполнения задачи
    • Time-saving bias. Ошибка сэкономленного времени. Склонность неправильно подсчитывать время, которое высвободится/потратится при ускорении/замедлении.
    • Pro-innovation bias. Искажение изобретателя. Склонность слишком высоко оценивать полезность изобретения или нововведения, не замечать его недостатков, верить в его быстрое внедрение
    • Projection bias. Проективное искажение (Искажение в связи с проекцией). Склонность бессознательно предполагать, что у других людей — такие же мысли, ценности и позиции, что и у тебя. И думать, что в будущем они у тебя не изменятся.
    • Restraint bias. Искажение сдержанности. Склонность переоценивать свою способность контролировать импульсивное поведение.
    • Self-consistency bias. Кажущееся постоянство. Склонность неправильно помнить чьи-либо прошлые позиции/поведение, сближая их с теперешними позициями/поведением

А теперь ненадолго прервемся, чтобы мозг от переизбытка информации не начал выкидывать свои хитрые трюки. Продолжение — перевод и расшифровку проблем 3 и 4 — читайте в в следующем посте.

Когнитивные искажения морочат нам голову | Наука | ИноСМИ

Я смотрю на фотографию самого себя на 20 лет старше, чем сейчас. Нет, это не сумеречная зона, скорее я пытаюсь избавиться от уклона в настоящее — тенденции человека к более тщательному взвешиванию того из двух моментов будущего, который более приближен к настоящему. Многие научные исследования показали, что данная тенденция — известная также как гиперболическое дисконтирование — носит стабильный и устойчивый характер.

По большей части акцент делается на деньгах. Когда людей спрашивают, предпочтут они получить, скажем, 150 долларов сегодня или 180 долларов через месяц, большинство выберет первый вариант. А на вопрос, выберут ли они 150 долларов через год или 180 долларов через 13 месяцев, большинство готовы подождать месяц ради 30 долларов сверху.

Разумеется, феномен уклона в настоящее проявляется не только в экспериментах, но и в реальном мире. В Соединенных Штатах, например, люди откладывают крайне мало денег к моменту выхода на пенсию — даже если зарабатывают достаточно, чтобы не тратить всю зарплату на текущие расходы, и даже если работают в одной из таких компаний, которые вкладывают в пенсионный план дополнительные средства.

Такое положение дел заставило ученого по имени Хэл Хершфилд поэкспериментировать с фотографиями. Хершфилд — профессор маркетинга Калифорнийского университете в Лос-Анджелесе, чьи исследования начинаются с идеи об отсутствии связи между нами сегодня и в будущем. В результате чего, как он объяснил в одной из статей 2011 года, «откладывать деньги — все равно что выбирать между тем, чтобы потратить их сегодня или отдать незнакомому человеку много лет спустя». В статье описана попытка Хершфилда и нескольких его коллег изменить подобный образ мышления. Они просили студентов в течение минуты смотреть на цифровые представления себя в виде аватаров, показывающих, как они будут выглядеть в возрасте 70 лет. Затем студентов спросили, что они станут делать, если вдруг получат тысячу долларов. Студенты, смотревшие в глаза своему старшему «я», ответили, что положат на свой пенсионный счет в среднем 172 доллара, что вдвое больше той суммы, которую назвали члены контрольной группы, готовые выделить лишь около 80 долларов.

Сам я уже немолод — разменял седьмой десяток, если вам интересно — и поэтому Хершфилд предоставил мне возможность увидеть образ не только самого себя после восьмидесяти (со старческими пятнами, непомерно асимметричным лицом и морщинами глубиной с выбоины на дорогах Манхэттена), но и моей дочери спустя десятилетия. Он объяснил, что это должно заставить меня задаться вопросом о том, что я почувствую к концу жизни, если о моих детях никто не позаботится?

Когда люди слышат слово предубеждение, многим, если не большинству, на ум приходят либо расовые предрассудки, либо склонные к тенденциозному освещению новостей информагентства. Уклон в настоящее, напротив, является примером когнитивного искажения — совокупности ошибочных типов мышления, встроенных в человеческий мозг. Коллекция, надо сказать, значительная. Статья Википедии под названием «Список когнитивных искажений» содержит 185 пунктов: от эффекта актера и наблюдателя (тенденция объяснять собственные промахи особенностями ситуации, а неприятности, происходящие с окружающими — негативными качествами их личности) до эффекта Зейгарник (когда незавершенные или прерванные действия запоминаются лучше, чем завершенные).

Некоторые из 185 пунктов сомнительны и даже ненаучны. Эффект IKEA, например, определяется как «тенденция покупателей непропорционально высоко оценивать значимость (ценность) товаров, которые они создают отчасти сами». Но примерно 100 искажений действительно существуют, что было неоднократно доказано, и могут внести в нашу жизнь существенную путаницу.

Заблуждение игрока вселяет в нас абсолютную уверенность в том, что, если пять раз подряд монета выпала решкой, вероятнее всего, в шестой раз она приземлится вверх орлом. На самом же деле, шансы всегда составляют 50 на 50. Оптимистический уклон заставляет нас постоянно недооценивать затраты и продолжительность практически каждого предпринимаемого проекта. Эффект доступности заставляет нас думать, что, скажем, путешествие самолетом опаснее путешествия на автомобиле. С точки зрения нашей памяти и воображения, образы авиакатастроф носят более яркий и драматический характер, а потому доступны нашему сознанию в куда большей степени.

Эффект привязки — тенденция излишне полагаться при принятии решений, оценках или прогнозах на первую предложенную информацию, особенно если она представлена в числовой форме. Именно по этой причине участники переговоров намеренно начинают со слишком низких или слишком высоких цифр, поскольку знают, что те станут «якорем» в контексте последующих сделок. Ярким примером эффекта привязки является эксперимент, в ходе которого участников попросили понаблюдать за колесом рулетки, на котором выпадало либо 10, либо 65, а потом угадать долю африканских стран в ООН. Те, кто видел, что колесо останавливается на 10, называли в среднем 25%, остальные — в районе 45%. (На момент проведения эксперимента правильным ответом было бы 28%.)

Последствия искажений проявляются не только в контексте отдельно взятого человека. В прошлом году президент США Дональд Трамп решил отправить новые войска в Афганистан, совершив тем самым ошибку невозвратных затрат. Он заявил: «Наша страна должна добиться почетного и надежного результата, достойного огромных жертв, что были принесены, особенно в плане человеческих жизней». Подобного рода мышление велит нам сделать выбор в пользу неудачного капиталовложения исключительно из-за тех средств, которые мы уже на нем потеряли; доесть в ресторане неаппетитное блюдо, ведь мы же за него заплатили; вести обреченную на проигрыш войну из-за вложенных в нее человеческих и материальных ресурсов. Подобное мышление можно считать заведомо никудышным.

Если бы мне пришлось выбрать из списка какое-то одно, наиболее распространенное и разрушительное искажение, я бы, наверное, назвал предвзятость подтверждения. Эта тенденция заставляет нас искать доказательства, подтверждающие заранее имевшиеся в нашем сознании концепции, рассматривать факты и идеи, с которыми мы сталкиваемся, в качестве дальнейшего подтверждения и сбрасывать со счетов/игнорировать любое доказательство в пользу какой-либо альтернативной точки зрения. Наиболее беззастенчиво предвзятость подтверждения проявляется в нынешних политических разногласиях, когда каждая из сторон не может допустить, чтобы другая оказалось хоть в чем-то права.

Предвзятость подтверждения проявляется и во многих других обстоятельствах, иногда ее последствия просто ужасны. Процитирую доклад 2005 года о подготовке к войне в Ираке: «При наличии доказательств того, что Ирак не располагает [оружием массового уничтожения], аналитики, как правило, такую информацию не учитывали. Вместо того, чтобы взвешивать доказательства в независимом порядке, аналитики принимали ту информацию, что соответствовала общепринятой теории, а противоречившую ей — отвергали».

Более-менее четко идею когнитивных искажений и эвристики ошибок — методов и общих правил, с помощью которых мы принимаем суждения и делаем прогнозы, — описали в 1970-х Амос Тверски и Даниел Канеман, социологи, чья карьера началась в Израиле, а продолжилась в Соединенных Штатах. Именно они проводили эксперимент «доля африканских стран в ООН». Тверски умер в 1996 году. А Канеман получил Нобелевскую премию 2002 года по экономике за их совместную работу, итоги которой он кратко сформулировал в своем бестселлере 2011 года «Думай медленно, решай быстро». История местами спорного сотрудничества Тверски и Канемана рассказана в прошлогодней книге Майкла Льюиса «Отмененный проект». А более ранняя книга Льюиса под названием «Как математика изменила самую популярную спортивную лигу в мире» была о противостоянии волейбольного менеджера Билли Бина когнитивным искажениям приверженцев старой школы, а именно фундаментальной ошибке атрибуции, когда при оценке чьего-то поведения мы придаем слишком большое значение его личным качествам и недооцениваем внешние факторы, многие из которых измеряются статистикой.

© flickr.com, Kevin HutchinsonМозг

Другой ключевой фигурой в этой области является экономист из Чикагского университета Ричард Талер. Одним из искажений, с которым его связывают больше остальных, является эффект владения, завышение ценности покупки сразу после её приобретения. В ходе одного из экспериментов, проведенных Талером, Канеманом и Джеком Кнетчем, половине участников дали кружку и спросили, за сколько они бы ее продали. Средний ответ составил 5,78 доллара. Остальные сказали, что купят ту же кружку в среднем за 2,21 доллара. Что противоречит классической экономической теории: в определенное время среди определенной группы населения товар имеет такую рыночную стоимость, которая не зависит от того, владеет им кто-либо или нет. В 2017 году Талер получил Нобелевскую премию по экономике.

Большинство книг и статей о когнитивных искажениях, как правило, ближе к концу, содержат фразу, похожую на мысль из книги «Думая медленно, решай быстро»: «Вопрос, который чаще всего задают о когнитивных иллюзиях, заключается в том, можно ли их преодолеть. Идейный посыл… неутешителен».

Канеман и другие проводят аналогию, основанную на понимании иллюзии Мюллера-Лайера, возникающей при наблюдении отрезков, обрамленных стрелками. Заключается она в том, что отрезок, обрамленный «остриями», кажется короче отрезка, обрамленного «хвостиками», на деле же длина обоих одинакова. Принципиальный момент: даже измерив линии и обнаружив, что они равны, а также выслушав объяснение неврологической подоплеки иллюзии, мы по-прежнему считаем одну линию короче другой.

Как минимум в контексте данной оптической иллюзии наш медлительный, аналитический ум — то, что Канеман называет «Системой 2», — распознаст подвох Мюллера-Лайера и убедит себя не доверять восприятию «Системы 1», которая срабатывает автоматически и очень быстро. Но в реальном мире все не так просто, ведь мы имеем дело не с отрезками, а с людьми и ситуациями. «К сожалению, эта разумная процедура вряд ли осуществится там, где она нужнее всего, — пишет Канеман. — Всем бы хотелось, чтобы предупреждающий звонок громко звенел каждый раз, как только нам грозит ошибка, но такого звонка нет».

Поскольку искажения кажутся столь укоренившимися и неизменными, бóльшая часть внимания, уделяемого их противодействию, касалась не самих проблемных мыслей, суждений или прогнозов, а изменения поведения в форме стимулов и побуждений. Например, хотя уклон в настоящее до сих пор представлялся труднопреодолимым, работодатели смогли подтолкнуть сотрудников к выделению средств на пенсионные планы, сделав экономию параметром по умолчанию; активные усилия должны предприниматься, чтобы не участвовать. То есть лень и бездействие могут быть сильнее предубеждений. Процедура также может быть организована таким образом, чтобы отговорить или помешать людям руководствоваться в своих действиях тенденциозностью. Известный пример: чек-листы для врачей и медсестер, представленные Атулом Гаванде в книге «Чек-лист. Как избежать глупых ошибок, ведущих к фатальным последствиям».

Действительно ли, однако, от предубеждений невозможно ни избавиться, ни значительно их смягчить? Кое-какие исследования дали предварительный ответ на этот вопрос. Эксперименты основаны на реакциях и ответах произвольно выбранных субъектов, многие из которых являются студентами, то есть их больше волнуют те 20 долларов, что им заплатят за участие, а не изменение или изучение поведения и мышления. Но что если человек, подвергающийся мероприятиям по избавлению от предрассудков, настроен решительно и сам заявил о желании участвовать? Иными словами, что если бы речь шла обо мне?

Естественно, я написал Канеману, который в свои 84 года все еще работает в Школе общественных и международных отношений имени Вудро Вильсона при Принстонском университете, но большую часть времени проводит на Манхэттене. Он быстро ответил мне, согласившись встретиться. «Я должен, — сказал он, — хотя бы попытаться отговорить вас от задуманного».

Я встретился с профессором в кафе «Хлеб насущный» на нижнем Манхэттене. Он оказался высоким, учтивым и приветливым человеком с ярко выраженным акцентом и кривой улыбкой. За яблочным пирогом и чаем с молоком он сказал мне: «Темперамент имеет прямое отношение к моей позиции. Пессимистичнее меня вы не найдете никого».

© AP Photo, Heather de Rivera/McCarroll Lab/Harvard via APНейроны мозга

В этом контексте его пессимизм связан, во-первых, с невозможностью внесения каких-либо изменений в «Систему 1», ту часть нашего мозга, которая отличается быстротой мысли и выносит ошибочные суждения, эквивалентные иллюзии Мюллера-Лайера. «Я вижу неравные линии, — сказал он. — Цель состоит в том, чтобы не доверять тому, что, как мне кажется, я вижу. Понять, что глазам верить не стóит». Это реально в случае с оптической иллюзией, отметил он, но чрезвычайно сложно в контексте реальных когнитивных искажений.

По словам Канемана, эффективнее всего проверить их можно извне: другие способны воспринимать наши ошибки легче нас самих. И «системы, отличающиеся медленным мышлением», как он выразился, могут определять стратегии, включающие контроль за отдельными решениями и прогнозами. Здесь также могут потребоваться чек-листы и «премортемы» — идея и термин, придуманные когнитивным психологом Гэри Кляйном. Премортем есть попытка противостоять оптимистическому уклону, когда от членов команды требуют представить, что проект закончится неудачно, и написать об этом пару предложений. Это упражнение, как оказалось, помогает людям думать наперед.

«Моя позиция такова: ничто из этого не имеет влияния на „Систему 1″, — подчеркнул Канеман. — Вы не можете улучшить интуицию. Возможно, пройдя долгосрочное обучение, проведя множество разговоров и подвергнувшись воздействию поведенческой экономики, вы сможете обосновать первоначальный стимул и обязать „Систему 2″ к соблюдению правил. К сожалению, для большинства людей в пылу споров и дискуссий правила улетучиваются как дым».

Во время нашего общения с Канеманом он параллельно переписывался с Ричардом Нисбеттом, профессором социальной психологии из Мичиганского университета. Они поддерживали профессиональный отношения на протяжении десятилетий. Нисбетт сыграл важную роль в распространении мыслей Канемана и Тверски в книге 1980 года под названием «Человеческое умозаключение: стратегии и недостатки социальных суждений». Канеман, в свою очередь, в книге «Думай медленно, решай быстро» описывает раннюю статью Нисбетта, в которой демонстрировалось нежелание субъектов верить статистическим и другим общепринятым данным, а также тенденция основывать свои суждения на отдельных примерах и наглядных случаях из жизни. (Это искажение известно как игнорирование базовой информации.)

Project Syndicate
Aftonbladet
BBC
Medium
Однако с течением времени Нисбетт в своих исследованиях и размышлениях стал подчеркивать возможность обучения людей преодолевать или избегать ряд ловушек, включая игнорирование базовой информации, фундаментальную ошибку атрибуции и ошибку невозвратных затрат. Он написал Канеману электронное письмо отчасти потому, что работал над мемуарами и хотел обсудить состоявшийся на недавней конференции разговор с Канеманом и Тверски. У Нисбетта создалось впечатление, что коллеги рассердились, восприняв все его слова и действия скрытой критикой в свой адрес. Канеман вспомнил тот разговор и ответил: «Да, помнится, мы были (несколько) раздражены вашей работой над простотой обучения статистическим интуитивным представлениям (и гнев чрезвычайно силен)».

Когда Нисбетта просят привести пример своего подхода, он обычно упоминает исследование, касающееся бейсбола. Студентам Мичиганского университета звонили под предлогом проведения опроса о спорте и спрашивали, почему в высшей лиге всегда есть несколько баттеров (отбивающих), которые в начале сезона наносят в среднем 450 ударов, но при этом сезон со столь высоким средним показателем не заканчивал никто. Около половины студентов, у которых не было такого предмета как «Введение в статистику», дают неверные ответы вроде «питчеры привыкают к баттерам», «баттеры устают по ходу сезона» и так далее. И примерно половина дает правильный ответ, ссылаясь на закон больших чисел, который гласит, что выпадающие результаты встречаются намного чаще при малом объеме выборки. В течение сезона, по мере увеличения количества выходов к бите, регрессия к среднему значению неизбежна. Когда Нисбетт задает тот же вопрос студентам, которые с курсом статистики знакомы, правильный ответ дают около 70%. Вопреки мнению Канемана, он считает, что подобный результат говорит о возможности включения закона больших чисел в «Систему 2» — а, может, и в «Систему 1», при наличии даже минимальных стимулов.

Второй излюбленный пример Нисбетта заключается в том, что экономисты, усвоившие уроки ошибки невозвратных затрат, часто уходят с плохих фильмов и не доедают невкусные блюда в ресторане.

Я поговорил с Нисбеттом по телефону и спросил о противоречиях с Канеманом. Его голос показался мне немного неуверенным. «Дэнни был, казалось, убежден в тривиальности того, что демонстрировал я, — сказал он. — Ему было ясно одно: обучение безнадежно для любого рода суждений. Но мы тестировали студентов Мичиганского университета в течение четырех лет, и они показывают прекрасные результаты касаемо способности решать проблемы».

В своей книге 2015 года «Мозгоускорители. Как научиться эффективно мыслить, используя приемы из разных наук» Нисбетт пишет следующее: «Благодаря собственным исследованиям процесса обучения людей статистическому мышлению я знаю, что всего нескольких примеров в двух или трех областях достаточно, чтобы улучшить мотивацию людей в условиях бесконечно большого количества событий».

В одном из своих электронных писем к Нисбетту Канеман предположил, что в значительной степени разница между их позициями зависит от темперамента: пессимист против оптимиста. В ответ Нисбетт предложил еще один фактор: «Вы с Амосом специализировались на сложных проблемах, в ходе решения которых приходили к неверным ответам. Я же начал изучать легкие проблемы, в которых вы, ребята, не ошибетесь никогда, а вот обычные люди ошибутся точно… Тогда можно рассмотреть влияние обучения на легкие проблемы, и те оказываются в конечном итоге огромными».

Пример простой проблемы — баттер в начале бейсбольного сезона. Примером трудной является так называемая «проблема Линды», которая легла в основу одной из ранних статей Канемана и Тверски. Говоря простым языком, в ходе эксперимента участникам рассказывали о некой вымышленной женщине по имени Линда, ее идеях о социальной справедливости, учебе в колледже по специальности философия, участии в демонстрациях против использования атомной энергии и так далее. Затем испытуемых спросили, что из следующего более вероятно: а) что Линда кассир в банке или b) что она кассир в банке и активистка феминистского движения. Правильный ответ (a), поскольку выполнение одного условия всегда более вероятно, чем двух сразу. Но из-за ошибки конъюнкции (предположения о том, что несколько определенных условий вероятнее одного общего) и эвристики репрезентативности (наше страстное желание использовать стереотипы) более 80% опрошенных студентов выбрали ответ (b).

Нисбетт справедливо спрашивает, как часто в реальной жизни нам приходится делать суждения, подобные тому, что требуется в «проблеме Линды». Я не могу вспомнить ни одной ситуации из своей жизни. Это такая логическая уловка.

Нисбетт предложил мне пройти онлайн-курс «Мозгоускорители. Критическое мышление в информационный век», в котором он говорит о том, что считает наиболее эффективными навыками и концепциями избавления от склонности к определенным оценкам. После чего мне было предложено ответить на вопросы, которые он задает студентам Мичиганского университета. Так я и сделал.

Курс состоит из восьми уроков с графиками и викторинами, а сам Нисбетт появляется на экране в образе авторитетного, но отзывчивого профессора психологии. Рекомендую всем. Он объясняет эвристику доступности таким образом: «Люди удивляются, что самоубийств происходит больше, чем убийств, а вследствие утопления умирает больше, чем в пожарах. Люди всегда уверены в росте преступности», даже если это не так.

© AP Photo, Andres KudackiПрохожие на улице в Мадриде

Он обращается к логической ошибочности склонности к предвзятости подтверждения и объясняет, что при проверке считающейся верной гипотезы люди склонны искать подтверждающие ее примеры. Но Нисбетт демонстрирует, что независимо от количества собранных примеров, мы никогда не сможем это утверждение доказать. Правильнее было бы поискать опровержение.

А к проблеме игнорирования базовой информации он подходит с помощью своей собственной стратегии выбора фильмов для просмотра. Его решение никогда не зависит ни от рекламы, ни от конкретных обзоров, ни от импонирующего названия. «Я руководствуюсь базовой информацией и выбираю те книги и фильмы, что рекомендуют люди, которым я доверяю. — говорит он. — Большинство считают себя не такими, как все. Но это не так».

По окончании мною его курса Нисбетт отправил мне опросник, которым они с коллегами пользуются в Мичиганском университете. В нем описано несколько десятков проблем с целью измерения устойчивости субъектов к когнитивным искажениям. Один из примеров представлен здесь.

Из-за предвзятости подтверждения многие неподготовленные люди отвечают (e). Но правильным является ответ (с). Единственное возможное решение в данной ситуации — опровергнуть правило, а единственный способ сделать это — перевернуть карты с изображением буквы «А» (правило будет опровергнуто, если на другой стороне окажется что-то помимо четверки) и числом 7 (правило будет опровергнуто, если на другой стороне окажется буква «А»).

Я правильно понял суть, и Нисбетт, получив мой ответ, написал: «Очень немногие старшекурсники Мичиганского университета справились так же хорошо, как вы, если таковые были вообще. Уверен, что такой же результат показало по крайней мере несколько студентов-психологов второго курса и выше. Ваш результат близок к идеалу».

Однако же я не чувствовал, что благодаря прочтению «Мозгоускорителей» и прохождению онлайн-курса избавился от своих предубеждений. Во-первых, меня не тестировали досрочно, так что я мог считаться относительно беспристрастным. С другой стороны, многие из тестовых вопросов, в том числе приведенный выше, показались мне далекими от ситуаций, с которыми можно столкнуться в повседневной жизни. Кроме того, я был, выражаясь словами Канемана, «подкован». В отличие от старшекурсников Мичиганского университета, я точно знал, почему мне задают эти вопросы, и подошел к их решению соответствующим образом.

Нисбетт, со своей стороны, настаивал на том, что результаты были весьма демонстративны. «Раз вы добиваетесь результатов в контексте тестирования, — сказал он мне, — то добьетесь их и в реальном мире».

Курс Нисбетта и предоставленная Хэлом Хершфилдом возможность встретиться с более старшей версией себя — не единственные методы избавления склонности к определенным оценкам. Нью-йоркский Институт нейролидерства предлагает организациям и частным лицам различные тренинги, вебинары и конференции, обещающие, среди прочего, использовать когнитивную психологию с целью обучения участников противостоять предубеждениям. В этом году двухдневный саммит пройдет в Нью-Йорке; заплатив 2 845 долларов, вы могли бы, к примеру, узнать, «почему наш мозг так слаб в плане мыслей о будущем, и как мы можем улучшить его работу?»

Профессор Уортонской школы бизнеса при Пенсильванском университете Филип Тетлок со своей женой и научным партнером Барбарой Меллерс в течение многих лет изучают так называемое «суперпрогнозирование» и суперпрогнозистов — людей, которым удается обходить когнитивные искажения и предсказывать будущие события с гораздо большей точностью, чем появляющиеся на ТВ ученые так называемые эксперты. В книге Тетлока «Суперпрогнозисты: искусство и наука прогноза» (написанной в соавторстве с Дэном Гарднером), а также посредством коммерческого предприятия Good Judgment, учрежденного им и Меллерс, профессор делится ноу-хау суперпрогнозистов.

Одним из наиболее важных факторов является то, что Тетлок называет «взглядом снаружи». Взгляд изнутри, в свою очередь, является результатом фундаментальной ошибки атрибуции, игнорирования базовой информации и других предубеждений, которые беспрестанно склоняют нас полагаться в своих суждениях и прогнозах не на данные и статистику, а на удачные и яркие примеры. Тетлок объясняет: «На чьей-то свадьбе к вам подходят и спрашивают, сколько, по-вашему, этот брак продлится. Если вы удивлены, поскольку знаете, что новобрачные действительно любят друг друга, то оказались вовлечены во взгляд изнутри». Около 40% браков заканчиваются разводом, и эта статистика гораздо более показательна с точки зрения судьбы любого конкретного брака, чем влюбленно-восторженные взгляды. На церемонии делиться данным пониманием не стóит.

Среди недавних методов избавления от предрасположенности к определенным оценкам наиболее перспективными ученые сочли ряд видеоигр. Они возникли после войны в Ираке и приведшего к ней катастрофического просчета с оружием массового уничтожения, который расшатал основы всего разведывательного сообщества. В 2006 году, стремясь предотвратить еще одну ошибку схожего масштаба, правительство США создало Агентство передовых исследований в сфере разведки (IARPA) с целью использования новейших технологий для улучшения процесса сбора и анализа разведывательных данных. В 2011 году IARPA разработала программу под названием «Сириус» для финансирования развития «серьезных» видеоигр, которые могли смягчить или бороться с тем, что считается шестью наиболее пагубными когнитивными искажениями: предвзятость подтверждения, фундаментальная ошибка атрибуции, слепое пятно в отношении когнитивных искажений (тенденция никак не компенсировать свои собственные предубеждения), эффект привязки, эвристика репрезентативности и проективное искажение (предположение о том, что мышление окружающих идентично вашему собственному).

Целью разработки таких игр задались шесть команд, но до финиша дошли лишь две. Наибольшее внимание получила та, которой руководил Кэри Мореведж, ныне профессор Бостонского университета. Совместно с сотрудниками компаний «Криэйтив Технолоджис» и «Лейдос» Мореведж разработал игру «Пропавшая без вести» (Missing). Одни субъекты играли в игру, прохождение которой занимает около трех часов, а другие смотрели видео о когнитивных искажениях. Все они прошли тестирование на навыки смягчения предрасположенности к определенным оценкам до тренировки, сразу после нее и, наконец, спустя 8-12 недель.

После прохождения теста я сыграл в игру, где представлено множество мужчин и женщин в облегающей одежде и не лучшим образом ориентирующихся в окружающем мире. Игрок принимает образ соседки женщины по имени Терри Хьюз, которая таинственным образом пропала без вести в первой части игры. Во второй же она вновь появилась и нуждается в помощи, чтобы разобраться с происходящими в ее компании махинациями. По пути вас просят делать суждения и прогнозы, некоторые из которых имеют отношение к истории, а некоторые — нет, и все они призваны выявить арсенал ваших предубеждений. В соответствии со своими ответами вы тут же получаете замечания и комментарии.

© AFP 2017, Mauricio LimaЧелвеческий мозг на выставке в Сан-Паулу

Например, когда вы обыскиваете квартиру Терри, в дверь стучит комендант здания и ни с того ни с сего спрашивает о Мэри, другом арендаторе, которого называет человеком неспортивным. Он говорит, что 70% арендаторов ходят в спортзал «У Рокки», 10% — в «Энтропи фитнес», а остальные 20% остаются дома и смотрят «Нетфликс». Как вы думаете, спрашивает он, в какой спортзал, вероятнее всего, ходит Мэри? Неверный ответ, основанный на игнорировании базовой информации (форма эвристики репрезентативности), звучит как «Ни в какой. Мэри — диванный боец». Правильный ответ основан на данных, любезно предоставленных комендантом: тренажерный зал «У Рокки». Когда участников исследования опросили сразу после игры или просмотра видео, а затем через пару месяцев, все улучшили свой результат, причем у игравших он оказался выше.

Когда я разговаривал с Мореведжем, он сказал, что считает результаты подтверждением исследований и идей Ричарда Нисбетта. «Работа Нисбетта в значительной степени основана на предположении о том, что обучение не способно уменьшать склонность к определенным оценкам, — сказал он мне. — Литература по разного рода методикам обучению говорит, что книги и занятия по сути неэффективны, хоть и являются прекрасным развлечением. А вот от игры воздействие гораздо больше. Это удивило всех».

Вскоре после завершения игры я снова прошел тест и показал смешанные результаты. Выявилось заметное улучшение с точки зрения предвзятости подтверждения, фундаментальной ошибки атрибуции и эвристики репрезентативности и небольшое — в контексте слепого пятна в отношении когнитивных искажений и эффекта привязки. Самый низкий первоначальный балл (44,8%) я показал в проективном искажении. После игры он даже немного снизился. (Мне действительно нужно перестать думать, что все мыслят в точности как я.) Но даже положительные результаты напомнили мне слова Даниела Канемана: «Анкеты меня не убеждают. Тест можно дать даже спустя пару лет, но ведь он дает тестируемому подсказки и напоминает, о чем вообще речь».

Я прошел тесты Нисбетта и Мореведжа на мониторе компьютера, а не на бумаге, но суть от этого не меняется. Одно дело, когда эффект от обучения проявляется в виде улучшенных результатов при тестировании, и совсем другое — когда эффект проявляется в виде поведения в реальных условиях. Мореведж сказал мне, что некоторые ориентировочные пути решения задач реальной сложности по ходу игры в «Пропавшую без вести» предоставили «многообещающие результаты», но говорить о них пока слишком рано.

Я не такой пессимист, как Даниел Канеман, и не такой оптимист, как Ричард Нисбетт, но несколько изменений в своем поведении заметил. Например, недавно была жара, и я решил купить в торговом автомате бутылку воды за два доллара. Бутылка не выпала, ввиду поломки механизма, удерживающего ее на месте. Однако рядом был еще один ряд бутылок с водой, и, очевидно, в этом ряду механизм был исправен. Мой инстинкт заключался в том, чтобы не покупать бутылку из «хорошего» ряда, поскольку стоила она вдвое больше. Но все мои познания в области когнитивных искажений говорили, что данное мышление ошибочно. Я бы потратил за воду два доллара — цена, которую был готов заплатить, как уже было установлено. Так что я внес деньги, получил воду и с радостью ее выпил.

В дальнейшем я приложу все усилия, чтобы следить за своими мыслями и реакциями. Допустим, я ищу научного ассистента. Кандидат А имеет безупречные рекомендации и опыт, но оказывается косноязычным и не способным смотреть в глаза; кандидат Б любит говорить о баскетболе — моя любимая тема! — но рекомендации у него как минимум посредственные. Смогу ли я преодолеть фундаментальную ошибку атрибуции и нанять кандидата А?

Или, скажем, есть некий чиновник, которого я презираю из-за характера, поведения и идеологии, но под его началом экономика страны отличается высокой эффективностью. Смогу ли я избавиться от сильной предвзятости подтверждения и хотя бы допустить возможность того, что этот человек заслуживает доверия?

Что касается вопроса, который Хэл Хершфилд поднял в первую очередь — планирование порядка распоряжения наследуемым имуществом, — я всегда был похож на муравьев, которые делают запасы на зиму, пока кузнечики поют и резвятся. Но экономить я умею столь же хорошо как и откладывать все в долгий ящик. Несколько месяцев назад мой финансовый советник предложил бесплатно оценить мое завещание, составленное пару десятилетий назад и, безусловно, нуждавшееся в пересмотре. В процессе составления завещания есть нечто такое, что создает целую бурю предрассудков, начиная с эффекта неоднозначности (когда «принятие решения страдает из-за недостатка информации или неоднозначности», согласно определению Википедии) и заканчивая искажением нормальности (склонность забывать о самосохранении в экстренной ситуации), а кульминацией всего выступает эффект страуса (правда нужно объяснять?). Мой советник прислал мне предоплаченное письмо, которое до сих пор лежит на полу моего кабинета и собирает пыль. И как подсказывает мне склонность к запоздалым суждениям, я знал, что именно так и произойдет.

Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ.

Список когнитивных искажений — Традиция

Материал из свободной русской энциклопедии «Традиция»

Когнити́вные искаже́ния — систематические ошибки в мышлении или патерны отклонений в суждениях, которые происходят в определённых ситуациях. Существование большинства из этих когнитивных искажений было доказано в психологических экспериментах.

Когнитивные искажения являются примером эволюционно сложившегося ментального поведения. Некоторые из них выполняют адапитивную функцию, поскольку они способствуют более эффективным действиям или более быстрым решениям. Другие, по-видимому, происходят из отсуствия соотвествующих навыков мышления, или из-за неуместного применения навыков, бывших адаптивными в других условиях.

Принятие решений и искажения, связанные с поведением[править]

Эффект повального увлечения 
тенденция делать (или верить в) вещи, потому что много других людей делают это (или верят в это). Относится к групповому мышлению, стадному поведению и маниям.
Ошибка, связанная с частными примерами 
игнорирование доступных статистических данных, в пользу частных случаев.
Слепое пятно в отношении когнитивных искажений 
тенденция не компенсировать свои собственные когнитивные искажения.
Искажение в восприятии сделанного выбора 
тенденция помнить свои выборы как более правильные, чем они были на самом деле.
Систематическая ошибка, связанная с подтверждением 
тенденция искать или интерпретировать информацию таким образом, чтобы подтвердить имевшиеся заранее концепции.
Систематическая ошибка согласованности 
тенденция проверять гипотезы исключительно путём прямого тестирования, вместо того, чтобы тестировать возможные альтернативные гипотезы.
Эффект контраста 
усиление или преуменьшение значения одного измерения, когда оно сравнивается с недавно наблюдавшимся контрастным объектом. Например, смерть одного человека может показаться незначительной в сравнении со смертью миллионов людей в лагерях.
Профессиональная деформация 
тенденция смотреть на вещи согласно правилам, общепринятым для своей профессии, отбрасывая более общую точку зрения.
Систематическая ошибка различения 
тенденция воспринимать два варианта как более различные, когда они реализуются одновременно, чем когда они реализуются по отдельности.
Эффект вклада 
тот факт, что люди часто хотят продать некий объект гораздо дороже, чем они готовы заплатить, чтобы приобрести его.
Отвращение к крайним решениям 
тенденция избегать экстремальных решений, выбирая промежуточные.
Эффект фокусировки 
ошибка в предсказаниях, возникающая, когда люди уделяют слишком много внимания какому-то одному аспекту явления; вызывает ошибки в правильном предсказании полезности будущего исхода. Например, концентрация внимания на том, кто виноват в возможной ядерной войне, отвлекает внимание оттого, что пострадают в ней все.
Эффект узких рамок 
использование слишком узкого подхода или описания ситуации или проблемы. Эффект воздействия рамок : различные выводы в зависимости от того, как данные представлены.
Гиперболический уровень дискаунта 
тенденция людей значительно тем больше предпочитать более близкие во времени выплаты относительно выплат в более отдаленном будущем, чем ближе обе выплаты к настоящему времени.
Иллюзия контроля 
тенденция людей верить, что они могут контролировать или, по крайней мере, влиять на результаты событий, на которые они на самом деле влиять не могут.
Переоценка воздействия 
тенденция людей переоценивать длительность или интенсивность воздействия некого события на их будущие переживания.
Уклон в сторону поиска информации 
тенденция искать информацию даже тогда, когда она не влияет на действия.
Иррациональное усиление 
тенденция принимать иррациональные решения, основанные на прошлых рациональных решениях, или оправдание уже совершённых действий. Проявляется, например, на аукционах, когда вещь покупается выше её стоимости.
Отвращение к потере 
отрицательная полезность, связываемая с потерей объекта, оказывается больше, чем полезность, связанная с приобретением его.
Эффект знакомства с объектом 
тенденция людей выражать необоснованную симпатию к некому объект только потому, что они знакомы с ним.
Эффект морального доверия 
человек, относительно которого известно, что у него нет предубеждений, имеет в будущем большие шансы проявить предубеждения. Иначе говоря, если все (в том числе он сам) считают человека безгрешным, то у него возникает иллюзия, что его любое действие также будет безгрешным.
Потребность в завершении 
потребность достигнуть завершения в важном вопросе, получить ответ и избежать чувства сомнений и неуверенности. Текущие обстоятельства (время или социальное давление) могут усилить этот источник ошибок.
Потребность в противоречии 
Более быстрое распространение более сенсационных, цепляющих за больные темы или возбуждающих дух противоречия сообщений в открытой печати. А.Гор утверждает, что только несколько процентов научных публикаций отвергают глобальное потепление, но более 50 % публикаций в прессе, рассчитанной на широкую публику, отвергают его.
Отрицание вероятности 
тенденция полностью отвергать вероятностную проблематику при принятии решений в условиях неопределённости.
Недооценка бездействия 
тенденция оценивать вредоносные действия как худшие и менее моральные, чем в равной степени преступное бездействие.
Отклонение в сторону результата 
тенденция судить о решениях по их окончательным результатам, вместо того, чтобы оценивать качество решений по обстоятельствам того момента времени, когда оно было принято. («Победителей не судят».)
Ошибка при планировании 
тенденция недооценивать время выполнения задач.
Рационализация после покупки 
тенденция убеждать себя с помощью рациональных аргументов, что покупка стоила своих денег.
Эффект псевдоуверенности 
тенденция принимать решения, избегающие риска, если ожидаемый результат позитивный, однако принимать рискованные решения, чтобы избежать негативного исхода.
Сопротивление 
потребность делать нечто противоположное тому, что некто побуждает вас делать, из-за потребности противостоять кажущимся попыткам ограничить вашу свободу выбора.
Селективное восприятие 
тенденция, состоящая в том, что ожидания влияют на восприятие.
Отклонение в сторону статуса кво 
тенденция людей желать, чтобы вещи оставались приблизительно теми же самыми.
Предпочтение целостных объектов 
потребность закончить данную часть задачи. Ярко проявляется в том, что людям свойственно есть больше, когда предлагаются большие порции еды, чем брать много маленьких порций
Эффект фон Ресторфа 
склонность людей лучше запоминать отдельно стоящие выдающиеся объекты.
Предпочтение нулевого риска 
предпочтение уменьшить какой-то один маленький риск до нуля тому, чтобы значительно уменьшить другой, больший риск. Например, люди предпочли бы уменьшить вероятность террористических актов до нуля тому, чтобы резко снизилась аварийность на дорогах, даже если бы второй эффект давал бы больше сохранённых жизней.

Искажения, связанные с вероятностями и верованиями[править]

Многие из этих конитивных искажений часто исследуются в связи с тем, как они влияют на бизнес и как они влияют на экспериментальные исследования.

Когнитивное искажение в условиях неоднозначности 
избегание вариантов действий, в которых отсутствующая информация делает вероятность «неизвестной».
Эффект привязки 
особенность принятия численных решений человеком, вызывающая иррациональные смещения ответов в сторону числа, попавшего в сознание перед принятием решения.
Отклонение, связанное со вниманием 
пренебрежение релевантной информацией при суждении о корреляции или ассоциации.
Эвристика доступности 
оценка как более вероятного того, что более доступно в памяти, то есть уклонение в сторону более яркого, необычного или эмоционально заряженного.
Каскад доступной информации 
самоусиливающийся процесс, в ходе которого коллективная вера во что-то становится всё более убедительной за счёт нарастающего повторения в публичном дискурсе («повторите нечто достаточно долго и это станет правдой»).
Иллюзия кластеризации 
тенденция видеть паттерны там, где их на самом деле нет.
Ошибка полноты распределения 
тенденция верить, что чем ближе среднее значение к заданному, тем ужЕ распределение набора данных.
Ошибка совпадений 
тенденция полагать, что, более специальные случаи являются более вероятными, чем более частными.
Ошибка игрока 
тенденция полгать, что отдельные случайные события испытывают влияние предыдущих случайных событий.
Эффект Хоутрона 
феномен, состоящий в том, что люди, наблюдаемые в ходе исследования, временно изменяют своё поведение или производительность. Пример: Повышение производительности труда на заводе, когда приезжает комиссия.
Эффект знания задним числом 
иногда называется «Я так и знал, что так будет» : склонность воспринимать прошлые события предсказуемыми.
Иллюзия корреляции 
ошибочная вера в взаимосвязь определённых действий и результатов.
Ошибочность, связанная с играми 
анализ проблем, связанных с выпадением шансов, с помощью узкого набора игр.
Эффект ожидания наблюдателя 
этот эффект возникает, когда исследователь ожидает определённого результата и бессознательно манипулирует ходом эксперимента или неправильно интерпретирует данные, чтобы обнаружить этот результат (см также эффект ожиданий субъекта).
Отклонение, связанное с оптимизмом 
тенденция систематически переоценивать и быть сверхоптимистичным относительно шансов успеха планируемых действий.
Эффект сверхуверенности 
тенденция переоценивать свои собственные способности.
Отклонение в сторону позитивного исхода 
тенденция переоценивать при предсказании вероятность хороших вещей.
Эффект первенства 
тенденция переоценивать изначальные события более, чем последующие события.
Эффект недавнего 
тенденция оценивать значение недавних событий выше, чем более ранних событий.
Недооценка возвращения величины к среднему значению 
тенденция ожидать, что экстраординарное поведение системы продолжится.
Эффект воспоминаний 
эффект, состоящий в том, что люди помнят больше событий из своей молодости, чем из других жизненных периодов.
Приукрашивание прошлого 
тенденция оценивать прошлые события более позитивно, чем они воспринимались в тот момент, когда на самом деле происходили.
Искажение, связанное с селекцией 
искажение в экспериментальных данных, которое связано с тем, каким образом данные были собраны.
Стереотипизация 
ожидание от члена группы определённых характеристик, без знания никакой дополнительной информации о его индивидуальности.
Эффект субаддитивности 
тенденция оценивать вероятность целого в качестве меньшей, чем вероятности составляющих его частей.
Субъективное придание значимости 
восприятие чего-либо, как истинного, если верования субъекта требуют, чтобы это было истинным. Сюда также входит восприятие совпадений как взаимосвязи.
Эффект телескопа 
этот эффект состоит в том, что недавние события кажутся более отдалёнными, а более дальние события : более близкими во времени.
Ошибочность в духе меткого стрелка из Техаса 
выбор или подстройка гипотезы после того, как данные собраны, что делает невозможным проверить гипотезу честно.

Социальные искажения[править]

Большинство из этих искажения связаны с ошибками атрибуции.

Искажение в оценке роли субъекта действия 
тенденция при объяснении поведения других людей чрезмерно подчёркивать влияние их профессиональных качеств и недооценивать влияние ситуации (см. также фундаментальная ошибка атрибуции). Однако парой к этому искажению является противоположная тенденция при оценке собственных поступков, при которой люди переоценивают влияния на них ситуации и недооценивают влияние своих собственных качеств.
Эффект Даннинга-Крюгера 
«когда люди некомпетентны в выбранных ими стратегиях достижения успеха, они терпят двойной удар: они не только приходят к ошибочным заключениям и делают неудачные выборы, но их некомпетентность лишает их возможности осознать это. Вместо этого они остаются с ошибочным впечатлением, что всё в порядке». (см. также эффект озера Вобегон и эффект сверхуверенности.)
Эффект эгоцентричности 
он имеет место, когда люди считают себя более ответственными за результат неких коллективных действий, чем это находит внешний наблюдатель.
Эффект Форера (а также эффект Барнума) 
тенденция высоко оценивать точность описаний своей личности, как если бы они были нарочно выкованы специально для них, но которые в действительности являются достаточно общими, чтобы их можно было приложить к очень большому числу людей. Например, гороскопы.
Эффект фальшивого консенсуса 
тенденция людей переоценивать ту степень, в которой другие люди соглашаются с ними.
Фундаментальная ошибка атрибуции 
тенденция людей переоценивать объяснения поведения других людей, основанные на их личностных качествах, и в то же время недооценивать роль и силу ситуационных влияний на то же самое поведение (см. также Искажение в оценке роли субъекта действия, ошибку групповой атрибуции, эффект позитивности и эффект негативности.)
Эффект гало 
имеет место при восприятии одного человека другим и состоит в том, что позитивные и негативные черты человека «перетекают», с точки зрения воспринимающего, из одной области его личности в другую. (см. также стереотип физической привлекательности).
Стадный инстинкт 
распространённая тенденция принимать мнения и следовать за поведением большинства, чтобы чувствовать себя в безопасности и избегать конфликтов.
Иллюзия ассиметричной проницательности 
человеку кажется, что его знание о своих близких превосходит их знание о нём.
Иллюзия прозрачности 
люди переоценивают способность других понимать их, и они также переоценивают свою способность понимать других.
Искажение в пользу своей группы 
тенденция людей отдавать предпочтение тем, кого они считают членом своей собственной группы.
Феномен «справедливого мира» 
тенденция людей верить, что мир «справедлив» и следовательно люди получают «то, что они заслуживают».
Эффект озера Вобегон 
человеческая тенденция распространять льстивые верования о себе и считать себя выше среднего. (см. также хуже-чем-в-среднем эффект и эффект сверхуверенности).
Искажение в связи с формулировкой закона 
эта форма культурного искажения связана с тем, что запись некого закона в виде математической формулы создаёт иллюзию его реального существования.
Искажение в оценке гомогенности членов другой группы 
люди воспринимают членов своей группы как относительно более разнообразных, чем члены других групп.
Искажение в связи с проекцией 
тенденция бессознательно полагать, что другие люди разделяют те же, что и субъект, мысли, верования, ценности и позиции.
Искажение в собственную пользу 
тенденция признавать большую ответственность за успехи, чем за поражения. Это может проявляться также как тенденция людей преподносить двусмысленную информацию благоприятным для себя образом (См. также искажение в пользу группы.)
Самосбывающиеся пророчества 
тенденция вовлекаться в те виды деятельности, которые приведут к результатам, которые (сознательно или нет) подтвердят наши верования.
Оправдание системы 
тенденция защищать и поддерживать статус кво, то есть тенденция предпочитать существующие социальное, политическое и экономическое устройство, и отрицать перемены даже ценой пожертвования индивидуальных и коллективных интересов.
Искажение при приписании черт характера 
тенденция людей воспринимать себя как относительно изменчивых в отношении личных качеств, поведения и настроения, одновременно воспринимая других как гораздо более предсказуемых.

Шаблон:See

Beneffectance
perceiving oneself as responsible for desirable outcomes but not responsible for undesirable ones. (Term coined by Greenwald (1980)) (See Self-serving bias.)
Consistency bias
incorrectly remembering one’s past attitudes and behaviour as resembling present attitudes and behaviour.
Cryptomnesia
a form of misattribution where a memory is mistaken for imagination.
Egocentric bias
recalling the past in a self-serving manner, e.g. remembering one’s exam grades as being better than they were, or remembering a caught fish as being bigger than it was
False memory
Hindsight bias
filtering memory of past events through present knowledge, so that those events look more predictable than they actually were; also known as the ‘I-knew-it-all-along effect’.
Suggestibility
a form of misattribution where ideas suggested by a questioner are mistaken for memory.

Common theoretical causes of some cognitive biases[править]

  • Baron, J. (2000). Thinking and deciding (3d. edition). New York: Cambridge University Press. ISBN 0-521-65030-5
  • Bishop, Michael A & Trout, J.D. (2004). Epistemology and the Psychology of Human Judgment. New York: Oxford University Press. ISBN 0-19-516229-3
  • Gilovich, T. (1993). How We Know What Isn’t So: The Fallibility of Human Reason in Everyday Life. New York: The Free Press. ISBN 0-02-911706-2
  • Gilovich, T., Griffin D. & Kahneman, D. (Eds.). (2002). Heuristics and biases: The psychology of intuitive judgment. Cambridge, UK: Cambridge University Press. ISBN 0-521-79679-2
  • Greenwald, A. (1980). «The Totalitarian Ego: Fabrication and Revision of Personal History» American Psychologist, Vol. 35, No. 7
  • Kahneman, D., Slovic, P. & Tversky, A. (Eds.). (1982). Judgment under Uncertainty: Heuristics and Biases. Cambridge, UK: Cambridge University Press. ISBN 0-521-28414-7
  • Kahneman, Daniel, Jack L. Knetsch, and Richard H. Thaler. (1991). «Anomalies: The Endowment Effect, Loss Aversion, and Status Quo Bias.» The Journal of Economic Perspectives 5(1):193-206.
  • Plous, S. (1993). The Psychology of Judgment and Decision Making. New York: McGraw-Hill. ISBN 0-07-050477-6
  • Schacter, D. L. (1999). «The Seven Sins of Memory: Insights From Psychology and Cognitive Neuroscience» American Psychologist Vol. 54. No. 3, 182—203
  • Tetlock, Philip E. (2005). Expert Political Judgment: how good is it? how can we know?. Princeton: Princeton University Press. ISBN 978-0-691-12302-8
  • Virine, L. and Trumper M., Project Decisions: The Art and Science (2007). Management Concepts. Vienna, VA, ISBN 978-1567262179

Когнитивные искажения, влияющие на оценку глобальных рисков

Статья вышла в 2008 году в сборнике «Риски глобальной катастрофы» под редакцией Ника Бострома и Милана Цирковича, Оксфорд.

Благодарности автора: Я благодарю Майкла Роя Эймса (Michael Roy Ames), Ника Бострома (Nick Bostrom), Милана Чирковича (Milan Cirkovic), Оли Лэмб (Olie Lamb), Тамаса Мартинеса (Tamas Martinec), Робина Ли Пауэла (Robin Lee Powell), Кристиана Ровнера (Christian Rovner) и Майкла Уилсона (Michael Wilson) за их комментарии, предложения и критику. Нет необходимости говорить, что все оставшиеся ошибки в этой работе — мои.

Введение

При всех прочих равных, мало кто из людей хотел бы уничтожить мир. Даже безликие корпорации, лезущие не в свои дела правительства, безрассудные ученые и прочие опасные люди нуждаются в окружающем мире, чтобы достигать в нем своих целей, таких как нажива, власть, собственность или другие малоприятные вещи. Если гибель человечества будет происходить настолько медленно, что успеет произойти ужасное осознание этого процесса, то деятели, запустившие его, будут, вероятно, ошеломлены пониманием того, что они, в действительности, уничтожили мир. Поэтому я предполагаю, что, если Земля будет все-таки уничтожена, то произойдет это, вероятно, по ошибке.

Систематическое экспериментальное исследование повторения ошибок в человеческих рассуждениях и того, что эти ошибки говорят о предшествующих им ментальных процессах, изучается в когнитивной психологии в рамках исследований эвристики и предубеждений. Эти исследования привели к открытиям, очень существенным для экспертов по рискам глобальных катастроф. Допустим, вы беспокоитесь о рисках, связанных с неким взрывчатым веществом Р, способным разрушить всю планету, если оно подвергнется достаточно сильному радиосигналу. К счастью, имеется знаменитый эксперт, который открыл субстанцию Р, потратил тридцать лет, работая с ней, и знает ее лучше, чем любой другой на Земле. Вы звоните эксперту и спрашиваете, насколько сильным должен быть радиосигнал, чтобы вещество взорвалось. Эксперт отвечает, что критический порог находится, вероятно, на уровне 4000 тераватт. «Вероятно?» — Спрашиваете вы. «Можете ли вы мне сообщить интервал мощности запускающего сигнала с 98-ми процентной уверенностью?» — «Конечно, — отвечает эксперт. — Я на 99 % уверен, что критический порог больше 500 тераватт, и на 99 % уверен, что он меньше 80000 тераватт». «А как насчет 10 тераватт?» — спрашиваете вы. «Невозможно», — отвечает эксперт.

Приведенная выше методология опроса эксперта выглядит совершенно резонной, такой, какую должен использовать любой компетентный работник, сталкиваясь с подобной проблемой. И в действительности, эта методология была использована при исследовании безопасности реакторов [Rasmussen, 1975], ныне считающемся первой значительной попыткой вероятностной оценки рисков. Но исследователь моделей рассуждений и погрешностей в рассуждениях может распознать, по крайней мере, два больших недостатка в этом методе, — не просто логически слабых места, а пару обстоятельств, чрезвычайно уязвимых к человеческой ошибке.

Исследования эвристики и когнитивных искажений открыли результаты, которые могут напугать и привести в уныние неподготовленного ученого. Некоторые читатели, впервые сталкивающиеся с экспериментальными результатами, цитируемыми здесь, могут удивиться и спросить: «Это действительно экспериментальные результаты? Действительно ли люди так плохо предсказывают? Может быть, эксперименты были плохо организованы, и результаты изменятся, если совершить такие-то и такие-то манипуляции?» Не имея достаточно места для объяснений, я могу только призвать читателя проконсультироваться с основополагающей литературой. Очевидные изменения условий опытов уже применялись, и результаты от этого не становились другими.

Доступность информации

Предположим, вы возьмете случайное слово из трех или более букв из английского текста. Что более вероятно: что слово начинается с буквы R (rope), или что его третья буква R (park)? Основная идея исследований когнитивных искажений (euristic and biases program) состоит в том, что люди используют методы мышления, называемые эвристикой, которые дают хорошие приблизительные ответы в большинстве случаев, но которые также приводят к увеличению системных ошибок, называемых когнитивными искажениями (bias). Примером эвристики является суждение о частоте или вероятности события по его информационной доступности (availability), то есть по легкости, с которой примеры подобного события приходят на ум. «R» появляется в качестве третьей буквы в большем числе английских слов, чем на первом месте, но гораздо легче вспомнить слова, которые начинаются на эту букву. Таким образом, большинство респондентов предполагают, что слова, начинающиеся на букву R, встречаются чаще. [Tversky and Kahneman, 1973.]

Когнитивные искажения, основанные на эвристике доступности, влияют на оценки риска. Пионерское исследование Лихтенштейна [Lichtenstein, 1978] описывает абсолютную и относительную достоверность суждений о риске. Люди в общих чертах представляют, какие риски причиняют большее число смертей, и какие – меньшее. Однако, когда их просят посчитать риски точнее, они весьма переоценивают частоты редких причин смерти, и сильно недооценивают частоты обычных. Другие повторяющиеся ошибки, выявленные в этом исследовании, также были очевидными: аварии считались причинами такого же количества смертей, что и болезни (на самом деле болезни в 16 раз чаще становятся причинами смертей, чем аварии). Убийство неверно считалось более частой причиной смерти, чем диабет или рак желудка. В исследовании Комбса и Словица [Combs and Slovic, 1979] был проведен подсчет сообщений о смерти в двух газетах, в результате была обнаружена высокая корреляция между суждениями о достоверности и выборочностью репортажей в газетах (0,85 и 0,89).

Также люди отказываются покупать страховку от наводнений, даже если она хорошо субсидируется и стоит гораздо ниже справедливой рыночной цены. Канрейсер [Kunreuther,1993] предполагает, что слабая реакция на угрозы наводнений может происходить из неспособности индивида представить себе наводнение, которое на их глазах никогда не случалось. Жители затапливаемых равнин оказываются в плену своего опыта. По-видимому, люди не могут всерьез беспокоиться о возможности потерь и разрушений больших, чем пережитые во время последних наводнений. Бертон [Burton, 1978] сообщает, что после строительства дамб и насыпей наводнения происходят реже, что, видимо, создает фальшивое чувство безопасности, ведущее к снижению мер предосторожности. В то время как строительство дамб уменьшает частоту наводнений, ущерб от каждого наводнения все-таки происходящего настолько возрастает, что среднегодовой ущерб увеличивается.

Кажется, что люди не экстраполируют опыт пережитых малых опасностей на возможности более серьезных рисков; наоборот, прошлый опыт малых опасностей устанавливает верхнюю границу ожиданий максимально возможного риска. Общество, хорошо защищенное от малых опасностей, не будет предпринимать никаких действий по отношению к большим рискам. Например, часто ведется строительство на затапливаемых равнинах после того, как регулярные малые наводнения устранены. Общество, подверженное регулярным малым опасностям, будет считать эти малые опасности в качестве верхней границы возможных рисков (защищаясь от регулярных малых наводнений, но не от неожиданных больших).

Аналогично, риск человеческого вымирания может быть недооценен, поскольку, очевидно, человечество никогда не сталкивалось с этим событием.

Когнитивные искажения, связанные со знанием «задним числом»

Когнитивные искажения, связанные со знанием «задним числом», происходят, когда испытуемый, узнав окончательный итог событий, дает гораздо большую оценку предсказуемости именно этого итога, чем испытуемые, которые предсказывают итог без знания результата. Эта ошибка иногда называется «я-все-это-время-чувствовал-что-так-оно-и-есть».

Фишхофф и Бейт [Fischhoff и Beyth, 1975] представили студентам исторические отчеты о малоизвестных событиях, таких, как конфликт между гуркхами и англичанами в 1814 году. Пять групп студентов, получивших эту информацию, были опрошены в отношении того, как бы они оценили степень вероятности каждого из четырех исходов: победа англичан, победа гуркхов, патовая ситуация с мирным соглашением или пат без соглашения. Каждое из этих событий было описано как реальный итог ситуации одной из четырех экспериментальных групп. Пятой, контрольной группе о реальном исходе не говорили ничего. Каждая экспериментальная группа приписала сообщенному ей итогу гораздо большую вероятность, чем любая другая или контрольная группа.

Эффект знания «задним числом» важен в суде, где судья или присяжные должны определить, виновен ли обвиняемый в преступной халатности, не предвидев опасность. [Sanchiro, 2003]. В эксперименте, основанном на реальном деле, Камин и Рахлинский [Kamin and Rachlinski, 1995] попросили две группы оценить вероятность ущерба от наводнения, причиненного закрытием принадлежащего городу разводного моста. Контрольной группе сообщили только базовую информацию, бывшую известной городу, когда власти решили не нанимать мостового смотрителя. Экспериментальной группе была дана эта же информация плюс сведения о том, что наводнение действительно случилось. Инструкции устанавливают, что город проявляет халатность, если поддающаяся предвидению вероятность наводнения больше 10 процентов. 76 % опрашиваемых из контрольной группы заключили, что наводнение было настолько маловероятным, что никакие предосторожности не были нужны. 57 % экспериментальной группы заключили, что наводнение было настолько вероятно, что неспособность принять меры предосторожности была преступной халатностью. Третьей группе сообщили итог и также ясным образом инструктировали избегать оценки задним числом, что не привело ни к каким результатам: 56 % респондентов этой группы заключили, что город был преступно халатен. Отсюда видно, что судьи не могут просто инструктировать присяжных, чтобы те избежали эффекта знания задним числом: Меры против предвзятости (debiasing manipulation) не работают.

Рассматривая историю сквозь линзы нашего последующего знания, мы сильно недооцениваем затраты на предотвращения катастрофы. Так, в 1986 году космический челнок Челленджер взорвался по причине того, что кольцевой уплотнитель потерял гибкость при низкой температуре [Rogers, 1986]. Были предупреждающие сигналы о проблемах, связанных с кольцевым уплотнителем. Но предотвращение катастрофы Челленджера должно было потребовать не только внимания к проблемам с кольцевым уплотнителем, но и озабоченности каждым аналогичным предупреждающим сигналом, который бы казался столь же серьезным, как проблема уплотнителей, без преимущества последующего знания.

Черные лебеди

Талеб [Taleb, 2005] предположил, что ошибки последующего знания и доступности несут первостепенную ответственность за нашу неспособность защититься от того, что Талеб назвал Черными Лебедями. «Черные лебеди» являются особенно серьезным аспектом проблемы мощных последствий: иногда большая часть вариативности процесса происходит из исключительно редких, но исключительно масштабных событий. Представьте себе финансовый инструмент, который зарабатывает 10 долларов с 98% вероятностью, но теряет 1000 долларов с 2% вероятностью. В конечном счете, расход перевешивает доход, но инструмент выглядит как устойчиво выигрышный. Талеб (2001) приводит пример трейдера, чья стратегия работала 6 лет без единого убыточного квартала, принеся около 80 миллионов долларов — и затем он потерял 300 миллионов долларов в одной катастрофе.

Другим примером является Long-Term Capital Management, инвестиционный фонд, в состав основателей которого входили два Нобелевских лауреата по экономике. В течение Азиатского кризиса и российского дефолта 1998 года рынки вели себя совершенно беспрецедентным образом, имевшим пренебрежимо малую вероятность по исторической модели, использованной LTCM. В результате LTCM начал терять по 100 миллионов долларов в день, день за днем. За один день в 1998 году он потерял более 500 миллионов долларов [Taleb, 2005]

Основатели LTCM позже назвали рыночные условия 1998 года очень маловероятным событием с вероятным отклонением в десять сигма. Но очевидно, что это событие, раз оно случилось, не было столь невероятным. Ошибочно веря, что прошлое предсказуемо, люди пришли к выводу, что будущее тоже предсказуемо. Как пишет Фишхофф [Fischhoff, 1982]:

«Когда мы пытаемся понять события прошлого, мы косвенным образом проверяем гипотезы и правила, применяемые нами, чтобы интерпретировать и воспринимать мир вокруг нас. Если, благодаря последующему знанию, мы систематически недооцениваем сюрпризы, которые могли быть в прошлом, мы подвергаем эти гипотезы ненадлежаще слабым тестам и, вероятно, не находим никаких оснований для их изменений».

Урок истории состоит в том, что такие неприятности, как «черные лебеди», случаются. Люди удивляются катастрофам, которых они не ожидали, которые лежат за пределами известных им исторически вероятных распределений. Но почему мы бываем так ошеломлены, когда «черные лебеди» случаются? Почему LTCM занял 125 миллиардов долларов под 4,72 миллиарда долларов собственности, практически гарантируя, что любая крупная неприятность их обанкротит?

По причине ошибки из-за последующего знания, мы выучиваем очень специфические уроки. После 11 сентября американское управление авиации запретило использование ножей для разрезания бумаги на самолетах. В ретроспективе это событие выглядит слишком предсказуемым, позволяя разъяренным жертвам считать случившееся результатом халатности — такой, как неспособность разведывательных агентств различить предупреждения об активности Аль-Каиды среди тысяч других предупреждений. Мы научились не позволять захваченным самолетам летать над нашими городами. Но мы не выучили урок: «черные лебеди» случаются. Делай, что можешь, чтобы приготовиться к неожиданному».

Талеб [Taleb, 2005] пишет:

«Трудно мотивировать людей к предотвращению «черных лебедей»… Защита с трудом воспринимается, измеряется и вознаграждается; это обычно незаметный и неблагодарный труд. Представьте себе, что некая дорогостоящая мера была предпринята, чтобы предотвратить такое явление. Легко вычислить стоимость этих мер, тогда как результат трудно измерим. Как мы можем говорить об эффективности, когда есть два альтернативных варианта объяснения: или принятые меры были эффективны, или просто ничего существенного не случилось. Оценка качества работы в таких случаях не просто сложна, но искажена наблюдением «актов героизма»… В исторических книгах не пишут о героических превентивных мерах».

Ошибочное включение лишнего элемента

Линде 31 год, она незамужняя, искренняя и оптимистичная девушка. В колледже она специализировалась на философии. Как студентка, она была глубоко озабочена проблемами дискриминации и социальной справедливости, а также участвовала в антиядерных демонстрациях.

Расположите следующие утверждения в порядке уменьшения их вероятности.

  1. Линда — учитель в начальной школе
  2. Линда работает в книжном магазине и занимается йогой
  3. Линда — активистка феминистского движения
  4. Линда — социальный работник в области психиатрии
  5. Линда — член общества женщин, имеющих право голоса
  6. Линда — кассир в банке
  7. Линда — страховой агент
  8. Линда — кассир в банке и активистка феминистского движения

89 % из 88 студентов посчитали пункт 8 более вероятным, чем пункт 6 [Tversky и Kahneman, 1982]. Поскольку выбранное описание Линды похоже на описание феминистки, а не банковского кассира, п.8 в большей мере характерен для описания Линды. Однако, считая п.8 более вероятным, чем п.6, мы нарушаем закон суммирования вероятностей, который утверждает, что P(A & B) ≤ P(A). Представьте себе выборку из 1000 женщин. Наверняка в этой выборке больше женщин — банковских кассиров, чем женщин-феминисток и одновременно банковских кассиров. Может быть, ошибочное включение лишнего элемента связана с тем, что участники воспринимали экспериментальные инструкции неправильно? Например, они могли понять под «вероятностью» вероятность того, что женщина, для которой верны утверждения 6 и 8, соответствует приведенному выше описанию Линды, а не вероятность утверждений 6 и 8 в отношении Линды? Или, возможно, они интерпретировали 6 как означающее «Линда — кассир и не феминистская активистка»? И, хотя, чтобы объяснить склонность к этой логической ошибке, было предложено много интересных альтернативных гипотез, она пережила все экспериментальные попытки ее опровержения (см. обзор [Sides, 2002].) Например, следующий эксперимент исключает обе альтернативные гипотезы, предложенные выше. Представьте себе правильный 6-сторонний кубик с четырьмя зелеными сторонами и двумя красными. Кубик будет брошен 20 раз и последовательность выпадения зеленых (G) и красных (R) сторон будет записана. Испытуемый должен выбрать одну последовательность из трех предложенных, и он выиграет 25 $, если выбранная им последовательность выпадет в серии бросков кубика. Вот эти три последовательности, надо выбрать одну из них.

  1. RGRRR
  2. GRGRRR
  3. GRRRRR

125 студентов в Стэнфордском университете играли в эту игру с реальными ставками. 65 % из них выбрали последовательность 2. [Tversky и Kahneman, 1982]. Последовательность 2 наиболее типична для игральной кости, поскольку кость большей частью зеленая и последовательность 2 содержит наибольшую пропорцию зеленых сторон. Однако, последовательность 1 превосходит последовательность 2, поскольку полностью входит в нее. Чтобы получилось 2, у вас должна выпасть последовательность 1 и зеленая грань кости перед ней.

В приведенной выше задаче студенты могли вычислить точные вероятности каждого события. Однако вместо того, чтобы тратить время на арифметические вычисления, 65 % студентов, по-видимому, полагались на интуицию, исходя из того, что казалось более типичным для игральной кости. Когда мы называем это умозаключением по типичности, мы не настаиваем на том, что студенты специально решили, что они будут оценивать вероятность, исходя из типичности. Скорее, умозаключение по типичности является как раз тем, что создает интуитивное чувство, будто последовательность 2 более вероятна, чем последовательность 1. Другими словами, умозаключение по типичности является встроенной характеристикой мозга, предназначенной, чтобы давать быстрые достоверные суждения, а не сознательно выбранной процедурой. Мы не осознаем подмены суждением о типичности суждения о достоверности. Ошибочное включение лишнего элемента подобным же образом происходят в футурологических прогнозах. Две независимых группы профессиональных аналитиков на Втором международном конгрессе по предвидению будущего были опрошены, соответственно, о вероятности «полного разрыва дипломатических отношений между СССР и США в 1983 году» и «русского вторжения в Польшу, и последующего полного разрыва дипломатических отношений между СССР и США в 1983 году». Вторая группа аналитиков сообщила о значительно более высокой вероятности. [Tversky и Kahneman, 1982].

В исследовании Джонсона [Johnson, 1993], группа студентов MBA из Уортона должна была отправиться в Бангкок в качестве части своей образовательной программы. Несколько подгрупп студентов было опрошено на тему, как много они готовы заплатить за антитеррористическую страховку. Первой группе был задан вопрос, сколько она готова заплатить за антитеррористическую страховку, покрывающую перелет из Таиланда в США. Вторую группу студентов спросили, сколько она готова заплатить за страховку, покрывающую перелет туда-обратно. А третью — о страховке, которая бы покрывала все путешествие. Эти три группы оказались в среднем готовы заплатить 17,19, 13,90, и 7,44 долларов соответственно.

С точки зрения теории вероятностей, добавление дополнительной детали к истории делает ее менее вероятной. Менее вероятно, что Линда является кассиром-феминисткой, чем просто кассиром, поскольку все кассиры-феминистки по определению являются кассирами. Но с точки зрения человеческой психологии добавление каждой новой детали делает историю все более достоверной.

Люди могут предпочесть заплатить больше за международную дипломатию, направленную на предотвращение нанотехнологической войны с Китаем, чем за инженерный проект, предназначенный, чтобы защитить от нанотехнологической атаки с любой возможной стороны. Второй сценарий предотвращения выглядит менее зрелищным и побуждающим, но универсальная технологическая защита будет более полезной по причине своей многосторонности. Более ценными выглядят стратегии, которые уменьшают вероятности истребления человечества без жесткой зацикленности только на нанотехнологических угрозах — такие, как колонизация космического пространства или искусственный интеллект (см. работы автора на эту тему). Брюс Шнейер заметил что правительство Соединенных Штатов (и до, и после урагана 2005 года в Новом орлеане), защищало отдельные объекты на территории страны от террористических угроз в стиле киносценариев ценой отвлечения ресурсов из средств гражданской обороны, которые могли бы быть использованы в любой ситуации [Schneier, 2005]. Сверхдетальные заверения также могут создать ложное ощущение безопасности: «Х не является риском существованию, и вы не должны заботиться о нем, потому что верны утверждения A, B, C, D, и E». В то время как ошибка в любом из предположений является потенциально гибельной для человеческого рода. «Мы не должны беспокоиться о нанотехнологической войне, потому что комиссия ООН в начале разовьет эту технологию и предотвратит ее распространение до тех пор, пока не будет разработана активная защита, способная защитить от всех случайных или злонамеренных проявлений, которые современная нанотехнология способна породить, и это условие будет выполняться всегда». Яркие, четко определенные сценарии могут увеличить нашу вероятностную оценку безопасности, равно как и неправильно направить инвестиции в безопасность с учетом излишне суженных или невероятно детализированных сценариев рисков.

В целом, людям свойственно переоценивать вероятность совпадений всех событий в серии и недооценивать вероятность хотя бы одного события из серии. [Tversky и Kahneman, 1982]. То есть, людям свойственно переоценивать вероятность того, что, например, семь событий, с вероятностью 90 % каждое, все вместе совпадут. Наоборот, людям свойственно недооценивать вероятность того, что хотя бы одно событие из семи, имеющих каждое вероятность 10 %, все-таки случится. Некто, оценивающий, стоит ли, например, открыть новую компанию, должен вычислить вероятность того, что множество отдельных событий произойдет одновременно нужным образом (что будет достаточное финансирование, компетентные рабочие, покупатели будут хотеть купить товар), учитывая также вероятность того, что, по крайней мере, одна критическая неприятность случится (банк откажется дать ссуду, главный проект закончится неудачей, ведущий ученый проекта умрет). Это может объяснить, почему только 44 % предприятий выживают в течение первых четырех лет. [Knaup, 2005.]

Адвокаты в своих речах предпочитают избегать выводов, основанных на истинности, по крайней мере, одной из нескольких посылок («либо одно, либо другое, либо третье должно было случится и каждый из этих вариантов приводит к одному и тому же выводу»), в пользу выводов, основанных на совпадении сразу нескольких посылок. Однако с рациональной точки зрения первые случаи гораздо более вероятны, чем вторые. Вымирание человечества в следующем столетии может произойти в результате хотя бы одной из многих причин. Оно может случиться по причине любого глобального риска, обсужденного в статье Бострома «Угрозы существованию», или по какой-нибудь другой причине, которую никто из нас не предвидел. Даже для футурологов описания в духе «или то, или другое, или третье» неудобны, и пророчества, с помощью них сформулированные, звучат непоэтично.

Ошибочность рассуждений, вызванная эффектом подтверждения

В 1960 году Питер Уосон (Peter Wason) провел ныне классический эксперимент, известный как задача «2-4-6» [Wason, 1960.] Испытуемые должны были определить правило, известное экспериментатору, но не самому испытуемому — так, как оно бывает при научном исследовании. Испытуемые писали три числа, таких как «2-4-6» или «10-12-14» на карточках, и экспериментатор говорил, соответствуют ли данные три числа правилу или нет. Изначально испытуемым была выдана тройка чисел 2-4-6 и сказано, что она соответствует правилу. Испытуемые могли продолжать испытывать тройки до тех пор, пока они не чувствовали себя уверенными, что знают правило экспериментатора, и тогда испытуемым объявляли правило.

Хотя участники обычно выражали высокую уверенность в своих догадках, только 21 % из них в этом эксперименте правильно угадали правило, и при повторениях эксперимента уровень успеха обычно составлял 20 %. Вопреки совету Карла Поппера, испытуемые в эксперименте Уосона пытались подтвердить свои гипотезы, а не опровергнуть. Таким образом, те, кто сформулировали гипотезу «Числа увеличиваются каждый раз на два», проверяли тройки 8-10-12 или 20-22-24, слышали, что они подходят, и уверенно объявляли правило. Во всех случаях подлинное правило было одно и то же: три номера должны следовать один за другим по возрастающей. В некоторых случаях испытуемые выдумывали, «тестировали» и объявляли правила, гораздо более сложные, чем действительное.

Задача Уосона «2-4-6» является «прохладной» формой интеллектуальной ошибки, связанной с подтверждением: люди предпочитают подтверждающие, а не опровергающие свидетельства. «Прохладный» означает, что задача «2-4-6» является эмоционально нейтральным случаем интеллектуальной ошибки подтверждения: вывод подтверждается логикой, а не эмоциями. «Горячий» случай имеет место, когда вера эмоционально заряжена, например, в случае политических рассуждений. Неудивительно, что «горячая» ошибочность сильнее — больше по размаху и более устойчивая к изменениям. Активная, полная усилий склонность к подтверждению обычно называется мотивированным мышлением (motivated cognition) (обычно известным как «рационализация»). Как отмечает Бреннер [Brenner, 2002] в «Заметках к теории одобрения»:

«Очевидно, что во многих обстоятельствах желание уверенности в гипотезе может заметно повлиять на воспринимаемую степень ее подтверждения… Кунда [Kunda, 1990] обсуждает, как люди, нацеленные на то, чтобы достичь определенных выводов, пытаются сконструировать (в ошибочной манере) убедительный случай для своей любимой гипотезы, который мог бы убедить беспристрастную аудиторию. Гилович [Gilovich, 2000] предполагает, что выводы, в которые человек не хочет верить, рассматриваются гораздо требовательнее, чем те, в которые он хочет верить. В первом случае человек требует, чтобы свидетельство с необходимостью вело к данному выводу, а во втором — спрашивает, позволяет ли некоторое свидетельство прийти к данному выводу».

Когда люди подвергают те свидетельства, которые противоречат их точке зрения, более пристрастному анализу, чем те, которые ее подтверждают, это называется мотивированный скептицизм или когнитивное искажение несогласия (disconfirmation bias). Ошибка несогласия особенно деструктивна по двум причинам: во-первых, два подверженных этой ошибке спорщика, рассматривая один и тот же поток свидетельств, могут изменить свою веру в противоположных направлениях — обе стороны выборочно принимают только привлекательные для них свидетельства. Накопление большего числа свидетельств не приведет этих спорщиков к согласию. Во-вторых, люди, которые являются более опытными скептиками, – то есть которые знают больший набор типичных логических нестыковок, но применяют этот навык избирательно, – склонны изменять свою точку зрения гораздо медленнее, чем неопытные спорщики.

Тэйбер и Лодж [Taber and Lodge, 2000] исследовали изначальное отношение к теме ношения огнестрельного оружия и изменение его у студентов, под воздействием прочтения политической литературы за и против контроля и выдачи разрешений на оружие. Это исследование проверило шесть следующих гипотез в двух экспериментах:

  1. Эффект предшествующего отношения. Испытуемые, имевшие изначальную точку зрения на проблему — даже когда их поощряли в том, чтобы они были объективными — находили поддерживающие аргументы более охотно, чем опровергающие.
  2. Систематическая ошибка опровержения. Испытуемые тратили больше времени и умственных усилий, стараясь отклонить опровергающие аргументы, чем поддерживающие аргументы.
  3. Систематическая ошибка подтверждения. Испытуемые, свободные выбирать источники информации, скорее искали подтверждающие, чем опровергающие источники.
  4. Поляризация отношения. Предъявление испытуемым очевидно уравновешенного набора аргументов за и против приводило к увеличению изначальной поляризации их мнений.
  5. Эффект силы мнения. Испытуемые, имеющие более ярко выраженное мнение, были более подвержены вышеназванным склонностям к ошибке.
  6. Эффект усложнения. Более искушенные в политике испытуемые, по причине обладания более тяжелым вооружением для опровержения противных фактов и доводов, были более подвержены вышеприведенным систематическим ошибкам.

Забавно, что эксперименты Тэйбера и Лоджа (Taber and Lodge) подтвердили все шесть изначальных гипотез авторов. Вы можете сказать: «Вероятно, эти эксперименты только отражают убеждения, на которые опирались их авторы, и это как раз пример систематической ошибки подтверждения». Если так, то, сделав вас более опытным спорщиком, а именно, научив вас еще одной систематической ошибке, в которой можно обвинить людей, я, в действительности, навредил вам: я ослабил вашу реакцию на новую информацию. Я дал вам еще один шанс всякий раз терпеть неудачу, когда вы сталкиваетесь с возможностью изменить свой стиль мышления. Эвристика и когнитивные искажения широко распространены в человеческих размышлениях. Знание о них позволяет нам замечать большое разнообразие логических ошибок, которые, в противном случае, были бы недоступны для нашего наблюдения. Но, как и любая способность обнаруживать ошибки в рассуждениях, это знание должно применяться как к нашим собственным идеям, так и к идеям других; к идеям, которые нам нравятся, и которые нам не нравятся. Знание человеческой склонности ошибаться — это опасное знание, если вы напоминаете себе об ошибочности тех, кто не согласен с вами. Если я избирателен в отношении тех аргументов, которые я исследую на предмет ошибок, или даже того, насколько глубоко я исследую эти ошибки, тогда каждый новый закон логики, каждая новая логическая несообразность, которую я научаюсь обнаруживать, делает меня глупее. Ум, чтобы быть полезным, должен быть использован не для того, чтобы дурачить самого себя.

Нельзя рационализировать то, что не рационально с самого начала — как если ложь назвать «правдизацией». Нельзя сделать утверждение более истинным посредством взяточничества, лести или даже страстной аргументации — можно заставить больше людей верить в утверждение, но нельзя сделать его вернее. Для того, чтобы сделать наши убеждения более истинными, мы должны изменить сами эти убеждения. Не каждое изменение — это улучшение, но каждое улучшение — это изменение по определению.

Наши убеждения гораздо менее гибкие, чем мы привыкли думать. Гриффин и Тверский [Griffin and Tversky, 1992] аккуратно опросили каждого из двадцати четырёх сотрудников, которые оказались в ситуации выбора из двух предложенных вакансий и попросили их оценить, с какой вероятностью они примут то или иное предложение. Средняя вероятность выбора, высказанная в отношении более привлекательного предложения, составила умеренные 66%. Но только один из 24 опрошенных выбрал в конечном счёте вариант, которому он приписал в начале более низкую вероятность, доведя таким образом точность до 96%. (Это — один из немногих известных примеров, когда имеет место не «сверх-уверенность», а «недо-уверенность».)

Мораль в том, что как только вы начинаете догадываться, каков будет ваш ответ, как только вы приписываете большую вероятность тому, что вы ответите так, а не иначе, вы, на самом деле, уже решили. И если вы будете честны с самим собой, вы должны признать, что обычно вы догадываетесь об окончательном ответе через секунды после того, как услышите вопрос. Мы меняем наши мнения гораздо реже, чем мы думаем. Насколько скоротечен этот короткий незаметный момент, когда мы даже не можем догадаться, каков будет наш ответ, малюсенькое хрупкое мгновение, которое нам отведено, чтобы на самом деле подумать — как в вопросах выбора, так и в вопросах установления фактов.

Шенкель (Shenkel) говорил: «Нет необходимости в вере, пока ситуация может быть легко рассмотрена тем или другим образом».

Норман Майер (Norman R. F. Maier): «Не предлагайте решения до тех пор, пока проблема не будет исследована так тщательно, как это только возможно».

Робин Доуз (Robyn Dawes), комментируя Майера, писал: «Я часто предлагал это правило группам, которые я вел, в частности, когда они сталкивались с особенно трудной проблемой. Это – типичная ситуация, когда члены группы особенно склонны предлагать мгновенные решения».

В компьютерной безопасности «система, которой доверяют» (trusted system) — это та, которой вы на самом деле доверяете, а не та, которая достойна доверия. «Система, которой доверяют» — это система, которая, будучи скомпрометированной, способна вызвать ошибку. Когда вы читаете статью, утверждающую, что глобальная катастрофа невозможна, или имеет определенную годовую вероятность, или может быть преодолена с использованием определенной стратегии — вы доверяете рациональности авторов. Вы доверяете способности авторов переходить от удобных выводов к неудобным, даже в случае отсутствия сногсшибательных экспериментальных свидетельств, опровергающих любимую гипотезу. Вы доверяете авторам в том, что они не искали немного более интенсивно ошибки в тех уравнениях, которые указывали на неверный, с их точки зрения, путь, до того, как к вам попал окончательный вариант статьи.

И если власти вводят закон, по которому даже мельчайший риск существованию человечества достаточен для того, чтобы закрыть проект; или если становится нормой политики де-факто, что ни одно возможное вычисление не может перевесить груз однажды высказанного предположения, то тогда ни один ученый не рискнет больше высказывать предположения. Я не знаю, как решить эту проблему. Но я думаю, что тем, кто оценивает глобальные риски, следует иметь общие представления о человеческих моделях рассуждений и когнитивных искажениях, и об ошибке неподтверждения в частности.

Якорение, настройка и наложение

Экспериментатор крутит у вас на глазах рулетку, и она указывает на некое число, в первом случае, на 65, а во втором — на 15. Экспериментатор затем спрашивает вас, больше или меньше процент африканских стран в ООН этого числа. Затем экспериментатор спрашивает вас о вашей оценке процента африканских стран в ООН. Тверский и Канеман [Tversky и Kahneman, 1974] продемонстрировали, что испытуемые, которых вначале попросили оценить, находится ли искомое число выше или ниже 15, затем давали значительно более низкие оценки процента африканских стран в ООН, чем те испытуемые, которых в начале просили оценить, выше или ниже этот процент 65. Средняя оценка по группе была в первом случае 25, во втором — 45 процентов. Это происходило, несмотря на то, что испытуемые видели, что номера генерируются очевидно случайным образом, рулеткой, и потому могли быть уверены, что эти номера не имеют никакого отношения к реальному проценту африканских стран в ООН. Денежные выплаты за точность не изменили интенсивность этого эффекта. Тверский и Канеман предположили, что этот эффект вызван якорением и настройкой; испытуемые принимали изначальное неинформативное число за точку отсчета, или якорь, и затем увеличивали или уменьшали это число, до тех пор, пока не достигали результата, который выглядел убедительно для них; тогда они прекращали подстройку. Этот результат был недооценкой, связанной с данным якорем.

В примере в начале статьи мы сперва попросили эксперта по веществу P предположить точное значение силы радиосигнала, который приведет к взрыву P, и только затем попросили оценить верхние и нижние границы для этого параметра. Этот метод опроса заставляет людей подстраивать свой ответ о верхней и нижней границе к изначальной оценке, до тех пор, пока они не достигают значений, которые звучат невероятно и прекращают подстройку. Это приводит к недооценке и слишком узким границам интервала уверенности.

После статьи Тверского и Канемана 1974 года стало накапливаться все больше свидетельств широкого круга эффектов якорения и псевдо-якорения. Якорение происходило, даже когда якорь давал абсолютно невероятный ответ на вопрос, например, при опросе студентов относительно года первого визита Эйнштейна в США, после рассмотрения якорей 1215 или 1992. Эти недостоверные якоря создавали эффект якорения такой же силы, как и более достоверные якоря, такие как 1905 и 1939 [Strack and Mussweiler, 1997].

Допустим, вы идете по супермаркету и видите стойку с банками консервированной томатной пасты с надписью: «Только 12 штук в руки». Заставляет ли это людей на самом деле покупать больше томатной пасты? Согласно экспериментальным данным, заставляет [Wansink et. al., 1998].

Более общая форма этого феномена стала известна как эффект загрязнения, поскольку оказалось, что почти любая информация может повлиять на интеллектуальное суждение [Chapman and Johnson, 2002]. Предпринимались попытки ослабить эффект загрязнения путем выплаты испытуемым вознаграждения за правильные ответы. Тверский и Канеман [Tversky и Kahneman, 1974] инструктировали испытуемых о необходимости избежать якорения начальным показателем [Quattrone et. al., 1981] или о необходимости уделять внимание проблемам реального мира [Wansink et. al., 1998]. Эти действия не уменьшили или уменьшили только в незначительной степени интенсивность эффектов якорения и наложения. Более того, испытуемые, спрошенные о том, были ли они подвергнуты действию эффекта загрязнения, обычно не верили, что он на них повлиял, хотя эксперименты показывали обратное. [Wilson et. al., 1996].

Действия, существенно увеличивающие эффект загрязнения – это действия, помещающие испытуемых в интеллектуально трудные условия, такие, как непрерывное прослушивание последовательности слов в процессе работы [Gilbert et. al., 1988] или требование от испытуемых быстрых ответов [Gilbert and Osborne, 1989]. Гилберт [Gilbert et. al., 1988] связывает это с тем, что дополнительная задача влияет на способность отстроиться от якоря; иначе говоря, в интеллектуально загруженных условиях происходит меньшая корректировка. Этот эффект уменьшения корректировки, а значит, увеличения недокорректировки, известен как якорение.

Суммируем: явно нерелевантная информация по-прежнему якорит суждения и искажает догадки. Когда люди начинают с информации, про которую заранее известно, что она нерелевантная, и затем производят подстройку, пока не достигают убедительно звучащего ответа, они обычно недооценивают величину некого параметра. Люди недооценивают величину параметра в гораздо большей степени в ситуациях интеллектуальной нагрузки и других воздействий, что делает проблему более серьезной. Люди отрицают, что были заякорены и недооценивали, даже когда эксперименты показывают противоположное. Эти эффекты не ослабляются или ослабляются незначительно при финансовом вознаграждении, явных инструкциях избежать наложения и в ситуациях из реальной жизни. А теперь вспомните, сколько историй из лент новостей об искусственном интеллекте ссылаются на фильмы о Терминаторе, как если бы они были документальными, и как много медийных историй о взаимодействии мозга и компьютера упоминают боргов из фильма «Звездный путь».

Если даже короткая демонстрация якоря оказывает существенное воздействие на испытуемых, насколько больший эффект мы можем ожидать от чтения целой книги или просмотра остросюжетного телевизионного шоу? В прошлом не было фильмов — все, что вы видели своими глазами, было правдой. Людям следует осознавать, в той мере, в какой осознанные мысли принимаются в расчет, что фантастика есть фантастика. Журналистские упоминания о «Терминаторе» обычно не рассматривают сценарий Камерона в качестве пророчества или установленной правды. Вместо этого репортер как бы считает видения Камерона чем-то, что уже однажды имело место в прошлом и вполне может случиться вновь — фильм вспоминается как если бы он был иллюстрирующим случаем из истории человечества. Я называю эту смесь якорения и доступности для восприятия логической ошибкой генерализации на основании художественного вымысла.

Похожей концепцией является ошибка «хорошей истории», предложенная Бостромом [Bostrom, 2001]. Художественные свидетельства часто состоят из «хороших историй» в бостромском смысле. Отметьте, что не все возможные «хорошие истории» уже представлены в литературе.

Рассказчики историй соблюдают строгие правила повествовательности, не имеющие отношения к реальности. Драматическая логика — это не логика. Вдохновленные писатели знают, что одной правды мало: нельзя заставить поверить в невероятное событие из вашего произведения путем цитирования примеров из реальной жизни. Хорошая история раскрашена яркими деталями, расцвечена цветущими метафорами; рассказчик историй должен быть конкретным, твердым и точным, как камень. Но в предвидении будущего каждая добавленная деталь является дополнительной нагрузкой! Правда — это тяжелая работа, и — не для рассказчиков историй. Мы должны избегать не только одурачивания фантастикой в виде нашей неспособности совершить ментальное усилие, чтобы разувериться в ней, но также того, чтобы фантастика наложилась на наше мышление и стала точкой отсчета для наших суждений. И мы должны осознавать, что мы не всегда осознаем это наложение. В дискуссиях о глобальных рисках отнюдь не необыкновенны категории, выборы, последствия и стратегии, пришедшие из фильмов, книг и телевизионных шоу. Бывают красивые неудачи, но это — откровенная капитуляция.

Рассуждения, обусловленные аффектом

Рассуждения, обусловленные аффектом, возникают, когда субъективные представления о хорошем и плохом выступают в качестве эвристики и способны порождать быстрые, основанные на непосредственном восприятии, суждения, а также систематические ошибки.

В исследовании Словича [Slovic, 2002] две группы испытуемых рассматривали такой сценарий: аэропорт должен решить, следует ли ему потратить деньги на новое оборудование, или на другие аспекты системы безопасности. Шкала ответов ранжирована от 0 (никакой поддержки этому решению) до 20 (очень сильная поддержка). Оказалось, что мероприятие, описанное как «Спасти 150 жизней» получило среднюю поддержку 10,4, в то время как мероприятие, описанное как «Спасти 98 % от 150 жизней» имело среднюю поддержку в 13,6. Даже предложение «спасти 85 % от 150 жизней» имело большую поддержку, чем «спасение 150 жизней». Гипотеза, лежащая в основе этого эксперимента, состояла в том, что «спасение 150 жизней» звучит довольно расплывчато и потому имеет небольшую ценность, в то время как спасение 98 % чего-нибудь это очень хорошо, потому что это очень близко к верхней границе процентной шкалы.

Файнакэйн [Finucane, 2000] исследовал, объединяют ли люди свои оценки возможных преимуществ от некой технологии, такой как, например, ядерная энергетика, со своими оценками возможных рисков, в едином хорошем или плохом ощущении по поводу этой технологии. Он тестировал эту гипотезу, предлагая испытуемым четыре разных сообщения, которые должны были увеличить или ослабить воспринимаемые риски и воспринимаемые преимущества. Не было никакой логической связи между предоставленной информацией о рисках и о преимуществах. В каждом случае новая информация оказывала противоположный эффект на эмоционально противоположную характеристику. Информация, которая увеличивала восприятие риска, ослабляла восприятие преимуществ. Информация, которая ослабляла восприятие преимуществ, увеличивала восприятие рисков. Файнакэйн обнаружил, что нехватка времени обычно усиливает отрицательную взаимосвязь между воспринимаемыми рисками и воспринимаемыми преимуществами — предположительно потому, что эта нехватка усиливает преобладание эмоциональных моделей рассуждений над аналитическим анализом.

Ганзах [Ganzach, 2001] обнаружил тот же эффект в царстве финансов: аналитики делают прогнозы рисков и доходов незнакомых активов на основании эмоционального отношения. Акции, воспринимавшиеся как «хорошие», были определены как имеющие низкий риск и высокий доход; акции, воспринимавшиеся как «плохие», определялись как имеющие низкий доход и высокий риск. Таким образом, для незнакомых акций, воспринимаемый риск и воспринимаемый доход имели отрицательную корреляцию, в соответствии с эмоциональной логикой. (Отметьте, что в этом эксперименте нехватка информации играет ту же роль, что занятость ума или нехватка времени в усилении эффекта эмоциональной логики.) Для знакомых акций воспринимаемый риск и воспринимаемый доход имели позитивную корреляцию, как это и предсказывается в норме экономической теорией. (Если акции безопасны, покупатель платит премию за их безопасность, и они являются более дорогими, что уменьшает ожидаемый доход.)

Люди обычно имеют недостаточную информацию о будущих технологиях. Поэтому неудивительно, что их отношение эмоционально поляризовано. Когда я только начал думать об этих материях, я считал, что биотехнология имеет относительно меньше достоинств сравнительно с нанотехнологией, и я больше боялся сконструированных супервирусов, чем вредоносного применения нанотехнологий. Искусственный интеллект, от которого я ожидал наибольших выгод, нисколько не беспокоил меня. Позже, когда я исследовал проблему гораздо более детально, моя оценка относительных преимуществ осталась относительно такой же, но мои тревоги стали противоположными: более мощные технологии, с большими ожидаемыми выгодами, теперь выглядят имеющими соответственно большие риски. С ретроспективной точки зрения это вполне предсказуемо. Но анализ, основанный на недостаточной информации, склонен оценивать технологии эмоционально, в результате чего информация о преимуществах имеет тенденцию смягчать воспринимаемый риск.

Пренебрежение масштабом

(2000 / 20000 / 200000) перелетных птиц тонут каждый год в незакрытых нефтехранилищах, которые птицы по ошибке принимают за пруды с водой. Эти смерти могут быть предотвращены путем накрывания хранилищ сетями. Сколько денег вы были бы готовы заплатить за установку таких сетей?

Три группы испытуемых, рассматривавших этот вопрос, были опрошены о том, какое увеличение налога они были бы готовы принять, чтобы спасти 2000, 20000 или 200000 птиц. Ответ, названный Установленная Готовность Платить (УГП), был в среднем 80 $ за 2000 птиц, 78 $ за 20000 и 88 $ за 200000 птиц. [Desvousges, 1993]. Этот феномен известен как нечувствительность к масштабу или пренебрежение масштабом.

Подобные исследовании показали, что жители Торонто готовы заплатить только немногим больше, чтобы очистить все озера Онтарио, чем чтобы очистить загрязенные озера только части штата [Kahneman, 1986], и что жители четырех западных штатов в США готовы заплатить только на 28 % больше, чтобы защитить все 57 уголков дикой природы в этих штатах, чем чтобы защитить только один такой уголок. [McFadden и Leonard, 1995]. Наиболее широко распространенное объяснение эффекта пренебрежения масштабом апеллирует к эмоциональной логике. Канеман [Kahneman, 1999] пишет:

«История о птицах из опытов Девужа (Desvousges), вероятно, вызывает у многих читателей ментальное представление о неком событии, возможно — образ истощенной птицы с намоченными черной нефтью крыльями, неспособной спастись. Гипотеза об оценке по первоначальному образу утверждает, что эмоциональное влияние этого образа будет доминировать над отношением к проблеме, включая готовность платить за решение. Оценка по первоначальному образу автоматически означает пренебрежение к остальным деталям ситуации»

Две другие гипотезы о пренебрежении масштабом включают в себя покупку морального удовлетворения [Kahneman и Knetsch, 1992] и пожертвование монетки ради доброго дела [Harrison, 1992]. Гипотеза о моральном удовлетворении предполагает, что люди тратят достаточно денег, чтобы создать ощущение «внутренней теплоты» в себе, и требующийся на это объем денег зависит от человеческой психологии и не имеет ничего общего с птицами. Гипотеза о «монетке на благотворительность» предполагает, что люди готовы выделить определенную сумму «на экологию», и любой вопрос о проблемах окружающей среды просто проявляет это количество.

Пренебрежение масштабом было продемонстрировано и по отношению к человеческим жизням. Карсон и Митчелл [Carson and Mitchell„ 1995] сообщают, что информации об увеличении риска, связанного с питьем хлорированной воды с 0,004 до 2,43 на 1000 смертей в год (то есть в 600 раз) увеличивает установленную готовность платить (УГП) платить с 3,78 до 15,23 долларов (то есть 4 раза). Бэйрон и Грин [Baron and Greene, 1996] обнаружили, что изменение числа спасенных жизней в 10 раз не оказывает никакого эффекта на этот индекс.

Фезерстонхоу [Fetherstonhaugh, 1997], в статье, озаглавленной «Нечувствительность к ценности человеческой жизни: исследование психологического восприятия чисел», обнаружил свидетельства того, что наше восприятие человеческих смертей и ощущение ценности человеческих жизней следует закону Вебера, это значит, что мы используем логарифмическую шкалу. И действительно, исследования эффекта пренебрежения масштабом, в которых количественные изменения были достаточно велики, чтобы вызвать хотя бы какую-то чувствительность, показали небольшие линейные изменения готовности платить, соответствующие экспоненциальным изменениям масштаба. Канеман [Kahneman, 1999] интерпретирует это как дополнительный эффект эмоциональной реакции на масштаб к реакции на первоначальный образ: первоначальный образ вызывает большую часть эмоции, а масштаб вызывает меньшую часть эмоции, которая добавляется (но не умножается) к первоначальному количеству.

Альберт Сент-Дьёрди (Albert Szent-Györgyi) говорит: «На меня производят сильное впечатление страдания одного человека, и я готов рисковать своей жизнью ради него. Но я могу говорить совершенно отстранённо о заражении наших больших городов с сотнями миллионов погибших. Я не способен умножить страдания одного на сто миллионов». Человеческие эмоции возникают внутри аналогового ума. Человеческий мозг не способен выработать достаточно нейротрансмиттеров, чтобы почувствовать эмоцию в тысячу раз более сильную, чем горе на похоронах. Увеличение возможного риска с десяти миллионов смертей до ста миллионов не увеличивает в десять раз нашу решимость не допустить этого. Это просто добавление еще одного нолика на бумаге у нас перед глазами, что имеет столь небольшой эффект, что обычно необходимо изменить количество жертв на несколько порядков, чтобы заметить разницу экспериментально.

Калибровка и сверхуверенность

Насколько люди уверены в своих ошибочных оценках? В первом разделе этой статьи, посвященном эффекту доступности информации, мы обсудили эксперимент по восприятию риска, в котором испытуемые переоценивали типичные для сообщений средств массовой информации причины смерти в пропорции, коррелирующей с избирательными сообщениями в газетах. Словик [Slovic, 1982] также отмечает:

«Одним из пагубных аспектов моделей рассуждений (эвристик) является то, что люди обычно имеют очень большую уверенность в суждениях, основанных на них. В другом исследовании по поводу причин смерти, людей просили сделать ставки на то, что они правы в своем выборе более частой среди двух причин смерти. [Fischoff, Slovic, и Lichtenstein, 1977]. В эксперименте №1 испытуемые были довольно точны, когда делали ставки 1:1, 1.5:1, 2:1, и 3:1. То есть, процент правильных ответов был близок к значению, которое следовало из этих ставок. Однако, по мере увеличения ставок от 3:1 к 100:1 почти никакого прироста точности не происходило. Только 73 % ответов, на которые сделали ставки 100:1, были верны (вместо 99.1 %). Точность возросла до 81 % при ставках 1000:1 и до 87 % при 10000:1. Для ответов, на которые ставили 1000000:1, точность составляла 90 %, то есть, соответствующий уровень доверия должен был бы порождать ставки 9:1. В итоге, испытуемые часто ошибались даже при высочайших уровнях ставок. Более того, они были склонны делать очень высокие ставки. Более половины ставок была выше, чем 50:1. Почти четверть — выше, чем 100:1. 30% респондентов в эксперименте № 1 сделали ставку 50:1 на неверное утверждение, что убийства более часты, чем самоубийства».

Этот кажущийся удивительным результат вполне обычен в литературе, посвященной моделям рассуждений и систематическим ошибкам в мышлении, где он известен как сверхуверенность. Допустим, я попрошу вас сделать наилучшее возможное предположение насчет неизвестного числа, такого, как количество «Врачей и хирургов» в желтых страницах бостонской телефонной книге, или о суммарной продукции яиц в США в миллионах штук. Вы дадите в ответ некую величину, которая наверняка не будет совершенно точной; подлинная величина будет больше или меньше, чем вы предположили. Затем я попрошу вас назвать нижнюю границу этого показателя, такую, насчет которой вы уверены на 99 %, что подлинная величина лежит выше этой границы, и верхнюю границу, по отношению к которой вы на 99 % уверены, что искомая величина лежит ниже нее. Эти две границы образуют ваш интервал 98 % уверенности. Если вы хорошо откалиброваны, то на 100 подобных вопросов у вас будет только примерно 2 выпадения за границы интервала.

Альперт и Раиффа [Alpert и Raiffa, 1982] задали испытуемым 1000 вопросов по общеизвестным темам, подобных приведенным выше. Оказалось, что для 426 из них подлинные значения лежали за пределами 98 % интервалов уверенности, данных испытуемыми. Если бы испытуемые были правильно откалиброваны, было бы только 20 сюрпризов. Иными словами, события, которым испытуемые приписывали вероятность 2%, случались в 42,6%. Другую группу из тридцати пяти испытуемых попросили оценить 99,9% верхние и нижние границы уверенности. Они оказались неправы в 40 % случаев. Другие 35 испытуемых были опрошены о максимальных и минимальных значениях некого параметра и ошиблись в 47% случаев. Наконец, четвертая группа из 35 испытуемых должна была указать «невероятно малое» и «невероятно большое» значение параметра; они ошиблись в 38% случаев.

В следующем эксперименте новой группе испытуемых был предоставлен первый набор вопросов вместе с ответами, рейтингом оценок, с рассказом о результатах экспериментов и разъяснением концепции калибровки, и затем их попросили дать 98% интервалы уверенности для новой группы вопросов. Прошедшие подготовку испытуемые ошиблись в 19% случаях, что являет собой значительное улучшение их результата в 34% до подготовки, но все еще весьма далеко от хорошо откалиброванного результата в 2%.

Подобные уровни ошибок были обнаружены и у экспертов. Хинс и Вэнмарк [Hynes и Vanmarke, 1976] опросили семь всемирно известных геотехников на предмет высоты дамбы, которая вызовет разрушение фундамента из глинистых пород, и попросили оценить интервал 50 % уверенности вокруг этой оценки. Оказалось, что ни один из предложенных интервалов не включал в себя правильную высоту. Кристенсен-Залански и Бушихед [Christensen-Szalanski и Bushyhead, 1981] опросили группу врачей на предмет вероятности пневмонии у 1531 пациента с кашлем. В наиболее точно указанном интервале уверенности с заявленной достоверностью в 88 %, доля пациентов, действительно имевших пневмонию, была менее 20 %.

Говоря словами Алперта и Раиффы [Alpert и Raiffa, 1982]: «Ради Бога, расширяйте свои крайние оценки! Будьте честны с собой! Допустите, что вы не знаете!»

Лихтенштейн [Lichtenstein, 1982] произвел обзор четырнадцати исследований на основании тридцати четырех экспериментов, выполненных двадцатью тремя исследователями, изучавшими особенности оценки достоверности собственных выводов людьми. Из исследований следовал мощнейший вывод о том, что люди всегда сверхуверены. В современных исследованиях на сверхуверенность уже не обращают внимания; но она продолжает попутно проявляться почти в каждом эксперименте, где испытуемым позволяется давать оценки максимальных вероятностей.

Сверхуверенность в большой мере проявляется в сфере планирования, где она известна как ошибочность планирования. Булер [Buehler, 1994] попросил студентов-психологов предсказать важный параметр: время сдачи их дипломных работ. Исследователи подождали, когда студенты приблизились к концу своих годичных проектов и затем попросили их реалистично оценить, когда они сдадут свои работы, а также, когда они сдадут свои работы, если все пойдет «так плохо, как только может». В среднем, студентам потребовалось 55 дней, чтобы завершить свои дипломы, на 22 дня больше, чем они ожидали, и на 7 дней больше, чем они ожидали в худшем случае.

Бюхлер [Buehler, 1994] опросил студентов о времени, к которому студенты на 50% уверены, на 75 % уверены и на 99 % уверены, что они закончат свои академические проекты. Только 13 % участников закончили свои дипломы к моменту, которому приписывали 50 % вероятность, только 19 % закончили к моменту 75 % оценки и 45 % закончили ко времени, оценивавшемуся в 99 % уверенности. Булер [Buehler et. al., 2002] пишет «результаты выхода на уровень 99 % достоверности особенно впечатляющи. Даже когда их попросили сделать наиболее консервативное предсказание, в отношении которого они чувствовали абсолютную уверенность, что его достигнут, все равно уверенность студентов в их временных оценках намного превосходила их реальные результаты».

Ньюби-Кларк [Newby-Clark et. al., 2000] обнаружили, что опросы испытуемых об их предсказаниях, основанных на наиболее реалистичном предположении, и опросы испытуемых об их надеждах в самом лучшем случае давали неразличимые результаты. Будучи спрошены о наиболее вероятном стечении обстоятельств, люди имели тенденцию предполагать, что все пойдет так, как планировалось, без неожиданных задержек и непредвиденных катастроф, то есть так же, как в наилучшем случае. Реальность, как оказалось, зачастую преподносит результаты, худшие, чем самый наихудший случай. В этой статье мы обсуждаем сверхуверенность после обсуждения систематической ошибки подтверждения и частного случая — систематической ошибки неподтверждения. Знание об эффекте калибровки — это опасное знание, поскольку очень соблазнительно применять его избирательно. «Насколько глуп мой оппонент, чтобы быть уверенным в своих аргументах. Знает ли он, как часто люди ошибаются в том, в чем они уверены?» Если вы обнаруживаете, что мнения эксперта имеют гораздо меньше значения, чем вы раньше думали, вам стоит также понять, что ваши собственные мысли тоже гораздо слабее, чем вы думали раньше: и тогда потребуется меньше усилий, чтобы увлечь вас в сторону от ваших любимых убеждений. В противном случае вы станете медленнее реагировать на новые свидетельства. Вы оказываетесь в гораздо более худшем положении, чем, если бы вы никогда не слышали о калибровке. По этой причине — часто, несмотря на значительное искушение — я избегаю обсуждения исследований по калибровке, до того как я обсужу систематическую ошибку подтверждения, для того, чтобы я мог сделать такое же предупреждение.

Отметьте так же, что оценка эксперта, сильно уверенного в своем мнении, принципиально отличается от вычислений, сделанных исключительно на основе статистических данных, или исключительно на основе адекватной, точно подтвержденной модели. Во всех случаях, когда эксперт утверждает, даже на основании точных вычислений, что событие имеет вероятность 10−6, он наверняка ошибается чаще, чем один раз на миллион. Но если бы комбинаторика не могла точно предсказать, что лотерейный билет имеет 10−8 шанс выиграть, то продавцы билетов бы разорились.

Апатия прохожего

Последняя рассматриваемая мной систематическая ошибка относится не к области моделей рассуждений, но к области социальной психологии. В ныне знаменитой серии экспериментов Лэйтен и Дэрли [Latane и Darley, 1969] открыли эффект прохожего, известный также как апатия прохожего, который состоит в том, что в больших группах люди менее склонны реагировать на чрезвычайные ситуации — не только индивидуально, но и коллективно. 75 % испытуемых, будучи одни в комнате и заметив дым из-под двери, выходят, чтобы сообщить об этом. Когда в комнате находятся трое испытуемых, не знающих об условиях опыта, о дыме сообщают только в 38 % случаев. Испытуемый, находясь в компании двух подсадных уток, нарочно не реагирующих на дым, выходит, чтобы сообщить о дыме только в 10 % случаев. Студент колледжа, изображавший эпилептический припадок, получил помощь от единственного свидетеля в 85 % случаев и только в 31 % случаев в присутствии пятерых свидетелей.

Эффект прохожего обычно объясняется как происходящий из рассеяния ответственности и игнорирования из-за неопределенности ситуации. Нахождение в группе уменьшает индивидуальную ответственность. Каждый надеется, что кто-то другой разберется с проблемой вместо них, и это ослабляет личную напряженность каждого по поводу того, что никто ничего не делает. Подтверждением этой гипотезы являются опыты, в которых испытуемые верили, что жертва особенно зависит от них: это ослабляло или полностью устраняло эффект равнодушия прохожего. Чалдини [Cialdini, 2001] рекомендует человеку, оказавшемуся в чрезвычайной ситуации, выделить одного одинокого прохожего и попросить его о помощи — таким образом преодолевая рассеяние ответственности.

Игнорирование из-за неопределенности ситуации является более тонким эффектом. Чалдини [Cialdini, 2001] пишет: «Часто чрезвычайная ситуация далеко не очевидна. Является ли человек, лежащий в парке, жертвой сердечного приступа или спящим пьяным? В случае такой неопределенности естественным поведением является посмотреть вокруг на действия других людей для подсказки. Мы можем понять из поведения других свидетелей, является ли событие чрезвычайной ситуацией или нет. Однако легко забыть при этом, что все остальные свидетели события тоже ищут социального подтверждения. Поскольку все мы предпочитаем выглядеть уравновешенными и сохраняющими самообладание, мы будем искать это подтверждение скрытно, бросая короткие взгляды на людей вокруг нас. Поэтому каждый увидит другого, скорее всего, спокойным и ничего не делающим».

Эффект прохожего не связан с индивидуальным эгоизмом или нечувствительностью к страданиям других. По одиночке испытуемые обычно действуют. Игнорирование из-за неопределенности ситуации может объяснить, в отличие от индивидуального эгоизма, почему испытуемые не реагируют на наполнение комнаты дымом. В экспериментах, где была явная опасность, как для других, так и для себя, испытуемые часто бросали взгляды на нереагировавших подсадных уток.

Я время от времени спрашиваю: «если «глобальный риск Х» реален, почему не много людей делают что-нибудь в связи с этим?» Есть много возможных ответов, части которых я коснулся здесь. Люди могут быть сверхуверены и сверхоптимистичны. Они могут быть сосредоточены на каких-то одних сценариях будущего, исключая при этом все остальные. Они могут не помнить ни одного случая всеобщего истребления. Они могут переоценивать предсказуемость прошлого, и за счет этого недооценивать сюрпризы будущего. Они могут не осознавать трудности подготовки к чрезвычайным ситуациям без преимуществ знания задним числом. Они могут предпочитать филантропические игры с высокой вероятностью выигрыша, пренебрегая величиной ставки. Они могут уравнивать позитивную информацию о преимуществах некой технологии с негативной информацией о ее риске. Они могут быть отравлены кинофильмами, в которых мир, в конце концов, бывает спасен. Они могут получить моральное удовлетворение гораздо проще, давая деньги на другие виды благотворительности. Или же чрезвычайно неприятная перспектива человеческого вымирания может побудить их искать доводы в пользу того, что человечество не вымрет, без столь же интенсивного поиска причин, по которым это может произойти.

Но если вопрос таков: «Почему не так много людей делают что-нибудь в связи с этим?», один возможный момент может быть в том, что люди, задающие этот самый вопрос, рыщут глазами вокруг, чтобы посмотреть, есть ли еще кто-нибудь, реагирующий на опасность, и одновременно стараются выглядеть уравновешенными и сохраняющими самообладание. Если вы хотите узнать, почему другие не реагируют на опасность, перед тем, как среагировать самому, вы уже возможно ответили на свой вопрос.

Последнее предупреждение

Любая достоверная идея, которая вас раздражает, по-видимому, задевает в вас модель хотя бы одной психологической ошибки.

Роберт Пирсиг (Robert Pirsig) сказал: «Самый глупый человек в мире может сказать, что солнце светит, и это не заставит его погаснуть

Список когнитивных искажений

Имя Описание
Эффект неоднозначности Тенденция избегать вариантов, для которых неизвестна вероятность благоприятного исхода.
Якорение или фокусировка Склонность слишком сильно полагаться, или «якорь», на одну черту или часть информации при принятии решений (обычно первая часть информация, полученная по этому вопросу).
Антропоцентрическое мышление Тенденция использовать человеческие аналогии в качестве основы для рассуждений о других, менее известных, биологических явлениях.
Антропоморфизм или персонификация Тенденция характеризовать животных, предметы и абстрактные понятия как обладающие человеческими чертами, эмоциями и намерениями.
Предвзятость Тенденция к восприятию повторяющимися мыслями.
Автоматизация смещения Тенденция чрезмерно полагаться на автоматизированные системы, которые могут приводят к ошибочной автоматизированной информации, которая отменяет правильные решения.
Эвристика доступности Склонность переоценивать вероятность событий с большей «доступность» в памяти, на которую может влиять то, насколько недавно воспоминания или насколько они необычны или эмоционально заряжены.
Каскад доступности Самоусиливающийся процесс, в котором коллективная вера приобретает все большую правдоподобность за счет все большего повторения в публичный дискурс (или «повторяйте что-то достаточно долго, и это станет правда»).
Эффект обратного огня Реакция на опровергающие свидетельства укреплением прежних убеждений.
Эффект поводка Склонность делать (или верить) во что-то, потому что многие другие люди делают (или верят) так же.Относится к групповому мышлению и стадному поведению.
Ошибка базовой ставки или пренебрежение базовой ставкой Тенденция игнорировать информацию о базовой ставке (общая, общая информации) и сосредоточиться на конкретной информации (только информация относящиеся к определенному случаю).
Смещение убеждений Эффект, при котором чья-то оценка логической силы аргумента искажается правдоподобностью вывода.
Эффект Бена Франклина Человек, оказавший кому-то услугу, с большей вероятностью сделает другая услуга для этого человека, чем они были бы, если бы они имели получили одолжение от этого человека.
Парадокс Берксона Тенденция неверно истолковывать статистические эксперименты с условными вероятностями.
Смещение мертвой точки Тенденция считать себя менее предвзятой, чем другие люди, или склонность уметь определять больше когнитивных предубеждений в других, чем в себе.
Предвзятость в пользу выбора Склонность помнить о своих выборах лучше, чем они были на самом деле.
Иллюзия кластеризации Склонность переоценивать важность малых тиражей, полос, или кластеры в больших выборках случайных данных (т. е. видение фантомного узоры).
Смещение подтверждения Тенденция искать, интерпретировать, сосредотачиваться и запоминать информацию таким образом, чтобы подтвердить свои предубеждения.
Смещение конгруэнтности Тенденция проверять гипотезы исключительно путем прямого тестирования, вместо проверки возможных альтернативных гипотез.
Ошибочность соединения Тенденция полагать, что конкретные условия более вероятны, чем общие.
Консерватизм (пересмотр убеждений) Склонность недостаточно пересматривать свою веру при представлении новых доказательств.
Продолжающийся эффект влияния Склонность верить ранее полученной дезинформации даже после это было исправлено. Дезинформация по-прежнему может влиять на выводы один генерируется после того, как произошла коррекция.
Эффект контраста Усиление или ослабление восприятия определенного стимула по сравнению с недавно наблюдаемым контрастным объектом.
Предвзятость вежливости Склонность высказывать мнение, которое более социально корректно, чем истинное мнение, чтобы никого не обидеть.
Проклятие знаний Когда более информированным людям чрезвычайно трудно думать о проблемах с точки зрения менее информированных людей.
Склонность Предрасположенность смотреть на прошлое положительно (радужная ретроспектива) и отрицательно на будущее.
Эффект приманки Предпочтения для варианта A или B изменяются в пользу варианта B когда представлен вариант C, в котором полностью преобладает вариант B (уступает по всем параметрам) и частично преобладает вариант А.
Эффект по умолчанию Когда предоставляется выбор между несколькими вариантами, склонность отдавать предпочтение варианту по умолчанию.
Эффект номинала Тенденция тратить больше денег, когда они выражены небольшими суммами (например, монетами), а не большими суммами (например, купюрами).
Эффект диспозиции Тенденция продать актив, стоимость которого увеличилась, и сопротивление продаже актива, стоимость которого снизилась.
Смещение различия Тенденция рассматривать два варианта как более непохожие при их одновременной оценке, чем при их оценке по отдельности.
Отвращение к страху Подобно тому, как потери дают вдвое большее эмоциональное воздействие по сравнению с приобретениями, страх вдвое увеличивает эмоциональное воздействие наслаждения.
Эффект Даннинга – Крюгера Склонность неквалифицированных людей переоценивать свои собственные способность и склонность к опыту

Список когнитивных предубеждений

Когнитивная предвзятость — это неправильное суждение, часто вызванное конкретной ситуацией.Для выявления «плохого суждения» или, точнее, «отклонения от суждения» требуется стандарт для сравнения, то есть «здравое суждение». В научных исследованиях когнитивной предвзятости источником «здравого суждения» являются люди, не относящиеся к ситуации, предположительно вызывающей неверное суждение, или, если возможно, набор независимо проверяемых фактов. Существование большинства конкретных когнитивных искажений, перечисленных ниже, было подтверждено эмпирически в психологических экспериментах.

Когнитивные предубеждения, как и многие другие модели поведения, находятся под влиянием эволюции и естественного отбора.Некоторые из них предположительно адаптивны и полезны, например, потому что они приводят к более эффективным действиям в данных контекстах или позволяют принимать более быстрые решения, когда более быстрые решения имеют большее значение для репродуктивного успеха и выживания. Другие предположительно являются результатом отсутствия соответствующих психических механизмов, то есть общего сбоя в структуре человеческого мозга, или неправильного применения механизма, который является адаптивным (полезным) в различных обстоятельствах.

Когнитивная предвзятость — это общий термин, который используется для описания многих искажений в человеческом разуме, которые трудно устранить и которые приводят к искажениям восприятия, неточным суждениям или нелогичной интерпретации. [1]

Принятие решений и поведенческие предубеждения

Многие из этих предубеждений изучаются на предмет того, как они влияют на формирование убеждений, деловые решения и научные исследования.

  • Якорь — обычная человеческая склонность слишком сильно полагаться или «привязываться» к одной особенности или части информации при принятии решений.
  • Attentional Bias — неявное когнитивное предубеждение, определяемое как склонность эмоционально доминирующих стимулов в окружающей среде преимущественно привлекать и удерживать внимание.
  • Обратный эффект — Свидетельства, опровергающие наши убеждения, только укрепляют их.
  • Эффект подножки — тенденция делать (или верить) во что-то, потому что многие другие люди делают (или верят) то же самое. Относится к групповому мышлению и стадному поведению.
  • Слепое пятно смещения — тенденция считать себя менее предвзятой, чем другие люди. [2]
  • Предвзятость в пользу выбора — тенденция помнить о своем выборе как о лучшем, чем он был на самом деле. [3]
  • Предвзятость подтверждения — тенденция искать или интерпретировать информацию таким образом, чтобы подтвердить свои предубеждения. [4]
  • Смещение конгруэнтности — тенденция проверять гипотезы исключительно посредством прямого тестирования, в отличие от проверки возможных альтернативных гипотез.
  • Эффект контраста — увеличение или уменьшение веса или другого измерения по сравнению с недавно наблюдаемым контрастирующим объектом. [5]
  • Эффект деноминации — тенденция тратить больше денег, когда они деноминированы в небольших количествах (например, в монетах), а не в больших (например, в банкнотах). [6]
  • Смещение различий — тенденция рассматривать два варианта как более непохожие при их одновременной оценке, чем при их оценке по отдельности. [7]
  • Разрыв сочувствия — тенденция недооценивать влияние или силу чувств ни в себе, ни в других.
  • Эффект пожертвования — «тот факт, что люди часто требуют гораздо большего, чтобы отказаться от объекта, чем они готовы были бы заплатить за его приобретение». [8]
  • Предвзятость экспериментатора или ожиданий — тенденция экспериментаторов верить, подтверждать и публиковать данные, которые согласуются с их ожиданиями в отношении результата эксперимента, а также не верить, отвергать или понижать соответствующие веса для данных, которые кажутся противоречащими друг другу. эти ожидания. [9]
  • Эффект фокусировки — тенденция придавать слишком большое значение одному аспекту события; вызывает ошибку в точном прогнозе полезности будущего результата. [10]
  • Эффект кадрирования — разные выводы из одной и той же информации в зависимости от того, как эта информация представлена.
  • Эффект враждебных СМИ — тенденция рассматривать сообщения СМИ как предвзятые из-за собственных сильных партийных взглядов.
  • Гиперболическое дисконтирование — тенденция людей иметь более сильное предпочтение более немедленных выплат по сравнению с более поздними выплатами, причем эта тенденция тем больше, чем ближе к настоящему обе выплаты. [11]
  • Иллюзия контроля — склонность переоценивать степень своего влияния на другие внешние события. [12]
  • Смещение воздействия — тенденция переоценивать продолжительность или интенсивность воздействия будущих состояний чувств. [13]
  • Информационная предвзятость — тенденция искать информацию, даже если она не может повлиять на действие. [14]
  • Иррациональная эскалация — явление, при котором люди оправдывают увеличение инвестиций в решение, основываясь на совокупных предыдущих инвестициях, несмотря на новые данные, свидетельствующие о том, что решение, вероятно, было неправильным.
  • Неприятие потери — «Бесполезность отказа от объекта больше, чем полезность, связанная с его приобретением». [15] (см. Также эффекты невозвратной стоимости и эффект эндаумента).
  • Эффект простого воздействия — тенденция выражать чрезмерную симпатию к вещам только из-за того, что они с ними знакомы. [16]
  • Иллюзия денег — тенденция концентрироваться на номинальной (номинальной) стоимости денег, а не на их стоимости с точки зрения покупательной способности. [17]
  • Эффект морального авторитета — тенденция отсутствия предрассудков к дальнейшему усилению предубеждений.
  • Предвзятость к негативу — тенденция уделять больше внимания и придавать больший вес негативному, чем позитивному опыту или другой информации.
  • Пренебрежение вероятностью — тенденция полностью игнорировать вероятность при принятии решения в условиях неопределенности. [18]
  • Смещение нормальности — отказ планировать катастрофу или реагировать на нее, чего никогда раньше не случалось.
  • Предубеждение в отношении пропусков — тенденция оценивать вредные действия как худшие или менее нравственные, чем столь же вредные упущения (бездействия). [19]
  • Предвзятость результата — тенденция судить о решении по его окончательному результату, а не по качеству решения на момент его принятия.
  • Ошибка планирования — тенденция недооценивать время выполнения задачи. [13]
  • Рационализация после покупки — тенденция убедить себя с помощью рациональных аргументов в том, что покупка была выгодной.
  • Эффект псевдоопределенности — тенденция делать выбор, не связанный с риском, если ожидаемый результат положительный, но делать выбор с учетом риска, чтобы избежать отрицательных результатов. [20]
  • Реакция — побуждение делать противоположное тому, что кто-то хочет от вас, из-за необходимости сопротивляться предполагаемой попытке ограничить вашу свободу выбора.
  • Сдержанность — тенденция переоценивать свою способность проявлять сдержанность перед лицом искушения.
  • Избирательное восприятие — склонность ожиданий влиять на восприятие.
  • Рефлекс Земмельвейса — тенденция отвергать новые свидетельства, противоречащие парадигме. [21]
  • Социальная предвзятость сравнения — тенденция при принятии решений о приеме на работу отдавать предпочтение потенциальным кандидатам, которые не конкурируют с собственными сильными сторонами. [22]
  • Предубеждение статус-кво — тенденция любить вещи, чтобы они оставались относительно прежними (см. Также неприятие потерь, эффект пожертвования и системное обоснование). [23] [24]
  • Смещение единицы — тенденция к желанию завершить данную единицу задачи или элемента.Особенно сильно влияет на потребление пищи. [25]
  • Принятие желаемого за действительное — формирование убеждений и принятие решений в соответствии с тем, что приятно вообразить, вместо апелляции к свидетельствам или рациональности. [26]
  • Смещение нулевого риска — предпочтение уменьшения небольшого риска до нуля по сравнению с большим уменьшением большего риска.

Предубеждения в отношении вероятности и убеждений

Многие из этих предубеждений часто изучаются на предмет того, как они влияют на деловые и экономические решения и как они влияют на экспериментальные исследования.

  • Эффект неоднозначности — тенденция избегать вариантов, для которых из-за отсутствия информации вероятность кажется «неизвестной». [27]
  • Эффект привязки — тенденция слишком сильно полагаться, или «привязать», к прошлым ссылкам или на одну черту или часть информации при принятии решений (также называемая «недостаточной корректировкой»).
  • Предвзятое внимание — тенденция пренебрегать соответствующими данными при вынесении суждений о корреляции или ассоциации.
  • Эвристика доступности — оценка того, что более вероятно, исходя из того, что больше доступно в памяти, которая смещена в сторону ярких, необычных или эмоционально заряженных примеров.
  • Каскад доступности — самоусиливающийся процесс, в котором коллективное убеждение приобретает все большую и большую правдоподобность за счет все большего повторения в публичном дискурсе (или «повторяйте что-то достаточно долго, и оно станет правдой»).
  • Игнорирование базовой ставки или Ошибка базовой ставки — тенденция основывать суждения на конкретных деталях, игнорируя общую статистическую информацию. [28]
  • Предвзятое мнение — эффект, при котором чья-то оценка логической силы аргумента искажается правдоподобностью вывода. [29]
  • Иллюзия кластеризации — тенденция видеть закономерности там, где их фактически нет.
  • Ошибка конъюнкции — тенденция полагать, что определенные условия более вероятны, чем общие. [30]
  • Прямое смещение — тенденция к созданию моделей на основе прошлых данных, которые проверяются только по этим прошлым данным.
  • Частотная иллюзия — иллюзия, при которой слово, имя или другая вещь, которая недавно привлекла ваше внимание, внезапно появляется «повсюду» с невероятной частотой (см. Также иллюзию недавности). Иногда называют « Феномен Баадера-Майнхоф ».
  • Заблуждение игрока — тенденция думать, что будущие вероятности изменены прошлыми событиями, хотя в действительности они не изменились. Результат ошибочной концепции Закона больших чисел.Например, «Я подбрасывал орлом этой монетой пять раз подряд, поэтому вероятность выпадения решки при шестом подбрасывании намного выше, чем орла».
  • Предвзятость в ретроспективе — иногда называемый эффектом «я все знал», тенденция рассматривать прошлые события как предсказуемые [31] в то время, когда эти события произошли. (Иногда выражается как «ретроспективный взгляд — это все». 20/20 «)
  • Иллюзорная корреляция — неточное восприятие взаимосвязи между двумя событиями либо из-за предубеждений, либо из-за выборочной обработки информации. [32]
  • Гипотеза справедливого мира — тенденция людей желать верить в фундаментальную справедливость мира, заставляя их рационализировать необъяснимую несправедливость, которую заслуживает жертва (жертвы).
  • Эффект ожидания наблюдателя — когда исследователь ожидает определенного результата и поэтому бессознательно манипулирует экспериментом или неверно интерпретирует данные, чтобы его найти (см. Также эффект ожидания субъекта).
  • Предвзятость к оптимизму — тенденция чрезмерно оптимистично относиться к результатам запланированных действий. [33]
  • Эффект страуса — игнорирование очевидной (отрицательной) ситуации.
  • Эффект самоуверенности — чрезмерная уверенность в собственных ответах на вопросы. Например, для определенных типов вопросов ответы, которые люди оценивают как «99% уверенные», оказываются неверными в 40% случаев. [34] [35]
  • Предвзятость к положительному исходу — склонность человека переоценивать вероятность благоприятного исхода в данной ситуации (см. Также принятие желаемого за действительное, смещение оптимизма и эффект валентности).
  • Парейдолия — неопределенный и случайный стимул (часто изображение или звук) воспринимается как значительный, например, видение изображений животных или лиц в облаках, человека на луне и прослушивание скрытых сообщений на записях, проигрываемых в обратном порядке.
  • Предвзятость к пессимизму — склонность некоторых людей, особенно страдающих депрессией, переоценивать вероятность того, что с ними случится что-то плохое.
  • Эффект первенства — тенденция более взвешивать начальные события, чем последующие. [36]
  • Эффект давности — тенденция оценивать недавние события больше, чем более ранние (см. Также правило конца пика).
  • Иллюзия недавнего времени — иллюзия, что явление, как правило, употребление слова или языка, которое только что начали замечать, является недавним нововведением (см. Также частотную иллюзию).
  • Пренебрежение регрессом к среднему значению — тенденция ожидать продолжения экстремальных показателей.
  • Стереотипы — ожидание от члена группы определенных характеристик без реальной информации об этом человеке.
  • Эффект субаддитивности — тенденция оценивать вероятность целого как меньшую, чем вероятности частей.
  • Субъективная проверка — восприятие того, что что-то истинно, если убеждение субъекта требует, чтобы это было правдой. Также определяет предполагаемые связи между совпадениями.
  • Эффект хорошо пройденного пути — недооценка времени прохождения часто используемых маршрутов и завышенная оценка времени прохождения менее знакомых маршрутов.

Социальные предубеждения

Большинство этих предубеждений классифицируются как предубеждения атрибуции.

  • Предвзятость между актером и наблюдателем — тенденция в объяснениях поведения других людей переоценивать влияние их личности и недооценивать влияние их ситуации (см. Также Фундаментальная ошибка атрибуции), а также к объяснениям собственного поведения, чтобы сделать напротив (то есть переоценить влияние нашей ситуации и недооценить влияние нашей собственной личности).
  • Эффект Даннинга – Крюгера — двоякий уклон. С одной стороны, отсутствие метакогнитивных способностей вводит в заблуждение людей, которые переоценивают свои способности. С другой стороны, опытные люди недооценивают свои способности, так как полагают, что у других такое же понимание. [37]
  • Эгоцентрический уклон — возникает, когда люди берут на себя большую ответственность за результаты совместных действий, чем посторонний наблюдатель.
  • Эффект Форера (он же эффект Барнума) — тенденция давать высокие оценки точности описаниям их личности, которые предположительно созданы специально для них, но на самом деле являются достаточно расплывчатыми и общими, чтобы их можно было применить к широкому кругу людей.Например, гороскопы.
  • Эффект ложного консенсуса — склонность людей переоценивать степень согласия с ними других. [38]
  • Фундаментальная ошибка атрибуции — склонность людей переоценивать личностные объяснения поведения, наблюдаемого у других, при этом недооценивая роль и силу ситуационных влияний на то же поведение (см. Также смещение актера-наблюдателя, групповая ошибка атрибуции , эффект позитивности и эффект негатива). [39]
  • Эффект ореола — тенденция положительных или отрицательных черт человека «перетекать» из одной области его личности в другую в восприятии их другими людьми (см. Также стереотип физической привлекательности). [40]
  • Иллюзия асимметричного понимания — люди воспринимают свои знания о своих сверстниках так, чтобы они превосходили их знания о них. [41]
  • Иллюзия прозрачности — люди переоценивают способность других знать их, а также переоценивают свою способность узнавать других.
  • Иллюзорное превосходство — переоценка своих желаемых качеств и недооценка нежелательных качеств по сравнению с другими людьми. (Также известен как «эффект озера Вобегон», «эффект выше среднего» или «систематическая ошибка превосходства»). [42]
  • Ингрупповая предвзятость — тенденция людей отдавать предпочтение тем, кого они считают членами своих групп.
  • Феномен справедливого мира — тенденция людей верить в то, что мир справедлив и поэтому люди «получают то, что они заслуживают».«
  • Моральное везение — склонность людей приписывать большее или меньшее моральное положение на основе результата события, а не намерения
  • Ошибка однородности внешней группы — люди видят, что члены своей собственной группы относительно более разнообразны, чем члены других групп. [43]
  • Предвзятость проекции — тенденция бессознательно предполагать, что другие (или ваше будущее я) разделяют ваши текущие эмоциональные состояния, мысли и ценности. [44]
  • Корыстолюбие — тенденция требовать большей ответственности за успехи, чем за неудачи. Это также может проявляться как склонность людей оценивать неоднозначную информацию в соответствии с их интересами (см. Также предвзятость в отношении обслуживания группы). [45]
  • Системное обоснование — тенденция защищать и поддерживать статус-кво. Предпочтение отдается существующим социальным, экономическим и политическим договоренностям, а альтернативы порой пренебрегают даже в ущерб индивидуальным и коллективным интересам.(См. Также предвзятость статус-кво.)
  • Предвзятость приписывания черт — тенденция людей рассматривать себя как относительно изменчивых с точки зрения личности, поведения и настроения, в то время как других они считают более предсказуемыми.
  • Окончательная ошибка атрибуции — аналогична фундаментальной ошибке атрибуции, в этой ошибке человек, скорее всего, сделает внутреннюю атрибуцию всей группе, а не отдельным лицам в группе.

Ошибки и смещения памяти

Дополнительная информация: смещение памяти

  • Криптомнезия — форма неправильной атрибуции , при которой память ошибочно принимается за воображение.
  • Эгоцентрическое предубеждение — вспоминание прошлого в корыстной манере, например, вспоминая свои экзаменационные оценки как более высокие, чем они были, или вспоминая пойманную рыбу как большую, чем она была.
  • Ложные воспоминания — смешение воображения с воспоминаниями или смешение истинных воспоминаний с ложными воспоминаниями.
  • Предвзятость в ретроспективе — фильтрация воспоминаний о прошлых событиях через настоящие знания, так что эти события выглядят более предсказуемыми, чем они были на самом деле; также известный как эффект «Я все знал».» [31]
  • Эффект позитивности — пожилые люди запоминают относительно больше положительного, чем отрицательного, по сравнению с более молодыми людьми [46]
  • Удар воспоминаний — эффект, заключающийся в том, что люди склонны вспоминать больше личных событий подросткового и раннего взросления, чем других периодов жизни.
  • Розовая ретроспектива — тенденция оценивать прошлые события более положительно, чем они фактически оценивали их, когда событие произошло.
  • Корыстолюбие — восприятие себя ответственным за желаемые результаты, но не ответственным за нежелательные.
  • Внушаемость — форма неверной атрибуции , когда идеи, предложенные вопрошающим, ошибочно принимаются за память.
  • Эффект телескопирования — эффект, при котором недавние события кажутся произошедшими более удаленно, а отдаленные события — более недавними.
  • Эффект фон Ресторфа — тенденция к тому, что предмет, который «выделяется как больной палец», запоминается с большей вероятностью, чем другие предметы. Flyvbjerg, B., 2008, «Сдерживание предвзятости оптимизма и стратегического искажения в планировании: прогнозирование эталонного класса на практике». Европейские исследования планирования, т. 16, нет. 1, январь, стр. 3–21.
  • Список литературы

    • Барон, Джонатан (1994), Думая и решая (2-е изд.), Cambridge University Press, ISBN 0-521-43732-6
    • Барон, Джонатан (2000), Думая и решая (3-е изд.), Нью-Йорк: Cambridge University Press, ISBN 0-521-65030-5
    • Епископ, Майкл А.; Дж. Д. Траут (2004), Эпистемология и психология человеческого суждения , Нью-Йорк: Oxford University Press, ISBN 0-19-516229-3
    • Гилович, Томас (1993), Как мы знаем, что не так: ошибочность человеческого разума в повседневной жизни , Нью-Йорк: Свободная пресса, ISBN 0-02-
        6-2
      • Гилович, Томас; Дейл Гриффин, Дэниел Канеман (2002), Эвристика и предубеждения: Психология интуитивного суждения , Кембридж, Великобритания: Cambridge University Press, ISBN 0-521-79679-2
      • Гринвальд, А.(1980), «Тоталитарное эго: фабрикация и пересмотр личной истории», Американский психолог (Американская психологическая ассоциация) 35 (7), ISSN 0003-066X
      • Hardman, David (2009), Суждение и принятие решений: психологические перспективы , Wiley-Blackwell, ISBN 9781405123983
      • Канеман, Даниэль; Пол Слович, Амос Тверски (1982), Решение при неопределенности: эвристика и предубеждения , Кембридж, Великобритания: Cambridge University Press, ISBN 0-521-28414-7
      • Канеман, Даниэль; Knetsch, Джек Л.; Талер, Ричард Х. (1991), «Аномалии: эффект пожертвований, неприятие потерь и смещение статус-кво», Журнал экономических перспектив (Американская экономическая ассоциация) 5 (1): 193–206
      • Plous, Скотт (1993), Психология суждения и принятия решений , Нью-Йорк: McGraw-Hill, ISBN 0-07-050477-6
      • Шактер, Дэниел Л. (1999), «Семь грехов памяти: выводы из психологии и когнитивной нейробиологии», Американский психолог (Американская психологическая ассоциация) 54 (3): 182–203, doi: 10.1037 / 0003-066X.54.3.182, ISSN 0003-066X, PMID 10199218
      • Сазерленд, Стюарт (2007), Иррациональность , Пинтер и Мартин, ISBN 978-1-7-07-3
      • Тетлок, Филип Э. (2005), Экспертное политическое суждение: насколько это хорошо? как мы можем знать? , Принстон: Princeton University Press, ISBN 978-0-691-12302-8
      • Virine, L .; М. Трампер (2007), Проектные решения: искусство и наука, Вена, Вирджиния: Концепции управления, ISBN 978-1567262179

      5 примеров когнитивных предубеждений и как их избежать при принятии решений

      У всех нас есть предубеждения.Это способ нашего мозга уменьшить энергию, необходимую для обработки терабайтов информации, которую мы ежедневно получаем. Мы соединяем точки, заполняем пробелы тем, что, как нам кажется, мы знаем, и затем действуем так быстро, как только можем. Отлично подходит для того, чтобы избегать саблезубых тигров. Не подходит для решения проблем клиентов, разработки продуктовых стратегий и принятия сложных решений. К сожалению, простое знание предубеждений не избавит их от них. Мы должны спроектировать наши взаимодействия так, чтобы выявлять их и избегать их, насколько это возможно.

      Я провожу изрядное количество выездных сессий, занятий по стратегии и планированию и часто вижу в действии некоторые знакомые когнитивные искажения. Я подумал, что было бы полезно посмотреть на когнитивные искажения через эту призму.

      Итак, 5 примеров когнитивных предубеждений, на которые следует обратить внимание, и некоторые идеи, что с ними делать — будь то подготовка к встрече или в любое время.

      1. Смещение доступности

      Допустим, у вас есть дело за пределами офиса. Может быть, именно вы его организуете и выстраиваете повестку дня.Что приходит на ум, когда вы думаете о необходимых предварительных работах?

      Мы с большей вероятностью замечаем вещи — и тратим больше времени на размышления и разговоры о вещах, — которые связаны с тем, что недавно произошло. Это предвзятость доступности в действии: кажется, что мы замечаем что-то чаще, когда видим это в первый раз. Однако становится еще хуже: мы не можем не предположить, что если что-то (например, идея, риск, решение и т. Д.) Может быть отозвано, это должно быть более важным, чем любые другие идеи / риски / решения, о которых не так легко вспомнить.

      Это убийца во время начала работы вне офиса, где все должны иметь общее всеобъемлющее понимание текущей ситуации. Это также ограничивает деятельность по мозговому штурму или поиску идей / определению приоритетов, потому что оно лишает любые альтернативные или возникающие идеи кислорода, фиксируя при этом первую идею.

      Вот несколько способов избежать предвзятости в отношении доступности:

      • Боритесь с правилом конца пика и предвзятостью подтверждения при выполнении любой предварительной работы или делегировании предварительной работы для сеанса .Не просто используйте самую последнюю доступную информацию, информацию, на которую чаще всего ссылаются, и / или информацию, о которой вы больше всего думаете, но выполняйте дополнительную домашнюю работу (и делитесь нагрузкой с другими), чтобы собрать информацию за более длительный период времени, или из большего числа источников.
      • Презентации в начале могут ложно ограничивать результаты . Если ваш внешний сайт начинается с того, что один или несколько человек представляют информацию, сначала свяжитесь с ними, чтобы увидеть, будет ли то, что они представляют, склонить всех остальных к определенному источнику информации или результату.
      • Не приглашайте обычных подозреваемых к выездному . Примите тот факт, что все присутствующие будут демонстрировать предвзятость в отношении доступности, и поощряйте лучший результат, приглашая более широкий круг людей, воспоминаний и мыслей.
      • Наш мозг любит свободные ассоциации . Если вы проводите мозговой штурм или придумываете стратегические варианты, помогайте людям бороться с волной забывчивости, зависящей от сигналов, и помогайте им выбраться из привычной рутины мышления, разместив на стене множество фотографий и других визуальных подсказок, стимулировать идеи ассоциациями (чем больше случайностей, тем лучше).

      2. Смещение гиперболического дисконтирования

      Ладно, у вас дела на выезде идут хорошо, но сейчас в воздухе витает напряжение. Ваша группа достигла страшной точки «аналитического паралича» и «корабля, чтобы учиться». Это тот момент в разговоре, когда мы понимаем, что у нас никогда не будет достаточно информации, чтобы быть на 100% уверенным в нашем понимании сложной ситуации или в принятии сложного решения. Итак … мы должны просто позвонить, двигаться дальше и учиться. Но мы все еще не понимаем, что это на самом деле означает, какой будет успех и какие действия мы можем предпринять … но давайте просто сделаем что-нибудь, чтобы хотя бы мы двигались.

      Ты чувствуешь это?

      Это неугомонное побуждение к действию ради этого — гиперболическая предвзятость дисконтирования. Обычно мы предпочитаем получать вознаграждение, которое приходит раньше, чем позже, и мы дисконтируем стоимость более позднего вознаграждения, чем дальше оно находится. Сумасшедший, правда? Блестящая осязаемая вещь сейчас, неоднозначная, но более ценная вещь позже.

      Мы все это знаем, но именно то, что происходит дальше в ходе обсуждения, определяет, будет ли это выездное мероприятие посредственным коллективным пожатием плеч или чем-то действительно экстраординарным.

      Вот что можно попробовать:

      • Спросите свою группу: «Кажется, мы действительно привязаны к [краткосрочным вещам]. Мысленный эксперимент: как мы можем утверждать, что вместо этого [долгосрочная вещь]?
      • Запишите каждый стратегический вариант / цель / идею на холсте концепции. Это помогает каждому объективно оценивать варианты от яблок к яблокам, формируя каждый вариант одинаковым образом с одними и теми же ползунками.
      • Сохраняйте честность своей группы, помогая им сравнить выбранный вариант со стратегической целью, к которой они стремятся: приведет ли этот вариант к достижению этой цели? Если нет, то что будет? В чем они не уверены и что могло бы помочь с этой неуверенностью?

      3.Модальное смещение

      А теперь пора придумать как можно больше идей! Но будьте осторожны: выход на сцену слева — это модальное смещение. Модальная предвзятость — это автоматическое предположение, что наша собственная идея или подход лучше всего. Его близкие родственники — предвзятость привязки, когда на любое принимаемое нами решение в значительной степени влияет сравнение различных вариантов с первым известным нам вариантом (в данном случае нашей собственной идеей), а также с эффектом Ikea и Not Invented Here, где мы придаем непропорционально большое значение. на вещи, которые мы (частично) создали.

      И если одного человека, поддерживающего одну идею, недостаточно, чтобы с ней справиться, рано или поздно срабатывает эффект победившего, когда мы с большей вероятностью согласимся с идеей, если многие другие люди уже ей верят (то есть групповое мышление).

      Вот несколько идей, которые помогут сделать прививку против модального смещения и его болтливых собратьев:

      • Попросите всех умышленно отложить вынесение суждений на достаточно долгое время, чтобы тщательно рассмотреть предложения и мнения других, а также холодные неопровержимые факты и данные.Безумные идеи по-прежнему приводят к полезным.
      • Если у вас есть кто-то, кто все еще безжалостно цепляется за свою идею, попросите его отстаивать идеи других, чтобы помочь им увидеть точки зрения других.
      • Не обсуждайте разные варианты просто субъективно абстрактно; протестируйте их на дороге в широком диапазоне сценариев. Думайте об этом как о тестировании возможностей использования опций.

      4. Ошибка невозвратных затрат

      Похоже, у вас есть неплохой стратегический вариант, но никто к нему не подходит.Подожди, почему? Потому что сделать этот вариант означает прекратить то, что мы делали … и это действительно доставляет людям дискомфорт. Вот где заблуждение о невозвратных затратах вырисовывается и вонзает свои дементорские когти в мозги каждого. Я часто это вижу. Мы не можем не придерживаться того, на что уже потратили время и энергию, потому что это уже нам уже стоит. Даже если мы встречаем все больше и больше причин, чтобы измениться или отказаться от этого.

      Да, конечно, вы услышите несколько очень ответственно звучащих причин, чтобы не перерезать шнур и вместо этого выбрать новый стратегический вариант.Мы зашли слишком далеко. У нас нет данных, чтобы доказать обратное. Это очень поздно. Если мы откатимся назад, наша репутация пострадает. Люди могут копаться еще сильнее. Или они могут попробовать избавиться от велосипеда по тривиальным вопросам, чтобы отвлечься от трудного решения. Но это по-прежнему голос дементора, ненавидящего потери, а не голос объективности.

      Если вы чувствуете холодную липкую хватку этого уклона в комнате, попробуйте задать следующие вопросы:

      • «Если бы мы еще не инвестировали в [этот существующий вариант / курс действий], сделали бы мы это сейчас? Что бы мы сказали коллегам, если бы они оказались в такой же ситуации? »
      • «Я думаю, здесь мы можем продавать велосипеды.Мысленный эксперимент: допустим, я взмахнул волшебной палочкой, и эта [тривиальная проблема] теперь полностью решена. Что бы нам теперь делать? »
      • «Каковы фактические риски / последствия использования этой новой опции? Как они соотносятся с рисками / эффектами текущего варианта? Некоторые из нас считают это более рискованным, чем другие? Зачем?»

      5. Апатия стороннего наблюдателя

      Вы находитесь в конце своего офсайта! Но, может быть, вам всем нужно принять решение, но группа не может этого добиться? Или вы пытаетесь зафиксировать следующие шаги, а сессия заканчивается списком задач, но без имен для них? Это апатия стороннего наблюдателя: чем больше людей доступно для того, чтобы что-то сделать, тем меньше ответственности каждый человек чувствует при выполнении чего-либо.

      Если необходимо принять решение, группа может и должна обратиться к тому, кто принимает окончательное решение, но должен быть один человек, который возглавит принятие решения. Конечно, это не билет к автократии и HiPPO; что один человек все равно должен принимать решение, основываясь на мнениях разных людей. Я знаю, что вы можете не согласиться. Это справедливо. Один подход может работать для одной группы, но не работать для другой. Без разницы. Но примите решение или честно объясните, почему ваша группа не может этого сделать.

      Как фасилитатор, постарайтесь заранее решить, кто какое решение принимает. Как этому человеку нужно это сделать и какая информация ему нужна, на самом деле является отличным началом для повестки дня и структуры вашего сеанса. Кроме того, когда дело доходит до времени «следующих шагов», лучше всего не отпускать людей до тех пор, пока не будет указано конкретное имя для каждого из этих следующих шагов для индивидуальной ответственности.


      Надеюсь, вы нашли это полезным. Постоянно бороться с нашим мозгом ящерицы — это тяжелая работа, но стоит приложить дополнительные усилия для получения лучших идей, более объективной критики и лучших решений.Если ничего другого, попробуйте эти:

      • Определите четкие критерии для объективной оценки каждого варианта и используйте их последовательно. Использование одних и тех же стандартов для оценки всех вариантов может уменьшить систематическую ошибку.
      • Протестируйте различные варианты на дороге, дайте им достаточно времени и кислорода, чтобы посмотреть, как они себя чувствуют.
      • Помните, кто у вас есть на сеансе стратегии . Кто включен, а кто исключен?
      • Если что-то увидишь, скажи что-нибудь .Если вы чувствуете какое-то предубеждение, скажите об этом.

      3 Когнитивные предубеждения | Измерение человеческих возможностей: программа фундаментальных исследований по оценке индивидуального и группового потенциала для вступления в армию

      1. Необходимо провести исследования для выявления контекстуальных факторов, то есть ситуаций, в которых когнитивные искажения и эвристика могут влиять на мысли и действия, а затем для разработки показателей эффективности в таких ситуациях для использования в качестве критериев в исследованиях, направленных на понимание того, как когнитивные искажения влияют на производительность.В исследовании следует учитывать отличительные характеристики контекстов, которые определяют, когда использование эвристики для «быстрого и экономного» принятия решений может быть полезным, а когда такое мышление лучше считать предвзятым и приводящим к принятию неверных решений.

      ССЫЛКИ

      Ариэли, Д. (2008). Предсказуемо иррационально: скрытые силы, определяющие наши решения. Нью-Йорк: Харпер Коллинз.

      Энгл Р. (2002). Объем рабочей памяти как исполнительное внимание. Текущие направления в психологической науке, 11 (1): 19–23.

      Эванс, J.St.B., and K.E. Станович. (2003). Теории двойного процесса высшего познания: продолжение дискуссии. Перспективы психологической науки, 8 (3): 223–241.

      Gigerenzer, G., R. Hertwig, and T. Pachur, Eds. (2011). Эвристика: основы адаптивного поведения. Нью-Йорк: Издательство Оксфордского университета.

      Гилович Т. и Д.В. Грифон. (2002). Эвристика и предубеждения: тогда и сейчас.В D.G.T. Гилович и Д. Канеман, ред., Эвристика и предубеждения: Психология интуитивного суждения (стр. 1–18). Кембридж, Великобритания: Издательство Кембриджского университета.

      Heuer, R.J., младший (1999). Психология анализа интеллекта. Центр изучения разведки Центрального разведывательного управления. Доступно: https://www.cia.gov/library/center-for-the-study-of-intelligence/csi-publications/books-and-monographs/psychology-of-intelligence-analysis/ [январь 2015 г.].

      Heuer R.J., Jr. и R.H. Pherson. (2011). Структурированные аналитические методы для интеллектуального анализа. Вашингтон, округ Колумбия: CQ Press.

      Канеман, Д. (2011). Мыслить, быстро и медленно. Нью-Йорк: Фаррар, Штраус и Жиру.

      Kyllonen, P.C., and R.E. Кристал. (1990). Разумная способность — это (чуть больше) объем рабочей памяти ?! Интеллект, 14 (4): 389–433.

      Левин, Т. (2001). Сикхский владелец заправочной станции смертельно ранен в ярости. New York Times , 17 сентября 2001 г. Доступно: http://www.nytimes.com/2001/09/17/us/sikh-owner-of-gas-station-is-fatally-shot-in-rampage .html [январь 2015 г.].

      Муравен М., Р.Ф. Баумейстер, (2000). Саморегуляция и истощение ограниченных ресурсов: походит ли самоконтроль на мускул? Психологический бюллетень, 126 (2): 247–259.

      Орег С. и М. Баязи. (2009). Склонность к смещению: разработка систематики смещения с точки зрения индивидуальных различий. Обзор общей психологии, 13 (3): 175–193.

      Роберто, М.А. (2002). Уроки Эвереста: взаимодействие когнитивных предубеждений, психологии, безопасности и сложности системы. California Management Review, 45 (1): 136–158.

      Росс, Л. (1977). Интуитивный психолог и его недостатки. В L. Berkowitz, Ed., Advances in Experimental Social Psychology , vol. 10. (стр 173–220). Нью-Йорк: Academic Press.

      Спеллман, Б.А. (2011). Индивидуальные рассуждения. В B. Fischhoff и C.

Post A Comment

Ваш адрес email не будет опубликован. Обязательные поля помечены *