판단과 의사 결정(Judgment and Decision Making)

판단과 의사 결정

By

Harvard University

인간은 완벽한 의사 결정자가 아닙니다. 완벽하지 않을 뿐만 아니라 체계적이고 예측 가능한 방식으로 완벽함이나 합리성에서 벗어납니다. 이러한 체계적이고 예측 가능한 이탈에 대한 이해는 판단과 의사 결정 분야의 핵심입니다. 이러한 한계를 이해함으로써 더 나은 의사 결정을 내리기 위한 전략을 파악할 수 있습니다.

학습 목표

  • Understand the systematic biases that affect our judgment and decision making.
  • Develop strategies for making better decisions.
  • Experience some of the biases through sample decisions.

우리의 판단과 의사 결정에 영향을 미치는 체계적인 편견을 이해합니다.
더 나은 결정을 내리기 위한 전략을 개발하세요.
샘플 의사 결정 사례를 통해 몇 가지 편향을 경험해 보세요.

소개

디저트를 먹을지, 시험에서 부정행위를 할지, 친구들과 스포츠 이벤트에 참석할지 등 매일 수많은 결정을 내릴 기회가 있습니다. 자신의 선택의 역사를 되돌아보면 어떤 것은 합리적이고 어떤 것은 그렇지 않다는 것을 알게 될 것입니다. 이 모듈에서는 의사 결정에 대한 개요를 제공하고 이 과정에서 흔히 나타나는 편견에 대해 논의합니다. 

노벨상을 수상한 심리학자 허버트 사이먼(1957; March & Simon, 1958)은 그의 저서에서 우리의 의사 결정은 합리성에 한계가 있다고 주장했습니다. 제한적 합리성 프레임워크에 따르면 인간은 선택의 비용과 편익을 비교하는 등 합리적인 결정을 내리려고 노력하지만, 인지적 한계로 인해 완전한 합리성을 발휘하지 못합니다. 시간과 비용의 제약은 우리가 이용할 수 있는 정보의 양과 질을 제한합니다. 게다가 우리는 사용 가능한 기억에 상대적으로 적은 양의 정보만 저장할 수 있습니다. 그리고 지능과 지각의 한계는 매우 영리한 의사결정권자라도 이용 가능한 정보를 바탕으로 최선의 선택을 정확하게 내리는 능력을 제한합니다.

Simon의 중요한 연구가 발표된 지 약 15년 후, Tversky와 Kahneman(1973, 1974; Kahneman & Tversky, 1979)은 판단에 영향을 미치는 체계적이고 예측 가능한 특정 편향 또는 실수에 대한 중요한 정보를 제공하는 노벨상 수상 연구를 발표했습니다(Kahneman은 Tversky 사후에 상을 받았습니다). 사이먼, 트버스키, 카네만의 연구는 판단과 의사 결정에 대한 현대적 이해의 토대를 마련했습니다. 그리고 두 사람의 노벨상 수상은 행동 결정 연구 분야가 성숙한 지적 연구 분야로 폭넓게 받아들여지고 있다는 신호였습니다.

합리적인 의사 결정이란 어떤 모습일까요?

Three identical closed doors.
People often have to use incomplete information and intuition to make even the most important of decisions. A fully rational decision requires a careful, systematic process. [Image: CC0 Public Domain, https://goo.gl/m25gce]

대학 4학년 때 여러 박사 과정, 로스쿨, 경영대학원(또는 가장 관심 있는 분야의 다른 프로그램)에 지원한다고 상상해 보세요. 좋은 소식은 많은 합격 통지서를 받았다는 것입니다. 그렇다면 어디로 갈지 어떻게 결정해야 할까요? 바저만과 무어(2013)는 합리적인 결정을 내리기 위해 취해야 할 6가지 단계로 (1) 문제를 정의하고(즉, 적합한 대학원 프로그램 선택), (2) 여러 옵션을 판단하는 데 필요한 기준(위치, 명성, 교수진 등)을 파악하고, (3) 기준에 가중치를 부여하고(중요도에 따라 순위 매기기), (4) 대안(자신을 입학시킨 학교)을 생성하고, (5) 각 기준에 따라 각 대안에 대해 평가하고(확인한 각 기준에 따라 각 학교에 평가), (6) 최적의 결정을 산출하는 과정을 설명했습니다. 합리적으로 행동하려면 이 여섯 단계를 완전히 이성적인 방식으로 따라야 합니다.

저는 사람들이 이와 같은 중요한 결정을 내릴 때 이 과정과 유사한 방식으로 생각하기를 강력히 권장합니다. 안타깝게도 우리는 종종 그렇지 않습니다. 우리 중 많은 사람들이 필요 이상으로 직관에 의존합니다. 그리고 체계적으로 생각하려고 해도 이러한 공식적인 의사 결정 과정에 데이터를 입력하는 방식이 편향된 경우가 많습니다.

다행히도 심리학자들은 우리의 사고에 영향을 미치는 편견에 대해 많은 것을 배웠습니다. 최고로 똑똑한 사람들도 저지르는 체계적이고 예측 가능한 실수에 대한 이러한 지식은 사고 과정의 결함을 파악하고 더 나은 의사 결정에 도달하는 데 도움이 될 수 있습니다.

의사 결정 과정의 편견

사이먼의 한계 합리성 개념은 판단이 합리성에서 벗어난다는 것을 가르쳐 주었지만, 판단이 어떻게 편향되는지는 알려주지 않았습니다. 트베르스키와 카네만(1974)의 연구는 인간의 판단에 영향을 미치는 특정 체계적, 방향적 편향을 진단하는 데 도움이 되었습니다. 이러한 편향은 휴리스틱으로 알려진 여러 가지 단순화 전략 또는 경험 법칙에 의존하여 합리적인 의사 결정 과정을 단락시키는 경향으로 인해 발생합니다. 휴리스틱은 의사 결정을 둘러싼 복잡한 환경에 대처할 수 있도록 도와줍니다. 하지만 안타깝게도 휴리스틱은 체계적이고 예측 가능한 편견으로 이어지기도 합니다.

이러한 편견 중 몇 가지를 강조하기 위해 다음 세 가지 퀴즈 항목에 답해 주세요:

문제 1(알퍼트 & 라이파, 1969에서 각색):

아래는 불확실한 수량 10가지입니다. 이러한 항목에 대한 정보를 찾아보지 마세요. 각 항목에 대해 수량의 최대 추정치를 적습니다. 그런 다음, 추정치 주위에 하한과 상한을 두어 그 범위가 실제 수량과 98% 일치한다고 확신할 수 있도록 하세요. 이러한 수량에 대해 거의 알지 못한다고 인정하더라도 각 항목에 응답하세요.

  1. The first year the Nobel Peace Prize was awarded
  2. The date the French celebrate "Bastille Day"
  3. The distance from the Earth to the Moon
  4. The height of the Leaning Tower of Pisa
  5. Number of students attending Oxford University (as of 2014)
  6. Number of people who have traveled to space (as of 2013)
  7. 2012-2013 annual budget for the University of Pennsylvania
  8. Average life expectancy in Bangladesh (as of 2012)
  9. World record for pull-ups in a 24-hour period
  10. Number of colleges and universities in the Boston metropolitan area

문제 2(조이스와 비들, 1981에서 각색):

우리는 경영진 사기가 발생하고 있으며 최근 여러 금융 스캔들과 관련이 있다는 것을 알고 있습니다. 또한 매년 감사를 실시해도 경영진 사기가 적발되지 않는 경우가 많다는 사실도 알고 있습니다. 빅4 회계법인의 감사를 받는 기업 1,000개 중 10개(즉, 1%) 이상에서 중대한 임원급 경영 부정이 발생한다고 생각하시나요?

  1. Yes, more than 10 in 1,000 Big Four clients have significant executive-level management fraud.
  2. No, fewer than 10 in 1,000 Big Four clients have significant executive-level management fraud.

임원급 경영 사기가 심각한 빅4 고객사의 1,000명당 고객사 수는 얼마나 될 것으로 예상하십니까? (아래 빈칸에 적절한 숫자를 기입하세요.)

________ in 1,000 Big Four clients have significant executive-level management fraud.

문제 3(Tversky & Kahneman, 1981에서 각색):

미국이 600명의 사망자가 예상되는 특이한 조류 질병의 발생에 대비하고 있다고 상상해 보세요. 이 질병을 퇴치하기 위한 두 가지 대안 프로그램이 제안되었습니다. 각 프로그램의 결과에 대한 정확한 과학적 추정치가 다음과 같다고 가정합니다.

  1. Program A: If Program A is adopted, 200 people will be saved.
  2. Program B: If Program B is adopted, there is a one-third probability that 600 people will be saved and a two-thirds probability that no people will be saved.

두 프로그램 중 어떤 프로그램을 선호하시나요?

과신

첫 번째 문제에서 98%의 확신을 가질 수 있도록 범위를 설정했다면, 범위의 약 9.8, 즉 9~10개에 실제 값이 포함될 것으로 예상해야 합니다. 이제 정답을 살펴봅시다:

A poker hand shows two pairs.
Overconfidence is a natural part of most people's decision-making process and this can get us into trouble. Is it possible to overcome our faulty thinking? Perhaps. See the "Fixing Our Decisions" section below. [Image: Barn Images, https://goo.gl/IYzbDV, CC BY 2.0, https://goo.gl/BRvSA7]
  1. 1901
  2. 14th of July
  3. 384,403 km (238,857 mi)
  4. 56.67 m (183 ft)
  5. 22,384 (as of 2014)
  6. 536 people (as of 2013)
  7. $6.007 billion
  8. 70.3 years (as of 2012)
  9. 4,321
  10. 52

실제로 실제 수량을 둘러싸고 있는 98% 범위의 수를 세어보세요. 9~10개를 둘러싸고 있다면 자신의 판단에 적절한 자신감이 있는 것입니다. 그러나 대부분의 독자는 각 범위가 실제 값을 둘러싸고 있다고 98%의 확신을 가지고 있음에도 불구하고 정답의 3개(30%)에서 7개(70%) 사이만 둘러싸고 있습니다. 이 문제에서 알 수 있듯이 인간은 자신의 판단을 과신하는 경향이 있습니다.

앵커링

두 번째 문제와 관련하여 임원급 경영진의 사기 수준에 대한 최종 평가는 매우 다양하지만 대부분 1,000점 만점에 10점은 너무 낮다고 생각합니다. 수업 시간에 이 연습 문제를 풀면 학생의 절반은 제가 제시한 질문에 답합니다. 나머지 절반에게는 비슷한 문제가 주어지지만 정답이 10이 아니라 200보다 높은지 낮은지 물어봅니다. 대부분의 사람들은 200이 높다고 생각합니다. 그러나 대부분의 사람들은 이 "앵커"가 최종 예상치에 영향을 미치지 않는다고 주장합니다. 그러나 평균적으로 숫자 10(1,000점 만점)에 초점을 맞춘 질문을 받은 사람들은 200이라는 앵커를 사용한 질문에 직면한 사람들보다 약 절반 정도의 추정치를 제시합니다. 우리가 의사 결정을 내릴 때 처음 접하는 앵커가 임의적이라 할지라도 판단에 영향을 미칠 가능성이 높습니다. 즉, 우리는 앵커로부터 우리의 판단을 충분히 조정하지 못합니다.

프레이밍

문제 3을 보면, 대부분의 사람들은 프로그램 B보다 200명의 생명을 확실히 구할 수 있는 프로그램 A를 선택하지만, 제가 교실 앞에 있다면 학생의 절반만 이 문제를 받게 될 것입니다. 나머지 절반에게는 동일한 설정이 주어졌지만 다음 두 가지 옵션이 주어졌을 것입니다:

  1. Program C: If Program C is adopted, 400 people will die.
  2. Program D: If Program D is adopted, there is a one-third probability that no one will die and a two-thirds probability that 600 people will die.

두 프로그램 중 어떤 프로그램을 선호하시나요?

이 문제의 두 가지 버전을 주의 깊게 검토하면 객관적으로 동일하다는 것을 알 수 있습니다. 200명을 구하는 것(프로그램 A)은 400명을 잃는 것(프로그램 C)을 의미하며, 프로그램 B와 D도 객관적으로 동일합니다. 그러나 판단과 의사 결정에서 가장 유명한 문제 중 하나인 이 문제에서 대부분의 사람들은 첫 번째 세트에서는 프로그램 A를, 두 번째 세트에서는 프로그램 D를 선택합니다(Tversky & Kahneman, 1981). 사람들은 생명을 구하는 것과 잃는 것에 대해 매우 다르게 반응하며, 그 차이가 단지 선택의 '프레임'에 기반한 경우에도 마찬가지입니다.

제가 여러분에게 답변을 요청했던 문제는 인명 구조의 관점에서 구성되었으며, 그 기준점은 600명의 사망이라는 최악의 결과였습니다. 우리 대부분은 이익과 관련된 의사 결정을 내릴 때 위험을 회피하기 때문에 결과적으로 200명의 생명을 구할 수 있는 가능성을 확실하게 고정시킵니다. 다른 버전에서는 문제를 손실 측면에서 접근합니다. 이제 암묵적 기준점은 조류 질병으로 인한 사망자가 발생하지 않는 최선의 결과입니다. 이 경우 대부분의 사람들은 손실에 관한 결정을 내릴 때 위험을 추구합니다.

이는 아무리 똑똑한 사람이라도 영향을 받는 수많은 편견 중 세 가지에 불과합니다. 다른 연구에 따르면 우리는 쉽게 검색할 수 있는 정보에 편향되어 있고, 추론을 할 때 기본 비율과 표본 크기의 중요성에 둔감하며, 무작위 사건은 항상 무작위로 보일 것이라고 가정하고, 확인되지 않은 정보가 더 많은 정보를 제공할 수 있는데도 자신의 기대를 확인하는 정보를 찾고, 사후 편향으로 인해 존재하지 않는 선험적 지식을 주장하며, 문헌에서 계속 발전하는 다른 여러 효과에 영향을 받는다고 합니다(Bazerman & Moore, 2013).

현대 개발

A smiling woman sits on a bench holding several shopping bags.
The concept of bounded willpower may explain why many of us are better shoppers than savers. [Image: CC0 Public Domain, https://goo.gl/m25gce]

경계 합리성은 40년 동안 행동 의사 결정 연구 분야를 통합하는 개념으로 사용되었습니다. 그러다가 2000년에 탈러(2000)는 의사 결정이 한계 합리성이라는 개념으로 정확하게 포착되지 않는 두 가지 방식으로 한계가 있다고 제안했습니다. 첫째, 그는 우리의 의지력은 한계가 있으며, 그 결과 미래의 우려보다 현재의 우려에 더 큰 비중을 둔다고 주장했습니다. 은퇴를 위한 적절한 저축에 실패하거나 많은 사람들이 다이어트를 유지하는 데 어려움을 겪는 것처럼, 우리의 즉각적인 동기는 다양한 방식으로 우리의 장기적인 이익과 일치하지 않는 경우가 많습니다. 둘째, 탈러는 우리의 이기심은 다른 사람의 결과에 신경을 쓰도록 제한되어 있다고 제안했습니다. 예를 들어, 공정하고 싶다는 욕구 때문에 필요 이상으로 다른 사람의 결과를 긍정적으로 평가하는 경우가 있습니다. 그리고 불행한 상황에서는 다른 사람에게 해를 끼치려는 욕망 때문에 자신의 이익을 기꺼이 포기하기도 합니다.

저와 제 동료들은 최근 이 목록에 두 가지 중요한 경계를 추가했습니다. 추, 바나지, 바저만(2005)과 바나지와 바스카(2000)는 우리의 윤리가 우리 자신도 인식하지 못하는 방식으로 제한되어 있다는 개념을 의미하는 경계 윤리의 개념을 도입했습니다. 둘째, 추와 바저만(2007)은 우리의 판단에 영향을 미치는 광범위한 초점 실패, 특히 우리가 이용할 수 있는 명백하고 중요한 정보를 알아차리지 못하는 여러 가지 방법을 지칭하기 위해 경계 인식 개념을 개발했습니다.

마지막으로 행동 경제학, 행동 금융, 행동 마케팅 등의 분야에 판단 및 의사 결정 연구를 적용하는 것이 발전의 마지막 단계입니다. 이러한 분야는 각각 판단 및 의사결정 문헌의 연구를 적용하고 확장함으로써 변화를 가져왔습니다.

의사 결정 수정

똑똑한 사람들도 일상적으로 편견에 의해 영향을 받는다는 충분한 증거가 있습니다. 안타깝게도 초기 연구에 따르면 이러한 문제에 대한 인식은 편견을 줄이는 데 거의 도움이 되지 않는 것으로 나타났습니다(Fischhoff, 1982). 다행히도 최근의 연구에서는 우리의 잘못된 사고를 극복하는 데 도움이 되는 개입 방법을 제시하고 있습니다(Bazerman & Moore, 2013).

편견을 고치기 위한 한 가지 중요한 경로는 Stanovich와 West(2000)의 시스템 1과 시스템 2 의사 결정의 구분에서 찾을 수 있습니다. 시스템 1 처리는 우리의 직관적인 시스템으로, 일반적으로 빠르고, 자동적이며, 수월하고, 암묵적이고, 감정적입니다. 시스템 2는 더 느리고, 의식적이며, 노력적이고, 명시적이고, 논리적인 의사 결정을 의미합니다. 앞서 설명한 6가지 논리적 의사 결정 단계는 시스템 2 프로세스를 설명합니다.

물론 모든 의사 결정에 완전한 시스템 2 프로세스가 필요한 것은 아닙니다. 대부분의 상황에서는 시스템 1 사고만으로도 충분합니다. 예를 들어 식료품 쇼핑을 할 때 모든 선택을 논리적으로 추론하는 것은 비현실적일 수 있습니다. 하지만 시스템 2의 논리가 가장 중요한 결정에 영향을 미치는 것이 바람직합니다. 그럼에도 불구하고 우리는 인생의 대부분의 결정에 시스템 1 프로세스를 사용하며 중요한 결정을 내릴 때에도 이에 의존합니다.

편견의 영향을 줄이고 의사 결정을 개선하기 위한 핵심은 직관적인 시스템 1 사고를 신뢰하는 것에서 벗어나 숙고적인 시스템 2 사고에 더 많이 참여하는 것입니다. 안타깝게도 바쁘고 급한 사람일수록 머릿속이 복잡하고 시스템 1 사고에 의존할 가능성이 높습니다(Chugh, 2004). 직장 생활의 정신없는 속도는 경영진이 종종 시스템 1 사고에 의존한다는 것을 시사합니다 (Chugh, 2004).

다행히도 우리가 위험할 정도로 직관에 의존하는 상황을 식별하고 보다 신중한 사고로 대체할 수 있습니다. 이러한 대체 사고의 한 가지 흥미로운 예는 오클랜드 애슬레틱스의 단장이었던 빌리 빈이 야구 경영진의 직관이 제한적이고 체계적으로 편향되어 있으며, 그들의 직관이 중요한 결정에 통합되어 엄청난 실수를 초래한다는 것을 인식한 후 어떻게 실패한 야구팀의 결과를 개선했는지에 대한 저널리스트 마이클 루이스(2003)의 이야기에서 찾을 수 있습니다. Lewis(2003)는 야구 전문가들이 개인적인 경험을 지나치게 일반화하고, 선수들의 최근 성적에 지나치게 영향을 받으며, 선수들의 다년간 기록이 훨씬 더 나은 데이터를 제공함에도 불구하고 자신의 눈으로 본 것에 지나치게 무게를 두는 경향이 있다고 설명합니다. 육상 대표팀은 미래 성과에 대한 유효한 예측 인자를 대체함으로써(시스템 2 사고) 매우 제한된 급여를 감안할 때 기대 이상의 성과를 거둘 수 있었습니다.

A glass jar labeled "retirement" is filled with cash.
Nudges can be used to help people make better decisions about saving for retirement. [Image: Tax Credits, https://goo.gl/YLuyth, CC BY 2.0, https://goo.gl/BRvSA7]

의사 결정을 개선하기 위한 또 다른 중요한 방향은 탈러와 선스타인(2008)의 저서 '넛지'에서 찾을 수 있습니다: 건강, 부, 행복에 대한 의사 결정 개선. 탈러와 선스타인은 인간의 편견을 없애기보다는 '의사 결정 설계자'가 인간의 편견을 고려하는 방식으로 환경을 변화시켜 결과적으로 더 나은 의사 결정을 유도하는 방법에 대한 전략을 설명합니다. 예를 들어 Beshears, Choi, Laibson, Madrian(2008)은 기본값을 간단히 변경하는 것만으로도 사람들의 의사 결정이 극적으로 개선될 수 있음을 보여주었습니다. 이들은 많은 사람들이 은퇴를 위한 저축에 실패하는 문제를 해결하고 간단한 변화가 401(k) 프로그램 가입에 큰 영향을 미칠 수 있음을 보여줍니다. 대부분의 회사에서는 직장에 입사하면 회사의 은퇴 저축 플랜에 가입하기 위해 적극적으로 가입해야 합니다. 많은 사람들이 그렇게 하기까지 몇 년이 걸립니다. 대신 회사가 직원을 401(k) 프로그램에 자동으로 등록하고 '옵트아웃'할 수 있는 기회를 제공하면 순 가입률이 크게 상승합니다. 기본값을 변경함으로써 우리는 현상 유지에 만족하려는 인간의 경향에 대응할 수 있습니다.

마찬가지로 Johnson과 Goldstein(2003)의 유럽 전역에 걸친 장기기증 연구에 따르면, 사전 동의 없이 장기를 적출하지 않는 것을 기본으로 하는 옵트인 장기기증 정책을 시행하는 국가는 장기를 적출하는 것을 기본으로 하는 옵트아웃 정책에 비해 수천 명의 생명을 희생하는 것으로 밝혀졌습니다. 미국을 비롯한 많은 국가에서는 시민들이 적극적인 노력을 통해 장기기증에 동의하도록 요구하고 있으며, 그 결과 이들 국가의 장기기증 동의율은 4.25%~44%에 불과합니다. 반면, 의사 결정 구조를 옵트아웃 정책으로 변경하면 동의율이 85.9%에서 99.98%로 향상됩니다. 기본값의 힘을 알고 기부 시스템을 설계하면 시민이 선택할 수 있는 옵션을 변경하지 않고도 기부율을 크게 바꿀 수 있습니다. 반면, 미국에서 시행 중인 것과 같은 보다 직관적인 전략은 불이행을 부추겨 불필요한 사망을 초래할 수 있습니다.

결론

우리의 일상은 사소한 결정(오늘 뭘 입을까?)부터 중요한 결정(결혼할까?)에 이르기까지 다양한 결정으로 가득합니다. 이 중 많은 결정이 우리의 건강, 재정, 인간관계에 실제적인 영향을 미칩니다. 사이먼, 카네만, 트베르스키는 결정을 내릴 때 놀랍고 예측 가능한 인간 마음의 결함을 강조하는 분야를 만들었습니다. 우리 자신의 편견과 사고의 결함에 대해 더 많이 이해하면 이를 고려하거나 피하기 시작할 수 있습니다. 이제야 우리는 이 지식을 활용하여 사람들이 더 나은 결정을 내리는 데 도움을 줄 수 있는 단계에 도달했습니다.

Outside Resources

Book: Bazerman, M. H., & Moore, D. (2013). Judgment in managerial decision making (8th ed.). John Wiley & Sons Inc.
Book: Kahneman, D. (2011) Thinking, Fast and Slow. New York, NY: Farrar, Straus and Giroux.
Book: Thaler, R. H., & Sunstein, C. R. (2008). Nudge: Improving Decisions about Health, Wealth, and Happiness. New Haven, CT: Yale University Press.

Discussion Questions

  1. Are the biases in this module a problem in the real world?
  2. How would you use this module to be a better decision maker?
  3. Can you see any biases in today’s newspaper?

Vocabulary

Anchoring
The bias to be affected by an initial anchor, even if the anchor is arbitrary, and to insufficiently adjust our judgments away from that anchor.
Biases
The systematic and predictable mistakes that influence the judgment of even very talented human beings.
Bounded awareness
The systematic ways in which we fail to notice obvious and important information that is available to us.
Bounded ethicality
The systematic ways in which our ethics are limited in ways we are not even aware of ourselves.
Bounded rationality
Model of human behavior that suggests that humans try to make rational decisions but are bounded due to cognitive limitations.
Bounded self-interest
The systematic and predictable ways in which we care about the outcomes of others.
Bounded willpower
The tendency to place greater weight on present concerns rather than future concerns.
Framing
The bias to be systematically affected by the way in which information is presented, while holding the objective information constant.
Heuristics
cognitive (or thinking) strategies that simplify decision making by using mental short-cuts
Overconfident
The bias to have greater confidence in your judgment than is warranted based on a rational assessment.
System 1
Our intuitive decision-making system, which is typically fast, automatic, effortless, implicit, and emotional.
System 2
Our more deliberative decision-making system, which is slower, conscious, effortful, explicit, and logical.

References

  • Alpert, M., & Raiffa, H. (1969). A progress report on the training of probability assessors. Unpublished Report.
  • Banaji, M. R., & Bhaskar, R. (2000). Implicit stereotypes and memory: The bounded rationality of social beliefs. In D. L. Schacter & E. Scarry (Eds.), Memory, brain, and belief (pp. 139–175). Cambridge, MA: Harvard University Press.
  • Bazerman, M. H., & Moore, D. (2013). Judgment in managerial decision making (8th ed.). John Wiley & Sons Inc.
  • Beshears, J., Choi, J. J., Laibson, D., & Madrian, B. C. (2008). The importance of default options for retirement saving outcomes: Evidence from the United States. In S. J. Kay & T. Sinha (Eds.), Lessons from pension reform in the Americas (pp. 59–87). Oxford: Oxford University Press.
  • Chugh, D. (2004). Societal and managerial implications of implicit social cognition: Why milliseconds matter. Social Justice Research, 17(2), 203–222.
  • Chugh, D., & Bazerman, M. H. (2007). Bounded awareness: What you fail to see can hurt you. Mind & Society, 6(1), 1–18.
  • Chugh, D., Banaji, M. R., & Bazerman, M. H. (2005). Bounded ethicality as a psychological barrier to recognizing conflicts of interest. In D. Moore, D. M. Cain, G. Loewenstein, & M. H. Bazerman (Eds.), Conflicts of Interest (pp. 74–95). New York, NY: Cambridge University Press.
  • Fischhoff, B. (1982). Debiasing. In D. Kahneman, P. Slovic, & A. Tversky (Eds.), Judgment under uncertainty: Heuristics and biases (pp. 422–444). New York, NY: Cambridge University Press.
  • Johnson, E. J., & Goldstein, D. (2003). Do defaults save lives? Science 302(5649), 1338–1339.
  • Joyce, E. J., & Biddle, G. C. (1981). Are auditors’ judgments sufficiently regressive? Journal of Accounting Research, 19(2), 323–349.
  • Kahneman, D., & Tversky, A. (1979). Prospect theory: An analysis of decision under risk. Econometrica, 47(2), 263–292.
  • Lewis, M. (2003). Moneyball: The art of winning an unfair game. New York, NY: W.W. Norton & Company Ltd.
  • March, J. G., & Simon, H. A. (1958). Organizations. Oxford: Wiley.
  • Simon, H. A. (1957). Models of man, social and rational: Mathematical essays on rational human behavior in a social setting. New York, NY: John Wiley & Sons.
  • Stanovich, K. E., & West, R. F. (2000). Individual differences in reasoning: Implications for the rationality debate? Behavioral and Brain Sciences, 23, 645–726.
  • Thaler, R. H. (2000). From homo economicus to homo sapiens. Journal of Economics Perspectives, 14, 133–141.
  • Thaler, R. H., & Sunstein, C. R. (2008). Nudge: Improving decisions about health, wealth, and happiness. New Haven, CT: Yale University Press.
  • Tversky, A., & Kahneman, D. (1981). The framing of decisions and the psychology of choice. Science, New Series, 211(4481), 453–458.
  • Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, New Series, 185(4157), 1124–1131.
  • Tversky, A., & Kahneman, D. (1973). Availability: A heuristic for judging frequency and probability. Cognitive Psychology, 5(2), 207–232.

Authors

  • Max H. Bazerman
    Max H. Bazerman is the Jesse Isidor Straus Professor at the Harvard Business School and the co-director of the Center for Public Leadership at the Harvard Kennedy School of Government.  Max’s awards include a 2006 honorary doctorate from the University of London (London Business School), the Lifetime Achievement Award from the Aspen Institute, and being named as one of Ethisphere's 100 Most Influential in Business Ethics.  Details at www.people.hbs.edu/mbazerman.

Creative Commons License

Creative CommonsAttributionNon-CommericalShare-AlikeJudgment and Decision Making by Max H. Bazerman is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License. Permissions beyond the scope of this license may be available in our Licensing Agreement.

How to cite this Noba module using APA Style

Bazerman, M. H. (2023). Judgment and decision making. In R. Biswas-Diener & E. Diener (Eds), Noba textbook series: Psychology. Champaign, IL: DEF publishers. Retrieved from http://noba.to/9xjyvc3a

This article was updated on 7월 3, 2023

심리학을 공부하기 위해 noba project를 한국어로 번역하는 도전을 시작했습니다. 번역에 DeepL과 GPT-4를 적극적으로 활용했습니다.