정보

자신의 결점에 대해 다른 사람의 책임을 묻는 편향

자신의 결점에 대해 다른 사람의 책임을 묻는 편향


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

나는 인지과학에 오래 있지는 않았지만 내 작업에서 나는 이상한 패턴을 발견했습니다. 자신의 행동에 대한 책임을 외부 원인에 압도적으로 돌리는 개인은 자신이 하는 것과 동일한 패턴을 나타내는 행동 패턴에 대해 다른 사람들을 비난합니다. 죄를 인정하지 않습니다.

아니면 다른 인과적 방향일 수도 있습니다. 그들은 다른 사람들이 특정 행동 패턴에 대해 죄책감을 느끼는 것을 보고 무의식적으로 같은 방식으로 행동하기 시작합니다.

예를 들면: 대부분의 남성에게서 성적 포식자를 보고 때로는 매우 미묘한 행동 특성을 보이는 환자는 파트너가 자신의 결정을 존중하지 않는다고 비난합니다. 파트너의 결정("그는 관계를 지속하기를 원하지 않지만 내가 원하는 것을 신경 쓰지 않습니다"), 타협하지 않고(의사소통의 기반을 구축하는 것을 받아들이지 않음) 그녀의 의사소통 부족에 대해 상대방을 비난합니다( "내가 원하지 않는 것을 항상 보여줄 수 있어야 할 필요는 없습니다. 아는 것은 당신의 책임입니다.").

내가 관심있는 것은; 내 관찰, 또는 그것에 대한 연구의 이름이나 분야를 확인하는 과학이 있습니까? 만약 그렇다면, 왜 이러한 역설적인 책임 귀인이 발생하는지에 대한 설명이 있습니까?


특히 첫 번째 단락은 '기본적 귀인 오류'를 생각나게 합니다.

… 대응 편향 또는 귀인 효과라고도 알려진 기본 귀인 오류(FAE)는 사람들이 자신의 행동에 대한 해석과 달리 대리인의 내적 특성(인격 또는 의도)을 지나치게 강조한다는 주장입니다. 다른 사람의 행동을 설명하는 외부 요인.


예일 대학교의 심리학 및 공중 보건 교수인 John Dovidio 박사는 집단과 개인 간의 사회적 권력과 사회적 관계에 관한 문제를 연구했습니다. 그의 작업은 사람들이 그룹 구성원을 기반으로 다른 사람에 대해 생각하고 느끼고 행동하는 방식에 대한 의식적(명시적) 및 무의식적(암시적) 영향을 모두 탐구합니다. 그는 현대적이고 미묘한 형태의 편견인 "혐오적 인종차별주의"와 의식적 및 무의식적 편견을 줄이는 기술에 대한 연구를 수행했습니다.

오드리 해밀턴: 우리 자신의 인종적 편견을 이해하는 것은 우리가 그 투쟁을 인식하지 못하는 경우에도 우리 모두가 고투하는 것입니다. 우리는 보다 현대적인 형태의 편견을 연구해 온 한 심리학자와 이야기를 나누며 그러한 편견을 없애는 것은 사실상 불가능하다고 말합니다. 그러나 그들을 인식하는 것이 다른 인종 그룹 간의 관계를 개선하는 첫 번째 단계입니다. 저는 Audrey Hamilton이고 이것은 "Speaking of Psychology"입니다.

존 도비디오(John Dovidio)는 예일 대학교의 심리학 교수이자 인종 차별, 특히 미묘하거나 무의식적인 인종 차별에 대한 주요 연구원 중 한 명입니다. 그는 집단과 개인 간의 사회적 권력과 사회적 관계의 문제를 연구했습니다. 그의 작업은 이러한 의식 및 무의식적 편견을 줄이는 기술을 탐구합니다.

존 도비디오: 나를 주셔서 감사합니다.

오드리 해밀턴: 당신의 작업은 당신이 "혐오적인 인종차별"이라고 부르는 것에 초점을 맞추고 있습니다. 그것이 무엇을 의미하고 그것이 단지 인종 차별주의와 어떻게 다른지 설명할 수 있습니까?

존 도비디오: 우리는 인종차별에 대해 매우 단순한 방식으로 생각했습니다. 사람들은 부정적인 생각, 부정적인 감정, 집단에 대한 증오를 가지고 있다는 것입니다. 그러나 1960년대 민권법이 제정되면서 인종에 대한 생각이 바뀌었습니다. 그렇게 생각하는 것은 부도덕할 뿐만 아니라 차별하는 것도 불법이기 때문입니다. 그리고 우리가 생각하는 것은 그 이후로 인종차별이 더 미묘해졌다는 것입니다. 사람들은 여전히 ​​부정적인 감정을 가지고 있지만 그 부정적인 감정을 인식하지 못할 수 있습니다. 혐오감이라기 보다는 회피와 불편감에 가깝다. 혐오적 인종차별이라는 이름은 여기에서 유래했습니다.

오드리 해밀턴: 대부분의 사람들이 다른 인종이나 민족 그룹의 사람들에 대해 약간의 편견을 가지고 있다고 말씀하시겠습니까? 이러한 유형의 암시적, 무의식적 편견의 결과는 무엇입니까?

존 도비디오: 네, 오늘날 미국인 중 소수만이 구식 인종차별, 노골적인 인종차별을 갖고 있다는 연구 결과가 있습니다. 그러나 대다수의 백인 미국인은 역사적으로 여러 면에서 인종 차별적인 문화에서 자랐기 때문에 폭력, 마약 및 빈곤을 특정 그룹과 연관시키는 미디어에 노출되어 있기 때문입니다.

대부분의 백인 미국인, 대다수의 백인 미국인(약 2/3에서 4분의 3)은 무의식적이고 암묵적인 인종 편견을 가지고 있습니다.

오드리 해밀턴: 사람들은 자신이 편향되어 있다는 사실을 모르는 경우 이러한 편향을 없애기 위해 어떻게 노력합니까?

존 도비디오: 우리 대부분은 자신이 편견이 없다는 것을 확신하는 데 정말 잘 연습되어 있기 때문에 그것이 가장 큰 도전입니다. 그래서 우리 대부분은 좋은 사람을 원합니다. 편견은 나쁜 것이고 우리는 그것에 대해 생각할 때 항상 옳은 일을 합니다.

혐오적인 인종차별이나 무의식적인 편견의 결과 중 하나는 옳고 그름이 명확하게 정의된 상황에서 차별을 하지 않는 것입니다. 그러나 일반적으로 인종이 아닌 다른 요소를 기반으로 응답을 정당화할 수 있을 때 발생합니다. 따라서 인터뷰하는 사람이 백인 한 명과 흑인 한 명인 두 명이 있을 수 있으며 실제로 직접적으로 차별하지 않고 실제로 백인에게 호의적인 방식으로 직무에 대한 기준을 변경합니다.

그래서 문제는 우리가 우리의 행동을 보고 우리의 행동을 모니터링할 때마다 우리가 평등한 방식으로 행동한다는 것입니다. 그리고 우리가 주의를 기울이지 않을 때만 차별합니다. 따라서 귀하의 질문에 대해 우리가 해야 할 일은 아마도 – 무언가가 무의식적이라면, 당신은 그것을 가지고 있다는 사실을 모를 것입니다. 간단합니다. 그래서 당신은 당신이 정말로 느끼는 것에 대해 생각할 수 없습니다. 당신이해야 할 일은 당신이 평균적인 미국인이라면 아마도 이러한 편견을 가지고 있다고 가정하는 것입니다.

그리고 나서 당신이 해야 할 일은 당신이 사람들을 대하는 방식에서 그러한 편견을 통제하려고 노력하는 것입니다. 당신은 종종 당신에게 이러한 편견이 있을 수 있음을 인정해야 합니다. 따라서 실제로 제거 할 수 없기 때문에 계속되는 전투입니다. 그것들은 당신이 자라온 마음의 습관과 같습니다. 따라서 항상 경계하고, 항상 의식하며, 우리가 편향될 수 있는 가능성을 항상 수용하도록 노력해야 합니다.

오드리 해밀턴: 이러한 편견을 제거할 때 일반적으로 인종에 대한 대화를 나누는 것에 대한 이야기를 많이 들었습니다. 아마도 당신의 인종이나 민족적 배경이 아닌 사람들과 함께일 것입니다. 그것이 당신이 가지고 있는지도 모르는 이러한 편견을 발견하는 데 도움이 된다고 생각하십니까?

존 도비디오: 네, 제가 앞에서 언급한 혐오적 인종차별의 문제 중 하나는 실제로 그룹을 피하고 그룹을 피하는 것입니다. 왜냐하면 그들이 당신을 불편하게 하고 따라서 그룹에 대한 고정관념을 유지할 수 있기 때문입니다. 그룹 구성원과 많은 상호 작용이 있는 경우 더 이상 사람들을 해당 그룹의 구성원으로 생각하지 않습니다. 당신은 그들을 개인으로 생각합니다. 따라서 암묵적인 편견을 완전히 없애지는 못했지만 많은 사람들과 상호 작용하는 방식을 미세 조정할 수 있었습니다. 사람들과 상호 작용하고 그들을 이해할 수 있는 더 넓은 범위의 레퍼토리를 불러오기만 하면 됩니다.

오드리 해밀턴: 이것을 연구하는 당신과 같은 심리학자들은 오바마 대통령의 선거와 재선에 대해 어떻게 생각합니까? 그가 대통령이 된 후 이 나라에서 인종 관계와 태도가 바뀌었습니까?

존 도비디오: 그가 대통령이 된 후 태도 측면에서 놀라운 변화가 있었지만 인종 차별주의가 실제로 지속되었습니다. 태도 변화의 관점에서 볼 때 흑인 커뮤니티에서 일어난 일은 새로운 롤 모델이기 때문일 것입니다. 흑인은 새로운 미래를 상상할 수 있습니다. 흑인은 주변이 아닌 중앙에 있을 수 있습니다. 오바마에 대한 반대, 그가 태어난 장소에 관한 질문과 관련하여 보았던 많은 문제는 권력의 위치에 있는 흑인이 그 권력의 위치에서 합법적일 수 없는 혐오적인 인종주의의 반영입니다. 그래서 그 사람을 평가절하하거나 없애려고 할 이유를 찾습니다.

다른 하나는 그의 정책 중 많은 부분이 다른 많은 대통령보다 훨씬 더 치명적인 방식으로 반대되어 왔다는 것입니다. 그리고 나는 부분적으로 그 부정적인 인종적 태도가 표현되고 더 높은 강도를 갖는 방식으로 전달되기 때문이라고 생각합니다.

오드리 해밀턴: 심리학자들이 이것을 연구해 왔습니까? 내 말은, 그것이 그의 대통령 임기 마지막 8년 동안 계속되는 실험이었다고 생각합니다.

존 도비디오: 지난 8년 동안 암묵적인 인종 편견에 약간의 변화가 있었지만 널리 퍼지지는 않았습니다. 따라서 연구 역시 차이를 발견할 것입니다. 특히 선거 직후에는 생각의 관점에서 매우 혁명적인 시기였기 때문입니다. 그리고 우리는 우리의 생각을 혁명적인 것으로 조정합니다. 그러나 당신이 평소와 같이 사업으로 돌아갈 때, 우리는 여전히 이러한 연상을 만드는 사회에서 성장합니다. 그리고 그는 평범한 흑인이 아닌 예외로 여겨졌습니다.

오드리 해밀턴: 법 집행의 주제로 넘어 갑시다. 법 집행관과 리더는 커뮤니티, 특히 소수 민족 커뮤니티를 교육하고 상호 작용할 때 귀하의 연구에서 무엇을 배울 수 있습니까?

존 도비디오: 경찰관에 대한 연구 – 일반적으로 그들은 화면에 나타난 사람을 쏘거나 쏘지 않는 다양한 컴퓨터 시뮬레이션 게임으로 연구를 시작했습니다. 그리고 그 사람은 총을 가지고 있거나 지갑과 같은 물건을 가지고있었습니다. 그리고 나서 그 사람을 쏠지 안 쏠지 결정해야 합니다. 그리고 그 연구가 발견한 것은 두 가지였습니다. 하나는 사람들이 비무장 백인보다 비무장 흑인을 쏠 확률이 훨씬 더 높다는 것입니다. 그리고 두 번째로 암묵적 편향이 그 결과를 예측했습니다. 평균적으로 저격 편향이 있고 저격 편향은 암묵적인 태도와 관련이 있습니다. 그리고 경찰관들과 함께 일하는 것도 같은 편견을 보여주며, 그것은 그들의 암묵적인 태도와도 관련이 있습니다. 그리고 그들이 일상 활동에서 흑인 폭력에 더 많이 노출될수록, 경찰은 이러한 종류의 편견을 보일 가능성이 더 큽니다. 그래서, 그것이 말하는 것은 아무도 무장하지 않은 사람을 쏘고 싶어하지 않는다는 것입니다. 그것은 우리의 의도가 아닙니다. 그러나 그것이 보여주는 것은 범죄 및 폭력과 흑인의 매우 빠른 연관성이 있는 경우, 직업에 대해 잘 훈련을 받았더라도 결코 되돌릴 수 없는 순간적인 결정을 내리기 쉽습니다.

오드리 해밀턴: 그러한 편견을 제거하는 방법은 무엇입니까? 아니면 가능합니까?

존 도비디오: 저는 편견을 없애려고 애쓰는 것을 좋아하지 않습니다. 50년 동안 쌓아온 편견은 단기간에 풀리지 않습니다. 하지만 한 가지 예를 들자면 제가 속한 조직을 통해 간접적으로 경찰과 일부 일을 하고 있습니다. 그런데 그들이 말하는 것 중 하나가 오늘날의 경찰관들이 과거의 우리가 비트를 걷는 경찰관들의 이미지와 같지 않다는 것입니다. 오늘날 경찰관들은 전자 제품이 너무 많아 차에서 내릴 필요가 없는 차 안에 있습니다. 누군가가 내게 말하기까지 했습니다. 이것이 사실인지는 저도 잘 모르겠습니다. 하지만 사실은 확실합니다. 오늘날 일반 경찰차에는 우리의 첫 번째 우주[선박]에 있던 것보다 더 많은 전자 장치, 고성능 전자 장치가 있다고 말했습니다. 따라서 이것이 의미하는 바는 경찰관이 차 안에 있고 지역 사회와 상호 작용하지 않으며 지역 사회는 경찰관이 자신보다 멀고 강력하다고 생각한다는 것입니다. 그리고 지역사회의 신뢰와 협력이 없으면 유능한 경찰관이 될 수 없습니다. 그래서 그들이 지금 시도했고 우리는 이것을 여러 곳에서 권장했습니다. 앞에서 말했듯이 경찰관을 차에서 내리게 하여 사람들을 개별적으로 만나는 것입니다. 서로를 구별할 수 있으므로 과잉 반응하지 않습니다.

오드리 해밀턴: 알겠습니다. Dovidio 박사님, 함께해주셔서 감사합니다. 즐거웠습니다.

존 도비디오: 저에게도 기쁨이 되었습니다. 감사합니다.

오드리 해밀턴: Dovidio 박사의 작업에 대한 자세한 내용과 더 많은 에피소드를 듣고 싶다면 당사 웹 사이트를 방문하십시오. 미국 심리학회(American Psychological Association)의 "Speaking of Psychology"에서 저는 Audrey Hamilton입니다.


암시적 연관 테스트

사회 심리학자 Mahzarin Banaji와 Tony Greenwald가 처음으로 용어를 만들었습니다. 암묵적 편견 1990년대. 1995년에 그들은 개인의 사회적 행동과 편견이 무의식적 또는 암묵적 판단과 크게 관련되어 있다고 주장하는 암묵적 사회적 인지 이론을 발표했습니다.

이 용어는 1998년 Banaji와 Greenwald가 가설을 확인하기 위해 잘 알려진 암시적 연관 테스트(IAT)를 개발하면서 인기를 얻었습니다. IAT 테스트는 컴퓨터 프로그램을 통해 무의식적 편견의 강도를 평가했습니다. 피험자들은 다양한 인종 배경을 가진 일련의 얼굴과 일련의 긍정적 및 부정적 단어를 표시하는 화면을 관찰하도록 요청받았습니다. 연구자들은 피험자들에게 인종 배경 X의 얼굴을 보았을 때 긍정적인 단어를 클릭하고 인종 배경 Y의 얼굴을 보았을 때 부정적인 단어를 클릭하라고 지시했습니다. 그런 다음 그들은 연관성을 역전시켜 피험자들에게 이 과정을 반복하게 했습니다.

연구자들은 더 빨리 클릭하면 피험자가 더 큰 무의식적 연관성을 갖는다는 것을 의미한다고 주장했습니다. 즉, 특정 얼굴을 볼 때 "행복"을 빠르게 클릭하는 것은 개인이 긍정적인 특성과 인종 사이에 밀접한 무의식적 연관성이 있음을 의미합니다. 클릭 시간이 느리다는 것은 개인이 그 긍정적인 특성을 인종과 연관시키는 데 더 어려움을 겪었다는 것을 의미합니다.

시간이 지남에 따라 IAT는 여러 후속 시도에서 성공적으로 복제되어 암묵적 편견을 입증하는 데 효과가 있음을 보여줍니다. 인종적 편견 외에도 이 테스트는 성별 및 성적 지향과 관련된 암묵적 편견을 평가하는 데에도 성공적으로 사용되었습니다.


댓글 5개

공정한 배심원이 실제로 존재하는지에 초점을 맞추는 것이 흥미롭다고 생각합니다. 편견이 있는지 없는지 뿐만 아니라 그곳에서 무엇을 하고 있는지 생각해 주셨으면 합니다. 많은 배심원들이 배심원으로 일하기를 원하지 않지만 여전히 배심원으로 활동하고 있습니다. 물론 배심원의 의무가 있기 때문에 배심원들은 평결이 나올 때까지 자리를 뜨지 못하고, 한 사람이라도 판결에 불복하면 모두가 동의할 때까지 자리를 비워야 한다. 많은 사람들이 배심원 임무를 평소보다 너무 오래 유지하고 싶어하지 않을 것이므로 이를 고려할 때 배심원단원이 "흐름에 따라" 하고 투표하는 것이 일반적이라고 생각하십니까? 다른 사람들은 무엇을 위해 투표합니까?
집단 사고는 많은 상황에서 매우 흔한 일이며 한 사람이 큰 집단에 속해 있을 때 다른 집단 구성원이 느끼는 것만큼 자신이 느끼는 것만큼 주의를 기울이지 않을 가능성이 큽니다(Beebee & Masteron, 1986). 아마도 배심원들은 자신의 본능과 신념보다 나머지 그룹 구성원을 신뢰하는 정도까지 갈 것입니다.
참조
Beebe, S.A., & Masterson, J. T. (1986). 소그룹으로 의사 소통하기: 원칙과 관행(2판). 일리노이주 글렌뷰: Scott, Foresman.

당신은 미국 법률 시스템의 내부 작동을 설명합니다. 배심원 편향과 법 시스템이 편향을 방지하는 책임에 대해 논의합니다(배심원 선택 중). 또한 미디어 및 일반적인 편견과 같은 배심원 편향에 영향을 줄 수 있는 다양한 요소에 주목합니다.

Schneider et al. (2012) 배심원단의 강점은 공정성이라고 합니다. 한 명의 판사에게 의존하는 것보다 6~12명의 시민의 다양한 관점이 더 낫다(Schneider et al., 2012, pp.267). 배심원단과 마찬가지로 대법원은 사건을 "판단"하는 한 명 이상의 개인으로 구성됩니다. 대법원에는 9명의 판사가 있습니다. 배심원단과 대법원 판사 모두 공정하고 편견이 없기를 바랍니다. 기술적인 문제가 법적 소송의 한 요인이 될 수 있다는 점을 논의하면서 대화에 추가하고 싶습니다.

기술은 케이스의 결과를 바꿀 수 있습니다. Goodyear 대 Liddie Leadbetter의 경우를 생각해 보십시오. Leadbetter 여사는 Goodyear에서 20년 동안 직원으로 일했습니다. Leadbetter 여사는 은퇴하고 곧 Goodyear를 상대로 소송을 제기했습니다. Leadbetter 여사는 급여 차별에 대한 소송을 제기했습니다. 리드베터 부인은 동료 남성들에 비해 급여가 굿이어에서 근무한 20년보다 적었다고 주장했습니다. Leadbetter 여사는 그녀의 성별 때문에 급여가 더 낮았다고 덧붙였습니다. Leadbetter 여사는 1964년 민권법 Title VII에 따라 성차별 소송을 제기했습니다. Title VII에는 인종, 피부색, 성별, 출신 국가 및 종교를 근거로 한 직장에서의 차별을 금지하는 연방법이 있습니다(Barkacs 및 Barkacs). 2009).. Leadbetter 여사는 Goodyear가 차별적 손해배상금, 약 20만 달러의 체불임금, 300만 달러 이상의 징벌적 손해배상금을 차별하여 승소했지만 Title VII(Title VII( 이러한 유형의 소송을 관장하는 동상)은 손해액을 30만 달러로 제한합니다. 그 후 사건은 항소 절차(U.S. Title VII에 따라 소송을 제기하려면 180일 기간 내에 EEOC(평등 고용 기회 위원회)에 "청구"를 제출해야 합니다. 이후 사건은 대법원까지 갔다. 대법원은 Goodyear 대 Ms. Leadbetter에게 유리한 급여 차별(5~4)을 결정했습니다(Barkacs 2009).

사건이 항소 절차(미국 항소 법원에서)를 거쳤을 때 법에서 요구하는 180일 이내에 청구를 제출하지 않아 사건이 기각된 것은 불공정한 기술로 보입니다. 굿이어가 이를 변호인으로 삼아 180일 룰로 대법원의 승낙을 얻었다. 나는 최소한 Leadbetter가 약 20만 달러의 체불임금과 30만 달러의 징벌적 손해배상금을 유보했어야 한다고 생각합니다. 왜냐하면 그녀는 Goodyear가 차별했다는 것을 연방 지구 배심원단에게 증명했기 때문입니다. 20년 동안 차별을 받아온 것이 공정하다고 생각합니다. 법원은 1964년 민권법 Title VII에 따라 직원들이 임금 차별에 대해 소송을 제기하는 것을 훨씬 더 어렵게 만들었습니다.

Barkacs, L.L., & Barkacs, C.B. (2009). 시간이 맞습니까 – 아니면 맞습니까? 대법원은 LEDBETTER V. GOODYEAR TIRE & RUBBER CO. Journal of Legal, Ethical and Regulatory Issues, 12(1), 121-127에서 연설합니다. http://search.proquest.com/docview/216247196?accountid=13158에서 가져옴

Schneider, F.W., Gruman, J.A. 및 Coutts, L.M.(Eds.)(2012). 응용 사회 심리학: 사회 및 실제 문제의 이해 및 해결(2판).

내가 상상할 수 있는 완전히 공정한 배심원단을 찾는 것은 어려운 작업입니다. 한 사람으로서 우리는 선택된 모든 배심원이 공정하고 커뮤니티 전체를 대표한다고 생각하고 믿고 싶습니다. 슬프게도 이것은 사실이 아니라고 생각합니다. 편견을 방지하기 위해 배심원 선정 과정에서 배심원을 인터뷰하지만 인터뷰가 충분하지 않다고 생각합니다. 결국, 이 개인들은 자신의 손에 인생의 운명이 달려 있습니다. 배심원 선택은 인터뷰보다 더 나아가야 합니다. 편견과 편견이 또 다른 요인이 될 수 있습니다. 사람들은 단순히 통제할 수 없는 이러한 선입견을 가지고 있습니다.

게시물에는 많은 홍보 사례가 언급되었습니다. 예를 들어, Zimmerman 사건은 널리 알려졌습니다. 많은 사람들은 배심원들이 Casey Anthony 사건과 같은 상황에서 인종적으로 편향되었다고 주장합니다. “그게 가난한 흑인 소녀라면… 그리고 그 유명한 O.J. 심슨 재판. Simpson은 유명한 NFL 선수였으며 부자였으며 놀라운 수비 팀을 보유했습니다. 포스트가 말하듯이 언론 보도는 이 사건에 심각한 영향을 미쳤습니다. 이 사건에 직접 연루된 사람들은 여러 면에서 편향될 수 있습니다.

전반적으로 편견과 편견은 범죄 시스템에서 항상 큰 관심사가 될 것입니다. 이러한 오류를 최대한 자주 줄이는 방법을 개발하는 것은 법률 및 사법 시스템에 달려 있습니다.

배심원을 찾는 과정은 항상 나에게 흥미 롭습니다. 말씀하신 것처럼 편견을 없애기 위해 취해야 할 조치가 있지만, 일종의 편견이 없는 배심원을 찾기가 어려울 수 있습니다. 개인은 법정에서 거짓말을 하지 않고 정직해야 하지만 사실은 사람들이 거짓말을 하는 경향이 있다는 것입니다. 인종차별주의자나 편견을 가질 수 있는 사람이 자신이 아니라고 주장하고 사건을 계속 진행한다고 누가 말할 수 있겠습니까? 아니면 궁극적으로 판결에 영향을 미칠 수 있는 자신의 일반적인 편견을 깨닫지 못할 수도 있습니다.

뉴스를 더 많이 보기 때문인 것 같은데, 말씀하신 짐머만 사건과 같이 대중적인 법원 사건에 ​​언론이 많이 관여하고 있는 것 같습니다. 저는 개인적으로 언론의 큰 주목을 받은 Jodi Arias 재판에 관심이 있었습니다. 그녀는 전 남자친구 트래비스 알렉산더를 살해한 혐의로 유죄 판결을 받았지만 배심원단은 그녀의 처벌에 동의하지 않아 여러 번 연기되었습니다. 내가 이해한 바에 따르면 새로운 배심원 그룹에 그녀의 처벌을 결정하기 위한 정보와 증인이 제공될 것입니다. 그러나 유죄 판결과 처벌 사이의 시간은 언론의 역할을 허용합니다. 많은 사람들이 이 사건에 더 익숙해져서 편견 없는 배심원을 찾기가 어려울 수 있습니다.

법원 시스템이 가능한 한 편견을 줄이고 최소화하는 방법을 찾는 것이 중요합니다. 그렇다면 배심원 편향을 잠재적으로 줄일 수 있는 방법에 대한 다른 제안이 있습니까?

일반적인 편견, 미디어 영향 및 개인적인 경험은 모두 배심원 결정에 편견을 일으킬 수 있습니다. 이는 공정성과 공정성을 기반으로 하는 사법제도에 큰 문제를 제기하고 있다. 이러한 영향 외에도 Takada와 Murata(2014)는 집단 의사결정의 영향과 증거 순서를 분석했습니다. 제시되는 증거의 순서는 그것이 맥락에서 증거를 가져오는 방식으로 배심원에게 제시된다면 유죄 이야기를 용이하게 할 수 있습니다(Takada & Murata, 2014). 배심원단에게 유죄 이야기의 묘사가 제시되면 배심원단은 용의자를 유죄로 판단할 가능성이 더 높아집니다(Takada & Murata, 2014). Wolfe and Pennington(2000)은 증거가 이야기와 같은 순서로 또는 증인에 기반한 순서로 제시되는 두 가지 상황을 설정했습니다. 증인 조건은 형사재판의 증거를 쪼개고 배심원단이 직접 스토리라인을 구성할 수 있는 기회를 제공했다. Wolfe와 Pennington(2000)은 증거의 순서가 사실 배심원을 편향시킨다는 사실을 발견했습니다. 특히 이야기로 순서대로 제시된 증거 내에서 그렇습니다.

증거의 순서 외에 Takada와 Murata(2014)는 법원 판결에서 집단 의사결정의 영향을 평가했다. 10장에서 Schneider, Gruman, and Coutts(2012)는 그룹 환경이 개인과 의사 결정 과정에 미치는 주요 영향을 설명했습니다(pp. 237 – 242). 개인이 집단 심의에 참여할 때, 그들의 평결은 종종 토론 이전의 개별 평결보다 더 위험합니다(Schneider et al., 2012). 그룹 의사 결정은 장단점이 있는 각 관점을 개별적으로 설명하기보다 다수결을 강조합니다. 논쟁의 여지가 있지만 그룹 의사 결정은 정보의 여러 측면을 숙고하고 처리하는 영향으로 인해 배심원 내 편견을 줄이는 것으로 믿어집니다(Kaplan & Miller, 1978). 그러나 Kerr, MacCount 및 Kramer(1996)는 다르게 믿었습니다. 증거가 유죄 판결이나 무죄 판결에 강력하게 찬성하는 경우 집단 의사 결정은 다수에 근거하여 부당하게 편향됩니다. Takada와 Murata(2014)는 집단 의사결정과 편향의 효과를 테스트하는 실험을 수행했습니다. 참가자들에게 “사건에 대한 증거를 공개한 후” 개별 평결은 그룹의 심의 과정에 앞서 녹음되었습니다. 집단 심의 후 평결이 기록되었고 연구자들은 집단 환경의 심의 단계가 개별 평결에서 상당한 변화를 일으켰음을 발견했다(Takada & Murata, 2014). 또한 Takada and Murata(2014)는 증거의 순서가 집단 심의와 강한 상호작용을 하며 궁극적으로 증거가 제시된 순서에 따라 집단 평결을 양극화한다는 것을 발견했다. Schneider et al. (2012)은 이러한 현상을 “그룹 양극화”(p. 239)라고 부른다.

Wolfe와 Pennington(2000)과 Takada와 Murata(2014)의 연구는 배심원이 편견에 취약하다는 믿음을 확인시켜줍니다. 응용사회심리학에서 집단심의 환경은 법원 사건에 ​​대한 배심원의 공정성에 큰 관심을 불러일으키는 환경이다. Schneider et al. (2012)는 집단 환경이 집단의 압력으로 인해 개인이 집단 양극화 개념에 동의하도록 만드는 집단 사고 현상의 오류에 개인을 노출시킬 수 있다고 논의합니다. 또한, Schneider et al. (2012) 배심원 심의와 같은 그룹 환경은 예를 들어 발견적 방법(인지적 지름길) 및 확인 편향에 기반한 의사 결정 과정에서 편향의 가능성을 악화시킨다고 믿습니다.

따라서 미디어와 개인적 영향이 배심원단에 영향을 미칠 수 있는 것처럼 그룹 환경도 배심원단과 평결에 편견을 일으킬 수 있습니다. 아마도 배심원들에게 개별적으로 증거를 평가할 시간을 더 주고 배심원들에게 익명으로 평결을 선택하도록 요청하면 그룹 토론 중에 환경으로 인한 편견을 줄일 수 있을 것입니다. 배심원 제도의 공정성을 유지하기 위해 집단 심의에서 이러한 집단 환경 편향의 가능성을 극복할 수 있는 방법은 무엇이라고 생각하십니까?

참고문헌
Kaplan, M. & Miller, L. (1978). 배심원 편향의 영향을 줄입니다. 성격 및 사회 심리학 저널, 36, 1443-1455. 도이:10.1037/0022-3514.36.12.1443.

Kerr, N., MacCoun, R., & Kramer, G. (1996). 판단의 편견: 개인과 집단을 비교합니다. 심리 검토, 103, 697-719. doi:10.1037/0033-295X.103.4.687.

Schneider, F.W., Gruman, J.A. 및 Coutts, L.M.(Eds.)(2012). 응용 사회 심리학: 사회 및 실제 문제의 이해 및 해결(2판). 사우전드 오크스, 캘리포니아: Sage Publications.

Takada, M. & Murata, K. (2014). 배심원 결정에서 편견의 강조. 그룹 프로세스 그룹 간 관계, 17(1), 110-1124. 도이: 10.1177/1368430213490210

Wolfe, M. & Pennington, N. (2000). 기억과 판단: 가용성 대 설명 기반 계정. 기억과 인지, 28, 624-634. doi:10.3758/BF03201252.


권장 읽을거리

내가 틀렸고 너도 마찬가지야

이 기사는 당신의 마음을 바꾸지 않을 것입니다

미국에는 음주 문제가 있습니다

하지만 편견을 없애거나 크게 완화하는 것이 정말 불가능합니까? 일부 연구는 그 질문에 긍정적으로 잠정적으로 대답했습니다. 이 실험은 무작위로 선택된 피험자의 반응과 응답을 기반으로 합니다. 대부분이 대학생입니다. 즉, 자신의 행동과 생각을 수정하거나 배우는 것이 아니라 참여하기 위해 받는 20달러에 관심이 있는 사람들입니다. 그러나 편향 제거 전략을 수행하는 사람이 매우 의욕적이고 스스로 선택했다면 어떻게 될까요? 다시 말해 나였다면?

당연히 나는 84세인 Daniel Kahneman에게 편지를 썼습니다. 그는 84세의 나이에도 여전히 Princeton의 Woodrow Wilson School of Public and International Affairs에 재직하고 있지만 대부분의 시간을 맨해튼에서 보냅니다. 그는 재빨리 대답하고 만나기로 했다. “적어도 당신의 프로젝트에서 당신을 말려야 합니다.”라고 그가 말했습니다.

나는 Lower Manhattan의 Le Pain Quotidien에서 Kahneman을 만났습니다. 그는 키가 크고 말은 부드럽고 상냥하며 뚜렷한 억양과 찡그린 미소가 있습니다. 사과 페이스트리와 우유를 곁들인 차를 먹으면서 그는 “기질은 내 위치와 많은 관련이 있다. 나보다 더 비관적인 사람은 없을 것이다.”

이러한 맥락에서 그의 비관주의는 첫째, 시스템 1에 영향을 미칠 수 없다는 것과 관련이 있습니다. 시스템 1은 뮐러-라이어 선 착시와 같은 잘못된 판단을 내리는 뇌의 빠른 생각 부분입니다. "나는 그림을 불평등한 선으로 본다"고 그는 말했다. “목표는 내가 보고 있다고 생각하는 것을 신뢰하지 않는 것입니다. 내 거짓된 눈을 믿으면 안 된다는 것을 이해하기 위해." 착시 현상으로는 가능하지만 실제 인지 편향으로는 매우 어렵습니다.

Kahneman이 말했듯이 그들에 대한 가장 효과적인 견제는 외부로부터입니다. 다른 사람들은 우리보다 우리의 오류를 더 쉽게 인식할 수 있습니다. 그리고 그가 말했듯이 "느린 생각을 하는 조직"은 개인의 결정과 예측에 대한 모니터링을 포함하는 정책을 제정할 수 있습니다. 또한 인지 심리학자인 Gary Klein이 고안한 아이디어 및 용어인 체크리스트 및 "사전 검사"와 같은 절차가 필요할 수도 있습니다. 사전 부검은 팀 구성원에게 프로젝트가 매우, 매우 나쁘게 진행되었다고 상상하고 어떻게 그런 일이 일어났는지 설명하는 한두 문장을 작성하도록 요구함으로써 낙관주의 편향에 대응하려고 시도합니다. 이 운동을 수행하면 사람들이 미리 생각하는 데 도움이 됩니다.

Kahneman은 "내 입장은 이러한 것들이 시스템 1에 영향을 미치지 않는다는 것입니다."라고 말했습니다. “직관을 향상시킬 수는 없습니다. 아마도 매우 장기간의 훈련, 많은 대화, 행동 경제학에 대한 노출을 통해 할 수 있는 일은 따라서 시스템 2가 규칙을 따르도록 할 수 있습니다. 불행히도 세상은 단서를 제공하지 않습니다. 그리고 대부분의 사람들은 논쟁이 치열할 때 규칙을 무시합니다.

“그건 내 이야기야. 나는 그것에 집착하지 않기를 정말로 바랍니다.”

내가 Kahneman과 의사 소통하고 만났을 때와 거의 같은 시기에 그는 University of Michigan의 사회 심리학자인 Richard E. Nisbett와 이메일을 교환하고 있었습니다. 두 사람은 수십 년 동안 전문적으로 연결되었습니다. Nisbett은 Kahneman과 Tversky의 작업을 퍼뜨리는 데 중요한 역할을 했습니다. 인간의 추론: 사회적 판단의 전략과 단점. 그리고 안에 생각하는 것, 빠르고 느린 것, Kahneman은 개별 사례와 생생한 일화를 대신하여 판단을 기반으로 통계 및 기타 일반적인 증거를 믿지 않으려는 피험자의 성향을 보여주는 Nisbett의 이전 기사를 설명합니다. (이 편향은 기본 비율 무시로 알려져 있습니다.)

But over the years, Nisbett had come to emphasize in his research and thinking the possibility of training people to overcome or avoid a number of pitfalls, including base-rate neglect, fundamental attribution error, and the sunk-cost fallacy. He had emailed Kahneman in part because he had been working on a memoir, and wanted to discuss a conversation he’d had with Kahneman and Tversky at a long-ago conference. Nisbett had the distinct impression that Kahneman and Tversky had been angry—that they’d thought what he had been saying and doing was an implicit criticism of them. Kahneman recalled the interaction, emailing back: “Yes, I remember we were (somewhat) annoyed by your work on the ease of training statistical intuitions (angry is much too strong).”

When Nisbett has to give an example of his approach, he usually brings up the baseball-phenom survey. This involved telephoning University of Michigan students on the pretense of conducting a poll about sports, and asking them why there are always several Major League batters with .450 batting averages early in a season, yet no player has ever finished a season with an average that high. When he talks with students who haven’t taken Introduction to Statistics, roughly half give erroneous reasons such as “the pitchers get used to the batters,” “the batters get tired as the season wears on,” and so on. And about half give the right answer: the law of large numbers, which holds that outlier results are much more frequent when the sample size (at bats, in this case) is small. Over the course of the season, as the number of at bats increases, regression to the mean is inevitable. When Nisbett asks the same question of students who have completed the statistics course, about 70 percent give the right answer. He believes this result shows, pace Kahneman, that the law of large numbers can be absorbed into System 2—and maybe into System 1 as well, even when there are minimal cues.

Concept by Delcan & Co photograph by The Voorhes

Nisbett’s second-favorite example is that economists, who have absorbed the lessons of the sunk-cost fallacy, routinely walk out of bad movies and leave bad restaurant meals uneaten.

I spoke with Nisbett by phone and asked him about his disagreement with Kahneman. He still sounded a bit uncertain. “Danny seemed to be convinced that what I was showing was trivial,” he said. “To him it was clear: Training was hopeless for all kinds of judgments. But we’ve tested Michigan students over four years, and they show a huge increase in ability to solve problems. Graduate students in psychology also show a huge gain.”

Nisbett writes in his 2015 book, Mindware: Tools for Smart Thinking, “I know from my own research on teaching people how to reason statistically that just a few examples in two or three domains are sufficient to improve people’s reasoning for an indefinitely large number of events.”

In one of his emails to Nisbett, Kahneman had suggested that the difference between them was to a significant extent a result of temperament: pessimist versus optimist. In a response, Nisbett suggested another factor: “You and Amos specialized in hard problems for which you were drawn to the wrong answer. I began to study easy problems, which you guys would never get wrong but untutored people routinely do … Then you can look at the effects of instruction on such easy problems, which turn out to be huge.”

An example of an easy problem is the .450 hitter early in a baseball season. An example of a hard one is “the Linda problem,” which was the basis of one of Kahneman and Tversky’s early articles. Simplified, the experiment presented subjects with the characteristics of a fictional woman, “Linda,” including her commitment to social justice, college major in philosophy, participation in antinuclear demonstrations, and so on. Then the subjects were asked which was more likely: (a) that Linda was a bank teller, or (b) that she was a bank teller and active in the feminist movement. The correct answer is (a), because it is always more likely that one condition will be satisfied in a situation than that the condition ...을 더한 a second one will be satisfied. But because of the conjunction fallacy (the assumption that multiple specific conditions are more probable than a single general one) and the representativeness heuristic (our strong desire to apply stereotypes), more than 80 percent of undergraduates surveyed answered (b).

Nisbett justifiably asks how often in real life we need to make a judgment like the one called for in the Linda problem. I cannot think of any applicable scenarios in my life. It is a bit of a logical parlor trick.

Nisbett suggested that I take “Mindware: Critical Thinking for the Information Age,” an online Coursera course in which he goes over what he considers the most effective de-biasing skills and concepts. Then, to see how much I had learned, I would take a survey he gives to Michigan undergraduates. So I did.

The course consists of eight lessons by Nisbett—who comes across on-screen as the authoritative but approachable psych professor we all would like to have had—interspersed with some graphics and quizzes. I recommend it. He explains the availability heuristic this way: “People are surprised that suicides outnumber homicides, and drownings outnumber deaths by fire. People always think crime is increasing” even if it’s not.

He addresses the logical fallacy of confirmation bias, explaining that people’s tendency, when testing a hypothesis they’re inclined to believe, is to seek examples confirming it. But Nisbett points out that no matter how many such examples we gather, we can never prove the proposition. The right thing to do is to look for cases that would disprove it.

And he approaches base-rate neglect by means of his own strategy for choosing which movies to see. His decision is never dependent on ads, or a particular review, or whether a film sounds like something he would enjoy. Instead, he says, “I live by base rates. I don’t read a book or see a movie unless it’s highly recommended by people I trust.

“Most people think they’re not like other people. But they are.”

When I finished the course, Nisbett sent me the survey he and colleagues administer to Michigan undergrads. It contains a few dozen problems meant to measure the subjects’ resistance to cognitive biases. 예를 들어:

Because of confirmation bias, many people who haven’t been trained answer (e). But the correct answer is (c). The only thing you can hope to do in this situation is 반증하다 the rule, and the only way to do that is to turn over the cards displaying the letter A (the rule is disproved if a number other than 4 is on the other side) and the number 7 (the rule is disproved if an A is on the other side).

I got it right. Indeed, when I emailed my completed test, Nisbett replied, “My guess is that very few if any UM seniors did as well as you. I’m sure at least some psych students, at least after 2 years in school, did as well. But note that you came fairly close to a perfect score.”

Nevertheless, I did not feel that reading Mindware and taking the Coursera course had necessarily rid me of my biases. For one thing, I hadn’t been tested beforehand, so I might just be a comparatively unbiased guy. For another, many of the test questions, including the one above, seemed somewhat remote from scenarios one might encounter in day-to-day life. They seemed to be “hard” problems, not unlike the one about Linda the bank teller. Further, I had been, as Kahneman would say, “cued.” In contrast to the Michigan seniors, I knew exactly why I was being asked these questions, and approached them accordingly.

For his part, Nisbett insisted that the results were meaningful. “If you’re doing better in a testing context,” he told me, “you’ll jolly well be doing better in the real world.”

Nisbett’s Coursera course and Hal Hershfield’s close encounters with one’s older self are hardly the only de-biasing methods out there. The New York–based NeuroLeadership Institute offers organizations and individuals a variety of training sessions, webinars, and conferences that promise, among other things, to use brain science to teach participants to counter bias. This year’s two-day summit will be held in New York next month for $2,845, you could learn, for example, “why are our brains so bad at thinking about the future, and how do we do it better?”

Philip E. Tetlock, a professor at the University of Pennsylvania’s Wharton School, and his wife and research partner, Barbara Mellers, have for years been studying what they call “superforecasters”: people who manage to sidestep cognitive biases and predict future events with far more accuracy than the pundits and so-called experts who show up on TV. In Tetlock’s book Superforecasting: The Art and Science of Prediction (co-written with Dan Gardner), and in the commercial venture he and Mellers co-founded, Good Judgment, they share the superforecasters’ secret sauce.

One of the most important ingredients is what Tetlock calls “the outside view.” The inside view is a product of fundamental attribution error, base-rate neglect, and other biases that are constantly cajoling us into resting our judgments and predictions on good or vivid stories instead of on data and statistics. Tetlock explains, “At a wedding, someone sidles up to you and says, ‘How long do you give them?’ If you’re shocked because you’ve seen the devotion they show each other, you’ve been sucked into the inside view.” Something like 40 percent of marriages end in divorce, and that statistic is far more predictive of the fate of any particular marriage than a mutually adoring gaze. Not that you want to share that insight at the reception.

The recent de-biasing interventions that scholars in the field have deemed the most promising are a handful of video games. Their genesis was in the Iraq War and the catastrophic weapons-of-mass-destruction blunder that led to it, which left the intelligence community reeling. In 2006, seeking to prevent another mistake of that magnitude, the U.S. government created the Intelligence Advanced Research Projects Activity ( iarpa ), an agency designed to use cutting-edge research and technology to improve intelligence-gathering and analysis. In 2011, iarpa initiated a program, Sirius, to fund the development of “serious” video games that could combat or mitigate what were deemed to be the six most damaging biases: confirmation bias, fundamental attribution error, the bias blind spot (the feeling that one is less biased than the average person), the anchoring effect, the representativeness heuristic, and projection bias (the assumption that everybody else’s thinking is the same as one’s own).

Six teams set out to develop such games, and two of them completed the process. The team that has gotten the most attention was led by Carey K. Morewedge, now a professor at Boston University. Together with collaborators who included staff from Creative Technologies, a company specializing in games and other simulations, and Leidos, a defense, intelligence, and health research company that does a lot of government work, Morewedge devised Missing. Some subjects played the game, which takes about three hours to complete, while others watched a video about cognitive bias. All were tested on bias-mitigation skills before the training, immediately afterward, and then finally after eight to 12 weeks had passed.

After taking the test, I played the game, which has the production value of a late-2000s PlayStation 3 first-person offering, with large-chested women and men, all of whom wear form-fitting clothes and navigate the landscape a bit tentatively. The player adopts the persona of a neighbor of a woman named Terry Hughes, who, in the first part of the game, has mysteriously gone missing. In the second, she has reemerged and needs your help to look into some skulduggery at her company. Along the way, you’re asked to make judgments and predictions—some having to do with the story and some about unrelated issues—which are designed to call your biases into play. You’re given immediate feedback on your answers.

For example, as you’re searching Terry’s apartment, the building superintendent knocks on the door and asks you, apropos of nothing, about Mary, another tenant, whom he describes as “not a jock.” He says 70 percent of the tenants go to Rocky’s Gym, 10 percent go to Entropy Fitness, and 20 percent just stay at home and watch Netflix. Which gym, he asks, do you think Mary probably goes to? A wrong answer, reached thanks to base-rate neglect (a form of the representativeness heuristic) is “None. Mary is a couch potato.” The right answer—based on the data the super has helpfully provided—is Rocky’s Gym. When the participants in the study were tested immediately after playing the game or watching the video and then a couple of months later, everybody improved, but the game players improved more than the video watchers.

When I spoke with Morewedge, he said he saw the results as supporting the research and insights of Richard Nisbett. “Nisbett’s work was largely written off by the field, the assumption being that training can’t reduce bias,” he told me. “The literature on training suggests books and classes are fine entertainment but largely ineffectual. But the game has very large effects. It surprised everyone.”

I took the test again soon after playing the game, with mixed results. I showed notable improvement in confirmation bias, fundamental attribution error, and the representativeness heuristic, and improved slightly in bias blind spot and anchoring bias. My lowest initial score—44.8 percent—was in projection bias. It actually dropped a bit after I played the game. (I really need to stop assuming that everybody thinks like me.) But even the positive results reminded me of something Daniel Kahneman had told me. “Pencil-and-paper doesn’t convince me,” he said. “A test can be given even a couple of years later. But the test cues the test-taker. It reminds him what it’s all about.”

I had taken Nisbett’s and Morewedge’s tests on a computer screen, not on paper, but the point remains. It’s one thing for the effects of training to show up in the form of improved results on a test—when you’re on your guard, maybe even looking for tricks—and quite another for the effects to show up in the form of real-life behavior. Morewedge told me that some tentative real-world scenarios along the lines of Missing have shown “promising results,” but that it’s too soon to talk about them.

I am neither as much of a pessimist as Daniel Kahneman nor as much of an optimist as Richard Nisbett. Since immersing myself in the field, I have noticed a few changes in my behavior. For example, one hot day recently, I decided to buy a bottle of water in a vending machine for $2. The bottle didn’t come out upon inspection, I realized that the mechanism holding the bottle in place was broken. However, right next to it was another row of water bottles, and clearly the mechanism in that row was in order. My instinct was to not buy a bottle from the “good” row, because $4 for a bottle of water is too much. But all of my training in cognitive biases told me that was faulty thinking. I would be spending $2 for the water—a price I was willing to pay, as had already been established. So I put the money in and got the water, which I happily drank.

In the future, I will monitor my thoughts and reactions as best I can. Let’s say I’m looking to hire a research assistant. Candidate A has sterling references and experience but appears tongue-tied and can’t look me in the eye Candidate B loves to talk NBA basketball—my favorite topic!—but his recommendations are mediocre at best. Will I have what it takes to overcome fundamental attribution error and hire Candidate A?

Or let’s say there is an officeholder I despise for reasons of temperament, behavior, and ideology. And let’s further say that under this person’s administration, the national economy is performing well. Will I be able to dislodge my powerful confirmation bias and allow the possibility that the person deserves some credit?

As for the matter that Hal Hershfield brought up in the first place—estate planning—I have always been the proverbial ant, storing up my food for winter while the grasshoppers sing and play. In other words, I have always maxed out contributions to 401(k)s, Roth IRAs, Simplified Employee Pensions, 403(b)s, 457(b)s, and pretty much every alphabet-soup savings choice presented to me. But as good a saver as I am, I am that bad a procrastinator. Months ago, my financial adviser offered to evaluate, for free, my will, which was put together a couple of decades ago and surely needs revising. There’s something about drawing up a will that creates a perfect storm of biases, from the ambiguity effect (“the tendency to avoid options for which missing information makes the probability seem ‘unknown,’ ” as Wikipedia defines it) to normalcy bias (“the refusal to plan for, or react to, a disaster which has never happened before”), all of them culminating in the ostrich effect (do I really need to explain?). My adviser sent me a prepaid FedEx envelope, which has been lying on the floor of my office gathering dust. It is still there. As hindsight bias tells me, I knew that would happen.

This article appears in the September 2018 print edition with the headline “Your Lying Mind.”


4. Engage with the people and systems around us

Too often, we try to teach our kids not to notice difference, thinking that if we ignore difference, we help children to avoid prejudice. But research suggests kids will notice difference from birth onward and create their own narratives around race, gender, or disabilities if parents don’t actively discuss difference themselves and provide guidance.

All of us can demand more representation in our media by women, the LGBT+ community, and people of color confront friends or colleagues who use racial or gendered slurs work to ensure that our social groups are diverse and that people feel included and nudge our workplaces toward more equity. It’s important to remember that our goal is not to feel good about ourselves or to pat ourselves on the back, but to learn, show courage, and reach out to those who could use us to challenge unfair systems.

Shared Identity

How to encourage generosity by finding commonalities between people

While sometimes this may seem like an overwhelming task, there are many rewards to doing so. Those with more diverse and inclusive work teams tend to perform better, and individuals with more diverse friend groups feel more at ease in cross-group situations. Championing other people’s empowerment is the right thing to do—and it will help us to live true to our values.

Greater Good wants to know: Do you think this article will influence your opinions or behavior?
About the Author

Jill Suttie

Jill Suttie, Psy.D., is Greater Good’s former book review editor and now serves as a staff writer and contributing editor for the magazine. She received her doctorate of psychology from the University of San Francisco in 1998 and was a psychologist in private practice before coming to Greater Good.

You May Also Enjoy
코멘트

This article is part of an initiative exploring evidence-based strategies to improve dialogue, understanding, and relationships across social and political divides.

A new book from the GGSC

What if we didn't take good things for granted, and recognized all the kindness we receive from others? Learn how gratitude can lead to a better life—and a better world.

관련 기사


Psychological Consultation in PTP Cases

When a defendant believes that community members have been exposed to a significant amount of PTP concerning the case, his or her counsel may file a motion to seek remedies to counteract the bias that may result from the prejudicial information. When such motions are filed, either side may call an expert who may provide testimony to the judge making determinations about whether to implement any remedies, such as expanded voir dire or a change of venue. The expert may testify about experimental psychological research on PTP, including the negative impact it has on jurors’ perceptions of the defendant and on verdict decisions. The expert may make comparisons between the types of PTP used in research and the types of publicity that have been released in the current case. The expert may also testify about experimental research testing the effectiveness of the suggested remedies. Although research indicates that most traditional remedies besides change of venue are ineffective, judges themselves report a strong belief in the effectiveness of remedies such as extended voir dire and judicial instruction.

Additionally, when experts are testifying in a change-of-venue hearing, they may provide the court with data they have collected to assess the level of prejudice in that particular case by comparing the responses from community members in the current venue with community members’ reports of bias in alternative venues. The expert may present differences in the amount of PTP exposure reported by community members, their level of knowledge about case facts, and their perceptions of the defendant’s character and likelihood of guilt as a function of the community in which the respondents live. Additionally, the expert may present results from content analyses of the quantity and quality of PTP in the current venue as well as possible alternative venues. The expert may then testify about differences in media exposure between the communities, including the number of articles reporting on the case, the types of prejudicial information divulged, and the amount of emotional PTP in each of the venues.

PTP continues to be a concern to defendants, the courts, and researchers. Research has consistently demonstrated that exposure to negative information about the defendant pretrial affects jurors’ perceptions of the defendant, that these negative perceptions persist even after trial evidence is presented, and that these perceptions have been shown to influence jurors’ verdict decisions. Additionally, many of the most commonly implemented remedies to counteract PTP have proved to be ineffective when empirically tested. Of the remedies, change of venue seems to be the best method for reducing the negative effects of PTP. Expert testimony addressing these research findings as well as results from surveys assessing the communities’ level of prejudice against the defendant may assist the courts in their quest to provide the defendant with a fair and impartial jury.


What Are the Health Effects of Prejudice?

Social determinants of health (SDOH) are the environmental factors that contribute to the well-being of communities and individuals. Some examples of such influences include access to educational opportunities, exposure to crime, and transportation options.

Prejudice is intertwined with these variables structural discrimination disadvantages less privileged groups and affects resource allocation, opportunities, and socioeconomic stability. For example, incarceration rates are higher for minorities and schools are becoming more racially segregated—contributing to feelings of safety, funding, and security.

African American men living in poverty are almost three times as likely to die early than those living above the poverty line, according to a 자마 study on race and poverty as a risk. There is no difference for white men in and out of poverty.

On the individual level, prejudice can have direct health consequences. Just the anticipation of prejudice or discrimination can lead to cardiovascular and psychological stress responses, according to a 2011 AJPA study on discrimination and stress. Over time this can contribute to depression, anxiety and feelings of isolation or loneliness.

It can also lead to self-stigmatization.

“People of marginalized or discriminated groups can develop negative beliefs towards themselves,” Thapar-Olmos said. “That gets in the way of all kinds of things—relationships, functioning, recovery.”


소개

Scientific papers are tools for communicating science between colleagues and peers. Every research needs to be designed, conducted and reported in a transparent way, honestly and without any deviation from the truth. Research which is not compliant with those basic principles is misleading. Such studies create distorted impressions and false conclusions and thus can cause wrong medical decisions, harm to the patient as well as substantial financial losses. This article provides the insight into the ways of recognizing sources of bias and avoiding bias in research.


John Dovidio, PhD, a professor of psychology and public health at Yale University, has studied issues of social power and social relations, both between and among groups and individuals. His work explores both conscious (explicit) and unconscious (implicit) influences on how people think about, feel about and behave toward others based on group membership. He has conducted research on “aversive racism,” a contemporary, subtle form of prejudice, and on techniques for reducing conscious and unconscious biases.

Audrey Hamilton: Understanding our own racial biases is something we all struggle with, even when we aren’t aware of those struggles. We speak with one psychologist who has been studying a more modern form of prejudice and says ridding ourselves of those biases is practically impossible. But being aware of them is the first step toward improving relations among different racial groups. I’m Audrey Hamilton and this is “Speaking of Psychology.”

John Dovidio is a psychology professor at Yale University and one of the leading researchers on racism, particularly subtle or unconscious racism. He has studied issues of social power and social relations, both between groups and between individuals. His work explores techniques for reducing these conscious and unconscious biases.

John Dovidio: Thank you for having me.

Audrey Hamilton: Your work focuses on what you call “aversive racism.” Can you explain what that means and how it differs from just racism?

John Dovidio: We used to think about racism in a very simple way – that people had negative thoughts, negative feelings, hatred toward a group. But since the 1960s when there was civil rights legislation, it changed the way we thought about race because it was not only immoral to think that way, but it was illegal to discriminate. And what we think is that racism has become more subtle since then. That people still have negative feelings, but they may not be aware of those negative feelings. Instead of feelings of hatred, it’s more like feelings of avoidance and discomfort. That’s where the name aversive racism comes from.

Audrey Hamilton: Would you say most people have some biases against people from different racial or ethnic groups? You know, what are the consequences of those types of implicit, what we would say, unconscious biases?

John Dovidio: Yeah, there’s research that shows that only a small proportion of Americans today have old-fashioned kind of racism, explicit kind of racism. But the majority of white Americans, because they’ve grown up in a culture that has been historically racist in many ways, because they’re exposed to the media that associates violence, drugs and poverty with certain groups.

Most white Americans, the majority of white Americans, about two-thirds to three-quarters, have the unconscious, implicit, racial biases.

Audrey Hamilton: How do people work on getting rid of these biases if they don’t know they’re biased?

John Dovidio: That’s the biggest challenge because most of us are really well practiced at convincing ourselves that we’re not prejudiced. So, most of us want to be good people. Prejudice is bad and when we think about it, we always do the right thing.

One of the consequences of aversive racism or unconscious bias is that you don’t discriminate in a situation where what’s right and wrong are clearly defined because you know what you’re supposed to do when you do it. But it usually happens when you can justify a response on the basis of some factor other than race. So, there may be like two people that you are interviewing – one white and one black – and you shift your criteria for the job in a way that actually favors the white person without actually directly discriminating against it.

So the problem is every time we look at our behavior and monitor our behavior, we behave in an egalitarian way. And it’s only when we’re not paying attention that we discriminate. So to your question, what we have to do is probably – if something’s unconscious, you don’t know you have it. 간단합니다. So you can’t think about what you’re really feeling. What you have to do is assume you probably have these biases if you’re an average American.

And then what you have to do is try to control those biases in the way you behave towards people. You often have to acknowledge you may have these biases. So, it’s an ongoing battle because you can’t really get rid of these. They’re like having habits of mind that you’ve grown up with. And so you just have to work at being always alert, always conscious and always receptive to the possibility that we might be biased.

Audrey Hamilton: I hear a lot about when you’re eliminating these biases, a lot of it is just about having conversations about race in general. Maybe with people who are not your racial or ethnic background. Do you think that helps sort of uncover these biases that you don’t know you have?

John Dovidio: Yeah, one of the problems with aversive racism that I mentioned before is that you actually avoid the group and you avoid the group because they make you uncomfortable and you can, therefore, maintain the stereotypes of the group. If you have a lot of interaction with members of the group, then you no longer think about people as being a member of that group, primarily. You think about them as individuals. And so, you haven’t really gotten rid of the implicit bias, but you’ve been able to fine tune the way you interact with many people. You just dial up a broader array of repertoire of being able to interact with people and understand them.

Audrey Hamilton: What do psychologists like you who study this think about the election and re-election of President Obama? Have race relations and attitudes changed in this country since he became president?

John Dovidio: There’s been some amazing changes in terms of attitudes since he’s become president, but there’s also been a real persistence of racism. In terms of changing of attitudes, it probably has happened among the black community because they’re new role models. Blacks can envision a new future. Blacks can be at the center rather than a periphery. Many of the issues that you saw with Obama in terms of objections to him, questions about where he was born, is a reflection of aversive racism, where a black person in that position of power can’t be legitimate in that position of power. And so you look for reasons to try to devalue or get rid of that person.

The other thing is that many of his policies have been opposed in ways that are much more virulent than many other presidents. And I think it’s in part because those negative racial attitudes get expressed, get channeled in a way that has a higher intensity.

Audrey Hamilton: Have psychologists been studying this? I mean, I guess it sort of has been an ongoing experiment of the last eight years of his presidency.

John Dovidio: Over the last eight years, there have been some changes in implicit racial bias but not widespread. So a study too will find a difference, particularly soon after the election because it was so revolutionary, the time in terms of thinking. And we adjust our thinking to revolutionary things. But when you go back to business as usual, we still grow up in a society that makes these associations. And he’s seen really as an exception rather than what the average black person is.

Audrey Hamilton: Let’s move onto the topic of law enforcement. What can law enforcement officers and leaders learn from your research when it comes to training and interacting with their communities, specifically minority communities?

John Dovidio: The research on police officers – in general, they started doing some research with different computer simulation games where you would shoot or not shoot somebody that appeared on a screen. And that person either had a gun or had an object like a wallet. And then you would have to make a decision do you shoot or not shoot that person. And what that research found was two things. One was that people were much more likely to shoot an unarmed black person than an unarmed white person. And second of all, implicit bias predicted that result. On average, there’s shooter bias, and the shooter bias is related to implicit attitudes. And work with police officers show the same bias and that it is related to their implicit attitudes as well. And the more they are exposed in their daily activity to black violence, the police officers, the more likely they are to show this kind of bias. So, what it talks about is nobody wants to shoot an unarmed person. That’s not our intentions. But what it shows is if you have these very quick associations of blacks with crime and violence, even if you’re well trained in your profession, it makes you susceptible to making a split-second decision that you can never take back.

Audrey Hamilton: How do they go about eliminating those biases – or is that even possible?

John Dovidio: I’m not a big fan of trying to eliminate biases. Biases that are 50 years in the making you don’t unmake in a very short period of time. But one example – I do some work with police forces indirectly through an organization I’m part of. But, one of the things that they said was police officers today aren’t like the image we had of police officers in the past walking the beat. Police officers today are in a car that has so much electronics, that they don’t have to get out of their cars. Someone even told me – I don’t even know whether this is actually true, but I bet it is – that there’s more electronics, high-powered electronics in the average police car today than there was in our first space [ships]. So what that means is the police officers are in the car and don’t interact with the community and the community sees the police officers as distant and powerful over them. And you can’t be an effective police officer unless you have the trust and cooperation of the community. So what they’ve tried to do now, and we’ve recommended this in several places, was to get the police officer out of the car, just as you said before, to meet people as individuals. To be able to distinguish one from another and therefore not overreact.

Audrey Hamilton: OK, Dr. Dovidio, thank you so much for joining us. It’s been a pleasure.

John Dovidio: It’s been a pleasure for me too. 감사합니다.

Audrey Hamilton: For more information on Dr. Dovidio’s work and to hear more episodes, please go to our website. With the American Psychological Association’s “Speaking of Psychology,” I’m Audrey Hamilton.


Ingroup-Outgroup Bias

Evidence of conflict and discrimination between groups is all around, which is not to say that this is inevitable, as many groups coexist peacefully most of the time. Ingroup bias refers to a form of favoritism toward one’s own group or derogation of another group. Many theories of intergroup relations in social psychology try to explain this phenomenon. Ingroups are groups to which a person belongs, and outgroups are groups to which a person does not belong (and which could therefore become target for ingroup bias). There is an almost infinite number of groups to which a person belongs, depending on how he or she categorizes the social world.

Gender, ethnicity, occupation, economic and social position are all meaningful dimensions by which a person can define him- or herself and others in terms of ingroups and outgroups this is a process of social (and self) categorization. Ingroup bias can take many forms and on many dimensions, both evaluative and behavioral. Evaluative ingroup bias refers to the rating of one’s own group as better (more positive, less negative) on dimensions of judgment, and as such, it is closely related to the concept of prejudice. In behavioral terms, ingroup bias refers to the tendency to favor the ingroup over the outgroup in some way, for example, in terms of the allocation of resources or rewards: a form of discrimination. Outgroup bias—the tendency to favor the outgroup over the ingroup—is much less common than ingroup bias but by no means absent in intergroup relations.

One of the key objectives of research in intergroup relations has been to understand and explain evidence of ingroup bias in it various forms, as a necessary step to reduce and resolve intergroup discrimination. One obvious and recurring explanatory factor is self-interest: People may favor their own groups, and derogate outgroups, because it benefits them through resources or rewards. This is the basic idea behind the realistic group conflict theory, which explains such bias in terms of real conflicts of interests between groups that are competing with each other for scarce resources (e.g., land, jobs, status). This provides a straightforward and compelling explanation for many of the intergroup conflicts seen around the world, especially where resources are at stake.

However, research has also shown that conflicts of interests and self-interest motives may not even be necessary for ingroup bias to occur. The so-called minimal group studies show that people tend to favor their own group in terms of reward allocations even when they are categorized on a trivial basis (e.g., preference for painters, by a coin toss), such that they do not even know who is in the ingroup or the outgroup, and even when they do not meet them. This is true even when they do not allocate rewards to the group as a whole (where they could benefit personally) but only individual members of the ingroup. One feature of these experiments was the development of reward matrices designed to measure different reward strategies. It was possible to distinguish between strategies that simply favored the ingroup (maximizing ingroup profit) from a form of discrimination that maximizes the difference in rewards given to ingroup and out-group (i.e., even potentially at the cost of the absolute reward to the ingroup), which could be seen as genuinely more discriminatory. These experiments found evidence of this maximizing difference strategy. These findings led to the development of social identity theory, which aimed to explain why people might discriminate in favor of their group for more symbolic psychological reasons than because of mere self-interest. The explanation proposed for this was that such discrimination provides the group with a positive distinctiveness that can enhance the social identity and self-esteem of ingroup members.

However, the explanations for discrimination in minimal groups remain hotly contested. Some have argued that ingroup bias can be explained by self-interest after all, if it is assumed that there is an expectation of reciprocity of mutual reward among ingroup members. This still leaves open the question of why the ingroup should feel this ingroup reciprocity. Evolutionary arguments have been advanced, proposing that people may have good reasons to trust and reward those within their ingroup, who may in turn help them in the future. This may explain ingroup favoritism but may less easily explain evidence of maximum differentiation or outgroup derogation. More recently social identity theory has been extended by emotion theory to explain the more malicious forms of prejudice and discrimination toward outgroups and the different forms this may take, depending on the specific relations between the groups (e.g., depending on power, status relations). Clearly ingroup bias is not just a matter of rational self-interests but may also include more symbolic and emotional benefits to the group.

One weakness of the realistic conflict approach is that it seems to imply that ingroup bias should occur when there are conflicts of interest, and this is clearly not always the case. Although intergroup conflict is newsworthy, intergroup stability is more common despite pervasive differences in wealth status and other resources. Sometimes groups seem to accept their disadvantaged status and even show examples of out-group bias. A good example of this is the classic doll studies in which African American children presented with a Black or White doll to play with chose the White doll (at least in the early demonstrations), an apparent outgroup preference. Social identity theory is able to explain this because it only predicts conflict and social competition when the group relations are unstable and perceived as illegitimate (and thus insecure). After the civil rights movement, the doll studies no longer showed outgroup bias, indicating that African Americans no longer accepted their lower status as legitimate.



코멘트:

  1. Abdul-Rahim

    훌륭한 주제

  2. Tymothy

    그들을 보자!

  3. Maccormack

    매우 재미있는 질문

  4. Jukka

    무언가는 아무것도 남기지 않습니다

  5. Northtun

    놀랍게도 이것은 재미있는 문구입니다.

  6. Ahmik

    멋진 사진이 멍청했습니다

  7. Batal

    멋진 주제



메시지 쓰기