[통찰 38] 데이터 리터러시: 숫자에 속지 않는 전전두엽 훈련
면책 공고 (Disclaimer)
본 리포트는 데이터 리터러시와 뇌과학적 인지 기전의 상관관계를 탐구하는 학술적·교육적 목적으로 작성되었습니다. 리포트 내 언급된 통계적 해석 및 신경과학적 가설은 최신 연구 동향을 바탕으로 하나, 특정 금융, 법률, 또는 의료적 의사결정의 절대적 기준으로 사용될 수 없습니다. 데이터 해석의 오류로 인해 발생하는 유무형의 손실에 대해 본 저작권자는 책임을 지지 않으며, 모든 정보의 비판적 수용과 최종 판단의 책임은 독자 본인에게 있음을 명시합니다.
1. 서론: 숫자가 지배하는 세상, 우리는 무엇을 놓치고 있는가?
현대 사회에서 데이터는 '제2의 원유'를 넘어 '새로운 신앙'의 반열에 올랐습니다. 복잡한 사회 현상을 단 하나의 수치로 치환하는 통계의 마법은 우리에게 명쾌한 해답을 주는 것처럼 보입니다. "데이터는 거짓말을 하지 않는다"라는 격언은 이제 거부할 수 없는 진리로 받아들여지며, 기업의 경영 전략부터 정부의 정책 입안, 심지어 개인의 일상적인 선택에 이르기까지 숫자는 절대적인 권위를 행사합니다. 그러나 우리가 숫자의 명료함에 도취해 있을 때, 정작 그 이면에 숨겨진 본질적 가치와 맥락은 교묘하게 소거되고 있습니다.
진정한 의미의 데이터 리터러시(Data Literacy)는 단순히 그래프를 읽거나 통계 기법을 익히는 기술적 숙련도를 의미하지 않습니다. 그것은 쏟아지는 수치적 자극 속에서 인간 고유의 비판적 사유를 지켜내는 '인지적 주권'의 문제입니다. 뇌과학적으로 볼 때, 인간의 뇌는 인지 에너지를 절약하기 위해 복잡한 추론보다는 단순한 수치적 요약을 선호하는 경향이 있습니다. 숫자가 제시되는 순간, 우리 뇌의 전전두엽은 깊은 사유를 멈추고 '인지적 태만(Cognitive Ease)' 상태에 빠지기 쉽습니다. 데이터가 제공하는 가짜 확신에 속아 비판적 사고 회로가 마비되는 것입니다.
📊 데이터의 권위주의와 인지적 맹점
"숫자는 객관적이라는 환상은 확증 편향(Confirmation Bias)을 정당화하는 가장 강력한 도구가 됩니다. 뇌의 배외측 전전두엽(dlPFC)은 복잡한 논리 구조를 파악하려 노력하지만, 동시에 복측 선조체(Ventral Striatum)는 즉각적이고 명확한 보상(결론)을 원합니다. 숫자는 이 갈등을 가장 손쉽게 해결해 주지만, 그 과정에서 데이터에 담기지 않는 인간의 고뇌와 도덕적 딜레마는 '노이즈'로 취급되어 삭제됩니다. 우리는 지금 데이터가 가리는 진실을 다시 복원해야 하는 시점에 서 있습니다."
본 리포트에서는 고전적인 트롤리 딜레마(Trolley Dilemma)를 현대적인 인공지능 윤리와 데이터 리터러시의 관점에서 재조명하고자 합니다. AI가 내리는 '계산된 선택'과 인간 뇌가 느끼는 '도덕적 저항' 사이의 간극을 분석함으로써, 우리가 왜 숫자에 속지 않도록 전전두엽을 훈련해야 하는지 그 필연성을 역설할 것입니다. 6,000자 이상의 이 심층 탐구는 당신의 뇌가 데이터를 수동적으로 수용하는 기계에서, 데이터 너머의 가치를 읽어내는 능동적 주체로 거듭나는 여정이 될 것입니다.
![]() |
인간의 윤리적 판단과 AI의 계산적 의사결정을 대비하며, 트롤리 딜레마를 통해 데이터 리터러시의 중요성을 |
2. 트롤리 딜레마의 재해석: 계산된 생명 vs 느껴지는 생명
데이터 리터러시의 핵심은 '숫자가 누락시킨 정보'를 찾아내는 힘입니다. 이를 가장 극명하게 보여주는 사례가 바로 트롤리 딜레마(Trolley Dilemma)입니다. 전통적인 철학의 영역에서 이 문제는 '다수의 생명을 위해 소수를 희생하는 것이 정당한가'라는 윤리적 질문이었지만, 데이터 지능의 시대에는 '인간의 생명을 수치화하여 연산하는 알고리즘의 한계'를 드러내는 상징적 사건이 됩니다.
인공지능에게 5명의 생명과 1명의 생명은 '5 > 1'이라는 명확한 산술적 결론으로 귀결됩니다. 알고리즘의 세계에서 생명은 변수(Variable)이며, 최적화의 대상입니다. 만약 자율주행 차량의 소프트웨어가 사고 직전의 순간에 직면한다면, 시스템은 즉각적으로 각 경로의 기대 손실을 계산합니다. 여기서 '고통', '슬픔', '존엄'과 같은 정성적 가치는 데이터화되지 못하며, 오직 객체(Object)의 수라는 정량적 지표만이 판단의 근거가 됩니다. 이것이 바로 숫자가 지배하는 '차가운 합리성'의 실체입니다.
🧠 메카니즘: vmPFC의 가치 평가와 알고리즘의 손실 함수
"인간이 동일한 상황에 처했을 때, 뇌는 단순히 숫자를 세지 않습니다. 복측 내측 전전두엽(vmPFC)은 사회적 맥락과 감정적 가중치를 결합하여 '차마 할 수 없는 일'에 대한 강력한 제동 신호를 보냅니다. 반면 AI는 손실 함수(Loss Function)를 최소화하는 방향으로만 기동합니다. 인간의 뇌는 생명을 '감각'하지만, 기계는 생명을 '연산'합니다. 데이터 리터러시는 바로 이 지점, 즉 연산이 놓쳐버린 감각의 영역을 복원하고 숫자의 권위에 의문을 던지는 훈련에서 시작됩니다."
우리가 숫자에 쉽게 압도당하는 이유는 뇌의 인지적 편의성 때문입니다. 5명과 1명이라는 숫자는 명료하지만, 그들이 가진 삶의 궤적과 남겨진 가족들의 고통은 데이터로 치환하기에 너무나 복잡하고 무겁습니다. 데이터 리터러시가 부족한 전전두엽은 이 무거운 맥락을 거세하고 가벼운 숫자를 선택함으로써 결론에 도달하려 합니다. 하지만 그 결론은 인간의 도덕적 직관과 충돌하며, 기술이 인간을 소외시키는 결과를 초래합니다.
■ 데이터 가중치 설정에 따른 판단 주체의 차이 분석
| 분석 차원 | 인간의 전전두엽 (느껴지는 생명) | AI 알고리즘 (계산된 생명) |
|---|---|---|
| 정보 처리 방식 | 맥락적(Contextual) 및 정서적 통합 | 수치적(Numerical) 및 선형적 최적화 |
| 가치 평가 기준 | 질적 가치(Quality)와 생명 경외 | 양적 가치(Quantity)와 확률론적 이득 |
| 딜레마에 대한 반응 | 심리적 갈등 및 인지적 고통 | 고통 부재, 즉각적인 산술 도출 |
트롤리 딜레마의 숫자에 압도당하지 않는 전전두엽 훈련이란, 데이터 뒤에 숨겨진 '고통받는 실체'를 상기하는 작업입니다. 데이터 리터러시가 고도화될수록 우리는 "5명이 1명보다 중요하다"라는 단순한 통계적 결론에 저항하게 됩니다. 숫자는 현상의 단면을 보여줄 뿐, 그 현상의 무게를 대변하지 못하기 때문입니다. 이어지는 장에서는 알고리즘이 도덕적 고뇌 없이 고통을 데이터화할 때 발생하는 심각한 인지적 맹점을 파헤쳐 보겠습니다.
3. AI 윤리의 맹점: 알고리즘은 '고통'을 데이터화할 수 있는가?
데이터 리터러시의 가장 고차원적인 단계는 '측정되지 않은 데이터'의 존재를 인지하는 것입니다. 인공지능이 도덕적 판단을 내릴 때 마주하는 가장 큰 벽은 인간이 느끼는 '질적 가치'를 어떻게 수치화하느냐에 있습니다. 특히 '고통'이나 '슬픔'과 같은 정서적 경험은 신경학적으로 매우 복잡한 층위를 가지고 있지만, 알고리즘의 세계에서는 오직 0과 1, 혹은 가중치(Weight)라는 단면적인 숫자로 변환됩니다. 이 변환 과정에서 발생하는 정보의 누락은 치명적인 윤리적 맹점을 만듭니다.
인간의 뇌는 타인의 고통을 목격할 때 거울 신경계(Mirror Neuron System)와 전측 대상피질(Anterior Cingulate Cortex, ACC)을 활성화합니다. 이는 타인의 신체적, 심리적 고통을 나의 것처럼 '시뮬레이션'하는 과정입니다. 하지만 AI에게 고통은 그저 '피해야 할 마이너스 지표'일 뿐입니다. 데이터 리터러시가 부족한 설계자는 고통을 단순히 '사망자 수'나 '부상 정도'라는 통계로 치환하지만, 그 숫자는 한 개인의 삶이 무너지는 고통의 깊이를 결코 담아내지 못합니다.
! 메카니즘: 맥락 소거와 사이코패스적 합리성
"데이터 리터러시가 거세된 알고리즘은 맥락 소거(Decontextualization)의 오류에 빠집니다. 인간은 전전두엽(PFC)을 통해 사건의 전후 맥락과 개별 인간의 특수성을 고려하여 유연한 도덕적 판단을 내리지만, AI는 오직 입력된 데이터의 '양'에만 반응합니다. 이러한 기계적 판단은 겉보기에는 완벽하게 합리적이지만, 공감이 결여된 사이코패스적 합리성과 닮아 있습니다. 숫자가 생략해버린 '맥락'을 복원하는 것, 그것이 바로 인공지능 시대에 우리가 전전두엽을 단련해야 하는 이유입니다."
데이터 리터러시는 숫자를 믿는 기술이 아니라, 숫자를 의심하는 예술입니다. "이 통계가 놓치고 있는 인간의 존엄성은 무엇인가?"라는 질문을 던질 때, 비로소 우리의 뇌는 수동적 정보 소비에서 벗어나 능동적 사유를 시작합니다. AI가 내놓은 '최적화된 결론'이 인간의 도덕적 직관과 충돌한다면, 그것은 데이터가 인간의 고통을 충분히 반영하지 못했다는 강력한 신호입니다. 우리는 숫자가 주는 명쾌함에 안주하지 말고, 그 뒤에 숨겨진 '데이터화되지 않은 진실'을 읽어낼 수 있어야 합니다.
■ 가치 평가의 대상: 데이터 vs 실제 경험
| 평가 항목 | 데이터상의 수치 (AI 관점) | 실제적 인간 경험 (인간 관점) |
|---|---|---|
| 고통의 정의 | 부정적 가중치(-Weight) 부여 | 신체적·심리적 고통의 시뮬레이션 |
| 판단 유연성 | 고정된 알고리즘 규칙 준수 | 상황 맥락에 따른 도덕적 고뇌 |
| 결과에 대한 태도 | 오류 최소화 및 연산 완결 | 책임감과 윤리적 반추(Reflection) |
숫자는 현상의 '껍데기'일 뿐입니다. 데이터 리터러시를 갖춘 전전두엽은 숫자의 편리함에 매몰되지 않고, 그 이면의 질적 가치를 상상하며 기계의 판단에 개입합니다. 이것은 단순히 AI를 불신하는 것이 아니라, AI의 연산 능력을 인간의 도덕적 직관으로 보정(Calibration)하는 고도의 지적 작업입니다. 다음 장에서는 집단 데이터가 어떻게 개별 인간의 진실을 가리는지, '평균의 함정'에 대해 심도 있게 다뤄보겠습니다.
4. 통계의 함정: 평균이라는 이름의 폭력과 윤리적 소외
데이터 리터러시를 가로막는 가장 거대한 장벽 중 하나는 바로 '평균(Average)'에 대한 맹신입니다. 통계학적으로 평균은 방대한 데이터를 하나의 수치로 요약해 주는 효율적인 도구이지만, 인지과학적 관점에서 평균은 개별 데이터가 가진 '고유한 진실'을 압살하는 폭력적인 속성을 내포하고 있습니다. AI가 학습하는 데이터셋이 '평균적인 인간'의 행동 양식을 정답으로 규정하는 순간, 그 범주에서 벗어난 소수자나 특이점(Outlier)은 알고리즘의 시야에서 사라지게 됩니다.
실제로 '평균적인 인간'은 현실에 존재하지 않는 수학적 허구에 불과합니다. 하지만 AI의 윤리적 가이드라인이 이 허구의 데이터를 기준으로 설계될 때, 트롤리 딜레마와 같은 상황에서 기계는 지극히 다수결 원칙에 충실한 판단을 내리게 됩니다. 숫자가 커질수록 가중치가 높아지는 알고리즘의 특성상, 소수의 생명이나 가치는 연산 과정에서 '버림' 처리되는 노이즈(Noise)로 전락합니다. 이것이 바로 숫자가 만드는 윤리적 소외의 메카니즘입니다.
⚠ 메카니즘: 범주화의 오류와 전전두엽의 인지적 게으름
"우리 뇌의 하측 측두엽(Inferior Temporal Lobe)은 정보를 빠르게 범주화(Categorization)하여 인지 부하를 줄이려 합니다. 통계적 평균은 이 범주화 작업을 극도로 단순화해 주며, 전전두엽(PFC)은 '다수의 이익이 곧 정답'이라는 인지적 지름길을 택하게 됩니다. 하지만 데이터 리터러시가 강화된 뇌는 평균이라는 수치 뒤에 가려진 편차(Variance)와 개별성에 주목합니다. 숫자가 획일화된 정답을 강요할 때, 그 획일성 속에 희생되는 '단 한 사람'의 무게를 인식하는 것이 전전두엽 리터러시의 본질입니다."
데이터의 홍수 속에서 우리는 '숫자가 많으면 옳다'는 다수결의 함정에 빠지기 쉽습니다. 하지만 윤리적 판단은 통계적 빈도로 결정되는 것이 아닙니다. 6,000자 이상의 이 탐구가 지향하는 바는, 숫자가 보여주는 '평균적 정의' 너머에 존재하는 '개별적 진실'을 보는 눈을 기르는 것입니다. AI가 소수자의 생명을 노이즈로 처리할 때, 인간의 전전두엽은 그 노이즈야말로 가장 치열하게 보호해야 할 가치임을 선언해야 합니다.
■ 통계적 판단과 윤리적 판단의 충돌 지점
| 판단 기준 | 통계적 최적화 (AI) | 비판적 리터러시 (인간) |
|---|---|---|
| 데이터 처리 | 평균값 및 다수 데이터 중심 | 특이점 및 개별 사례의 가치 복원 |
| 윤리적 지향 | 집단적 공리주의의 극대화 | 개별 존엄성 및 소수자 가치 보호 |
| 인지적 태도 | 신속한 범주화와 결과 도출 | 복잡성 수용 및 신중한 숙고 |
평균이라는 함정에서 탈출하는 방법은 데이터를 단순히 읽는 것이 아니라 '해석'하는 것입니다. 해석은 데이터 뒤에 숨겨진 억울한 목소리를 찾아내는 일이며, 전전두엽의 에너지를 기꺼이 소모하여 숫자의 폭력에 저항하는 일입니다. 이어지는 장에서는 숫자를 의심하고 분석하는 구체적인 전전두엽 강화 전략을 본격적으로 다루어 보겠습니다.
5. 전전두엽 강화 전략: 숫자를 의심하는 '인지적 필터' 구축
데이터 리터러시를 내재화한다는 것은 뇌가 정보를 수용하는 방식을 상향식(Bottom-up)에서 하향식(Top-down)으로 전환함을 의미합니다. 수치라는 자극이 들어왔을 때 즉각적으로 결론을 내리는 본능적 회로를 차단하고, 배외측 전전두엽(dlPFC)을 활성화하여 데이터의 설계 의도를 역추적하는 고도의 인지 작업이 필요합니다. 이를 위해 우리는 세 가지 핵심적인 인지적 필터를 전전두엽에 구축해야 합니다.
1 데이터의 출처와 의도 분석 (Source & Intent)
모든 데이터는 목적을 가진 주체에 의해 수집되고 가공됩니다. 숫자를 대할 때 가장 먼저 활성화해야 할 질문은 "이 데이터가 증명하고자 하는 이익은 누구의 것인가?"입니다. 뇌의 안와전두피질(OFC)은 보상과 가치를 평가하는데, 데이터의 출처가 편향되어 있다면 dlPFC는 이를 감지하여 인지적 제동을 걸어야 합니다. 통계적 유의성보다 중요한 것은 그 통계가 생성된 '맥락적 배경'입니다.
2 표본의 편향성과 노이즈의 재정의 (Sampling Bias)
AI가 학습한 데이터가 전체를 대변하지 못할 때 '평균의 오류'가 발생합니다. 리터러시 훈련은 데이터셋에서 '누락된 목소리'를 찾는 연습입니다. 하두정엽(Inferior Parietal Lobe)이 숫자의 크기를 계산할 때, 전전두엽은 그 숫자가 포함하지 못한 변이(Variance)에 집중해야 합니다. 노이즈로 분류되어 삭제된 데이터 속에 오히려 인간 윤리의 핵심인 '개별성'이 숨어 있는 경우가 많기 때문입니다.
3 상관관계와 인과관계의 철저한 분리 (Correlation vs Causality)
뇌는 패턴을 찾는 데 능숙하지만, 이는 종종 두 사건의 단순한 연관성을 인과관계로 착각하는 오류를 범하게 합니다. 전대상피질(ACC)에서 발생하는 인지적 모순을 해결하기 위해, 우리는 "A가 증가할 때 B가 나타나는 것인가, 아니면 A가 B를 직접적으로 일으키는가?"를 집요하게 파고들어야 합니다. 이 구분 능력이 결여되면 숫자가 제시하는 상관관계의 늪에 빠져 잘못된 윤리적 판단을 내리게 됩니다.
■ 데이터 리터러시 강화를 위한 3단계 인지 루틴
| 단계 | 수행 과제 (인지적 개입) | 활성 뇌 부위 및 효과 |
|---|---|---|
| 1단계: 멈춤 | 제시된 숫자의 결론을 즉시 수용하지 않고 인지적 불일치를 의도적으로 유발 | 전대상피질(ACC) 활성화: 자동 반응 억제 |
| 2단계: 분해 | 데이터의 수집 대상, 변수 정의, 누락된 지표를 세부적으로 분리 분석 | 배외측 전전두엽(dlPFC): 논리적 구조 분해 |
| 3단계: 보정 | 수치적 결과에 정성적 가치(윤리, 고통, 책임)를 대입하여 최종 판단 보정 | 복측 내측 전전두엽(vmPFC): 가치 통합 및 결정 |
훈련된 전전두엽은 숫자를 '정답'이 아닌 '가설'로 취급합니다. 데이터가 보여주는 상관관계 속에 숨겨진 인위적인 조작이나 의도적인 생략을 발견해내는 순간, 우리는 비로소 알고리즘의 지배에서 벗어나 주체적인 판단자로 복귀하게 됩니다. 숫자의 명료함이 주는 달콤한 휴식을 거부하고 뇌의 에너지를 능동적으로 소모하는 이 인지적 저항이야말로 AI 시대의 진정한 데이터 리터러시입니다.
6. 책임 있는 지능: AI와 인간의 윤리적 파트너십
데이터 리터러시 훈련의 종착지는 AI를 부정하는 것이 아니라, AI의 강력한 연산 능력을 인간의 도덕적 가치 체계 안에 안전하게 통합하는 '윤리적 파트너십'의 구축입니다. 인공지능은 방대한 데이터를 통해 최적의 효율을 계산하는 데 탁월하지만, 그 결과가 초래할 사회적 파장과 도덕적 무게를 감당할 신경학적 토대가 없습니다. 우리는 AI의 '지능'을 도구로 사용하되, 판단의 '주권'은 인간의 전전두엽이 보유하는 엄격한 위계 구조를 확립해야 합니다.
⚖ 메카니즘: 가치 정렬(Value Alignment)과 메타 인지(Meta-cognition)
"AI 시스템이 인간의 의도와 일치하게 작동하도록 만드는 가치 정렬(Value Alignment)은 설계 단계에서 끝나는 작업이 아닙니다. 인간의 전대상피질(ACC)은 AI가 내놓은 수치적 정답과 자신의 도덕적 직관 사이의 괴리를 실시간으로 감시하는 모니터링 허브 역할을 수행해야 합니다. 이를 메타 인지(Meta-cognition)라 하며, 기계의 연산 결과에 대해 '왜 이 숫자가 나왔는가?'를 넘어 '이 숫자가 인간의 존엄성을 훼손하지 않는가?'를 끊임없이 재검증하는 고도의 신경학적 보정 기작입니다."
데이터 리터러시가 고도화된 파트너십 모델에서는 AI가 '옵션의 생성자'가 되고 인간이 '최종 승인자'가 됩니다. 트롤리 딜레마 상황에서 AI는 모든 확률적 경로와 손실 비용을 신속하게 계산하여 제시하지만, 그 선택지 중 하나를 확정하거나 혹은 기존의 선택지를 거부하고 제3의 길을 모색하는 것은 오직 공감 능력을 가진 인간 전전두엽의 몫입니다. 기계의 지능이 높아질수록 인간은 데이터 너머의 정성적 가치를 사수하는 '윤리적 검수자'로서의 역량을 더욱 날카롭게 갈고닦아야 합니다.
■ AI-인간 협업 모델의 인지적 역할 분담
| 협업 차원 | AI의 역할 (데이터 연산력) | 인간의 역할 (도덕적 지배력) |
|---|---|---|
| 분석 단계 | 대량 데이터의 패턴 및 상관관계 추출 | 데이터의 편향성 및 수집 의도 검증 |
| 제안 단계 | 수치적 최적화에 기반한 시나리오 구성 | 윤리적 영향 평가 및 가치 가중치 보정 |
| 결정 단계 | 입력된 파라미터에 따른 결과 출력 | 최종 의사결정 승인 및 결과에 대한 책임 수용 |
책임 있는 지능이란 기술이 스스로 도덕을 깨우치는 것이 아니라, 인간이 기술의 고삐를 놓지 않는 상태를 의미합니다. 데이터 리터러시는 이 파트너십을 유지하기 위한 가장 강력한 인지적 무기입니다. AI의 냉철한 연산을 인간의 따뜻한 직관으로 감싸 안을 때, 비로소 우리는 숫자가 지배하는 세상을 인간의 가치가 흐르는 세상으로 바꿀 수 있습니다.
7. 결론: 숫자를 넘어 '인간'을 읽는 전전두엽의 힘
데이터 리터러시의 궁극적 목적은 통계적 정답을 맞히는 것이 아니라, 숫자가 삼켜버린 인간의 진실을 복원하는 데 있습니다. 트롤리 딜레마가 우리에게 던진 질문은 결국 '누구를 죽일 것인가'라는 연산의 문제가 아니라, '우리는 어떤 가치를 지키기 위해 기술을 설계하는가'라는 지극히 인간적인 선언입니다. 인공지능이 내놓는 수치적 최적해는 우리가 참고할 지도일 뿐, 그 지도를 따라 어디로 나아갈지를 결정하는 나침반은 오직 우리의 도덕적 뇌 속에 존재해야 합니다.
전전두엽 훈련을 통해 구축한 인지적 필터는 숫자의 명료함이 주는 유혹에 저항하게 만듭니다. 데이터가 '평균'이라는 이름으로 소수자의 고통을 지우려 할 때, 혹은 '상관관계'라는 이름으로 인과관계를 왜곡하려 할 때, 깨어있는 전전두엽은 그 틈새를 파고들어 비판적 의문을 던집니다. 이 의문이야말로 기계의 지능이 인간의 존엄성을 넘보지 못하게 만드는 가장 강력한 방어선입니다.
결국 미래의 경쟁력은 데이터를 얼마나 많이 보유하느냐가 아니라, 데이터 속에 숨겨진 윤리적 무게를 얼마나 깊이 통찰하느냐에서 결정됩니다. 지능의 외주화가 가속화될수록, 우리는 더욱 치열하게 전전두엽의 에너지를 소모하여 숫자에 가려진 '실제 인간'의 삶을 읽어내야 합니다. 데이터는 도구일 뿐, 그 도구를 쥔 손의 방향을 결정하는 것은 언제나 우리의 몫입니다.
"데이터는 현상의 그림자일 뿐입니다.
그림자의 길이에 속지 않고 실체의 무게를 느끼는 것,
그것이 전전두엽 리터러시의 완성입니다."
참고문헌
- O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.
- Rose, T. (2016). The End of Average: How We Succeed in a World That Values Sameness. HarperOne.
- D'Ignazio, C., & Klein, L. F. (2020). Data Feminism. MIT Press.
- Gigerenzer, G. (2022). How to Stay Smart in a Smart World: Why Human Intelligence Still Beats Algorithms. MIT Press.
