결론부터: AI가 범인으로 지목했고, 경찰은 의심하지 않았어요
AI 안면인식으로 무고한 여성이 체포된 테네시 사건의 핵심은 단순합니다. Clearview AI 시스템이 테네시주 거주 여성 Angela Lipps(50세)를 노스다코타 은행 사기 용의자로 잘못 식별했고, Fargo 경찰은 별도 검증 없이 그대로 체포영장을 발부했습니다. Lipps는 2025년 5개월 이상 구금됐다가 사건 당시 테네시에 있었다는 은행 기록이 확인된 후에야 석방됐어요. 경찰은 실수를 인정했지만 공식 사과는 없었습니다.
이 글에서 다룰 내용: ① 사건 전체 경위와 Clearview AI의 역할 ② 경찰 안면인식 오류율 실태와 통계 ③ 이 기술이 왜 지금도 위험한지

Angela Lipps, 한 번도 간 적 없는 주에서 범죄자가 됐어요

2025년, 테네시에 살던 Angela Lipps는 노스다코타주 파고(Fargo)에서 발생한 은행 사기 사건의 용의자로 지목됩니다. 그녀가 노스다코타를 방문했다는 기록은 어디에도 없었어요. 그런데도 체포영장이 발부됐고, 그녀는 5개월 이상 구금 상태로 지냈습니다.
Clearview AI는 어떻게 그녀를 지목했나요
Clearview AI는 수십억 장의 공개 이미지를 학습한 안면인식 시스템입니다. Fargo 경찰은 은행 CCTV 속 용의자 얼굴을 이 시스템에 입력했고, 시스템은 Lipps를 ‘가장 유사한 인물’로 반환했어요. 문제는 여기서 끝났어야 했다는 점입니다. Clearview AI 측도 공식 입장에서 “해당 기술은 수사 단서를 제공하는 도구일 뿐, 체포를 권고하지 않는다”며 “훈련된 법 집행 전문가의 독립적 검증이 반드시 필요하다”고 밝혔습니다. 그러나 Fargo 경찰은 추가 검증 없이 이 결과만으로 영장을 청구했어요.
Lipps의 결백을 증명한 건 첨단 기술이 아니었습니다. 사건 당일 그녀가 테네시 내 ATM을 사용했다는 평범한 은행 거래 기록이었어요. 이 기록은 체포 전에도 충분히 확인 가능한 정보였습니다.
경찰 AI 안면인식 오류율, 생각보다 훨씬 높아요

Lipps의 사건은 처음이 아닙니다. 미국에서 AI 안면인식 오류로 인한 잘못된 체포 사례는 꾸준히 보고되고 있어요.
흑인·여성·고령층에서 오류율이 집중돼요
MIT 미디어랩 연구에 따르면, 상용 안면인식 AI의 피부색이 어두운 여성 대상 오류율은 최대 34.7%에 달합니다. 반면 밝은 피부의 남성 대상 오류율은 0.8% 수준에 불과해요. 미국 국립표준기술연구소(NIST)가 2019년 발표한 대규모 평가에서도 아프리카계 및 아시아계 얼굴에 대한 오인식률이 백인 대비 10~100배 높게 나타났습니다.
실제 잘못된 체포 사례만 해도 2020년 디트로이트의 Robert Williams, 2021년 뉴저지의 Nijeer Parks, 그리고 이번 Lipps 사건까지 미국에서만 공식 확인된 건수가 6건 이상입니다. 확인되지 않은 사례까지 포함하면 훨씬 많을 것으로 전문가들은 추정하고 있어요. 이들 중 상당수는 유색인종이거나 여성이었습니다.
| 피해자 | 연도 | 구금 기간 | 오인식 시스템 | 결과 |
|---|---|---|---|---|
| Robert Williams | 2020 | 30시간 | 미시간주 경찰 자체 시스템 | 무혐의 |
| Nijeer Parks | 2021 | 10일 | 미상 상용 시스템 | 무혐의 |
| Angela Lipps | 2025 | 5개월+ | Clearview AI | 무혐의 |
왜 경찰은 검증을 생략했을까요

기술의 문제만큼이나 심각한 건 수사 절차의 공백입니다. 현재 미국 50개 주 중 AI 안면인식 수사 활용에 대한 명확한 규정을 가진 주는 일리노이·텍사스·캘리포니아 등 일부에 불과해요. 연방 차원의 규제 법안은 수년째 의회에서 계류 중입니다.
‘도구’를 ‘결론’으로 쓰는 관행이 문제예요
Clearview AI가 스스로 밝혔듯, 이 시스템은 수사의 시작점을 제공하는 도구입니다. 하지만 Fargo 경찰의 사례처럼 일선 수사관들이 AI 결과를 최종 판단으로 받아들이는 관행이 굳어지고 있어요. 미국 시민자유연합(ACLU)은 2023년 보고서에서 “안면인식 기술 사용 경찰서의 약 40%가 별도 인적 검증 절차를 두지 않는다”고 지적했습니다. 검증 없는 신뢰가 5개월의 구금을 만들어낸 셈이에요.
기술별 안면인식 오류 유형 비교
| 구분 | Clearview AI | 자체 개발 경찰 시스템 | FBI NGI 시스템 |
|---|---|---|---|
| 데이터베이스 규모 | 300억 장 이상 | 수백만 장 | 1억 5천만 장 이상 |
| 평균 오인식률 | 공개 미공시 | 시스템별 상이 | 0.1~15% (대상 인구에 따라) |
| 체포 권고 여부 | 하지 않음 | 시스템별 상이 | 하지 않음 |
| 인적 검증 규정 | 없음(권고만) | 기관별 상이 | 권고 있음 |

자주 묻는 질문
Clearview AI는 실제로 얼마나 정확한가요?
Clearview AI는 자사 정확도를 99% 이상이라고 주장하지만, 이는 통제된 환경 기준입니다. 실제 CCTV 이미지처럼 해상도가 낮거나 조명이 불량한 환경에서는 오류율이 크게 높아지며, 특히 여성·고령층·유색인종에서 오인식률이 집중적으로 나타납니다.
Angela Lipps는 경찰에 손해배상을 청구할 수 있나요?
미국에서는 경찰의 ‘선의의 면책(qualified immunity)’ 원칙 때문에 부당 체포 피해자가 손해배상을 받기 매우 어렵습니다. 다만 Lipps의 경우 5개월 이상 구금이라는 명백한 피해가 있어 민사소송 가능성이 법조계에서 거론되고 있어요.
이 사건이 남긴 세 가지 교훈
1. AI는 수사 도구이지 판사가 아닙니다. Clearview AI 스스로도 인정했듯, 안면인식 결과는 수사의 출발점일 뿐이에요. 체포영장 청구 전 인적 검증은 선택이 아니라 의무여야 합니다.
2. 오류율은 모든 사람에게 동등하지 않아요. MIT 연구 기준 최대 34.7%의 오류율은 특정 인구 집단에 집중됩니다. 규제 없이 이 기술을 사용하는 건 특정 집단을 구조적으로 위험에 노출시키는 일이에요.
3. 사과 없는 인정은 재발을 막지 못합니다. Fargo 경찰은 실수를 인정했지만 공식 사과를 하지 않았고, 절차 개선 계획도 발표하지 않았어요. Angela Lipps의 5개월은 누군가의 책임 없이는 그냥 사라진 시간이 됩니다.
AI 안면인식 기술의 도입 자체보다 이를 어떻게 규제하고 검증하느냐가 훨씬 중요한 질문입니다. Lipps 사건은 그 질문에 사회가 아직 제대로 답하지 못하고 있다는 걸 보여줘요.
#AI안면인식오류 #테네시여성체포 #ClearviewAI #경찰오류율 #안면인식규제


