물론 ‘2021 한국의 사회지표’는 이태원 참사가 발 생하기 전의 조사라서 그대로 적용하기는 어려우나, 이 태원 참사가 그동안 시민들의 경찰 능력에 대한 신뢰 도가 그리 높지 않았다는 점이 그대로 반영된 사건이 라는 점을 부인하기 어렵다. 그럼에도 불구하고 법원에 대한 신뢰도는 경찰보 다 낮은 것으로 나타났다. 물론 법원과 검찰, 경찰 중에 서 신뢰도 꼴찌는 누구나 예상하듯이 검찰(50.1%)이었 다. 꼴찌는 면했더라도 이런 상황에서 법원이 ‘정의의 최후의 보루’라는 말은 참으로 민망한 말이 아닌가. 이게 우리나라만의 특유한 현상일까? 그런 것 같 지는 않다. 북유럽의 AI 판사도입, 당사자만족도높아 2019년, 북유럽의에스토니아는재판에 AI를도입 했다. AI가 판사 역할을 하는 것이다. 그런데 그 결과는 놀라웠다. 재판을받는사람들의절대다수가이결과에 만족한다는 사실이다. 판사가 인간이라면 인간이 가진 고유한 편견이나 고의나 과실, 피로 등으로 잘못된 결 론을 이끌어낼 수 있지만, AI는 인간의 이러한 결함에 지배당하지않을것이라는게이믿음의배경이다. 실제 지난 2021년 한국법경제학회가 발표한 자료 에 따르면, 판사 한 명이 사건 심리에 투입하는 시간이 소액 사건의 경우 30분에 불과한 것으로 나타났다. 단 독 사건의 심리 시간은 3시간 20분, 합의부 사건은 7시 간으로 나타났다. 2015년 10월 발표된 「바람직한 법관상의 정립과 실천방안 연구」라는 보고서에 따르면, 판사의 54.7%가 근무 중 느끼는 가장 큰 어려움으로 과중한 업무를 꼽 았다. 이에 부응하여 작년 12월 법무부는 5년간 판사 정원 370명, 검사 정원 220명을 단계적으로 늘리기로 했다고 밝혔다. 이에 더하여 법원행정처는 소액 사건에 판결 이 유를 적지 않도록 한 법령을 개정해 판결 이유를 적는 방향으로 추진할 것이라고 밝혔다. 그러나 판사 증원 을 한다고 해서 그동안 시민들이 겪은 고충이 당장 해 결된다는 보장은 없을 것이다. 처음에 소개한 사례로 돌아와서, 증거가 차고 넘 치는데도 불구하고 그 의뢰인은 왜 1심에서 패소했겠 는가? 업무 과중? 편견? 오해? 과실? 아마도 시민들은 이들 중 한 가지가 그 원인이라고 지적할 것이다. 업무 과중이나 편견, 오해에서 비롯된 것이라면 AI가 그 대 안이 될 수 있을 것이다. AI 판사의오류? 위원회구성해조정가능 편견의측면에서는다소엇갈린견해가나온다. 일 례로 아마존은 AI를 도입해 신입직원 선발 업무를 맡겼 다. 그런데 이 AI가 여성 대학이나 심지어 스포츠팀 이 름에 여성적인 뉘앙스가 풍기면 이 지원자를 탈락시켰 다고 한다. 이른바 머신러닝을 통해 과거의 사례를 학습 한 AI가 그동안 압도적으로 남성을 많이 채용해 온 관 례를그대로따름으로써이상한결과가나타난것이다. AI가 모든 것의 대안이 될 수는 없다. AI는 과거 사례를 학습해 한 치의 어김도 없이 동일 내지 유사 사 안에서는 종전 결정을 적용하므로 시대의 변화를 반 영하지 못한다. AI가 도입되기 위한 전제조건은 과거의 결정이 언제나 옳았다는 것이 국민적 합의에 의해 승 인되어야 하는데, 과연 이것이 가능할 것인가? 그렇다면 대안은 없는가? 왜 없겠는가. AI가 내린 결정을 여러 명으로 구성된 위원회가 승인하는 방안 이 그것이다. 즉, AI와 인간이 결합해 최적의 결과물을 산출하는 것이다. 흔히 종전 견해를 변경해야 할 필요가 있는 경우 에는 대법원 전원합의체에서 다수의 의사에 따라 종 전 결정을 변경할 수 있듯이, AI가 종전의 잘못된 결정 을 유지한다면 위원회가 얼마든지 이를 현실 상황에 맞게끔 조정할 수 있는 것이다. 기술의 발전을 언제까지나 거부하는 것은 야만적 이지만, 기술을 맹신하는 것도 바람직하지 않기는 마찬 가지이다. 79 2023. 07 vol.673 ┃ 슬기로운문화생활 문화路 쉼표
RkJQdWJsaXNoZXIy ODExNjY=