2023 법무사 5월호

유럽연합이 제시한 금지/고위험/제한적/최소의 위험도 구분을 기준으로 할 때, 먼저 우리 사회에서 금 지되어야 할 인공지능 활용영역을 규범적으로 확인해 야 한다. 유럽연합의 법안처럼 잠재의식 기술을 활용 한 광고행위는 헌법적 관점에서 금지되어야 한다. 고위험영역에 대해서는 광범위한 사회적 합의가 요구된다. 예를 들어, 앞서 언급한 공공장소 원격 실시 간 생체 인식(얼굴인식)의 위험도를 어떻게 분류할 것 인지, 입학시험, 성적평가, 노동자 모니터링, 플랫폼 노 동 등에 활용되는 인공지능의 위험도를 어떻게 평가할 것인지 등 다양한 이슈는 사회적 합의가 필요하며 입 법은 이를 반영해야 한다. 셋째, 인공지능 규제와 정책을 주도할 독립적인 기관 설치를 고려해야 한다. 지금 법안과 같이 과기부가 인공지능 정책을 주도 한다면, 인공지능 정책은 균형을 잃고 산업편향에 빠 질 것이다. 세계적 입법 경향에 부합하는 인공지능 거 버넌스를 구축하기에 과기부는 좁은 틀이다. 2022년 5월 국가인권위원회는 「인공지능 개발과 활용에 관한 인권 가이드라인」을 발표하면서 “인공지 능을 독립적이고 효과적으로 감독할 수 있는 체계 수 립”을 권고한 바 있다. 05 나오며 – 인공지능 위험성 검증 장치 마련돼야 인공지능의 위험성에 대한 입법적 대응은 신약에 대한 검증 통제에서 배울 필요가 있다. ‘우선’ 공개하고, 사후 규제하기에 인공지능은 인간 정신의 깊숙한 영역 까지 조정할 수 있는 침습적 기술이기도 하다. 장단기적 안전성을 검증하기 위한 장치가 마련되어야 한다. 2020년 유엔사무총장은 인공지능 사용에 대한 책임성 보장을 위한 적절한 법률체계와 감독체계 수립, 피해구제 수단의 마련, 2021년 유엔인권최고대표는 인 공지능 사용의 부정적 인권영향을 방지·완화하는 인권 실사(HRDD)와 규제체계의 도입을 권고한 바 있다. 우 리나라에서도 국가인권위원회, 개인정보보호위, 금융 위, 방통위가 관련 가이드라인이나 규제방안을 제시한 바 있다. 하지만 국회 과방위와 과기부가 주도하고 있는 인 공지능법안은 이러한 국내외의 입법 경향과 동떨어진 내용을 담고 있다. 이대로 입법이 된다면 국내 인공지 능 산업은 갈라파고스화되고, 시민들은 보호장치 없 이 인공지능의 위험성에 그대로 노출될 것이다. 이번 인공지능법안은 전면적으로 재검토되어야 한다. 4) 자 율주행차의 보행자 사망 사고, 경비 로봇의 유아 공격, 인공지능 스피커의 오주문, 챗봇 이루다의 혐오 발언, 법무부 출입국 인공지능 식별추적 시스템의 얼굴정보 무단 이용, 그리고 챗GPT의 개인정보 및 보안 이슈 등 인공지능의 위험성은 최근까지도 많이 보고되고 있다. 5) 정관선, 박균성, 위의 논문, 208쪽. 인공지능은 인간 정신의 깊숙한 영역까지 조정할 수 있는 침습적 기술이다. AI기술에 대한 ‘사전허용, 사후규제’의 독소조항을 담고 있는 인공지능법안이 이대로 입법된다면 국내 AI산업은 갈라파고스화되고, 시민들은 보호장치 없이 인공지능의 위험성에 그대로 노출될 것이다. ┃ 법무사 시시각각 이슈와 쟁점 43 2023. 05 vol.671

RkJQdWJsaXNoZXIy ODExNjY=