2023 법무사 5월호

기결정권을 비롯하여 표현의 자유, 프라이버시권, 평 등권, 생명권, 안전권 등 거의 모든 인권목록이 문제된 다.4 챗GPT와 같은 인공지능 기술이 막대한 전력을 소모하여 기후환경을 파괴한다는 지적도 있다. 인공지 능 기술에 잠재한 위험성을 고려한다면 이러한 사후규 제 방식은 적절한 규제수단이 아니다. 더욱이 사후규제 는 단기적으로 신기술의 시장 진출을 용이하게 할 수 는 있으나, 규제에 대한 예측 가능성이 없어 산업육성 에 반드시 유리한 것도 아니다.5 나. 고위험영역 인공지능의 정의와 분류 문제 이번 법안에서는 “사람의 생명, 신체의 안전 및 기 본권의 보호에 중대한 영향을 미칠 우려가 있는 영역 에서 활용되는 인공지능”을 고위험영역 인공지능으로 정의한다. 고위험 외에 다른 분류 규정은 없다. 이는 국 제적 표준으로 인식되는 유럽연합의 「인공지능법(AI Act)」(안)의 세밀한 규제방식과 비교된다. 유럽연합의 법안은 인공지능의 위험을 ▵허용할 수 없는 위험, ▵고위험, ▵저위험, ▵최소위험으로 구 분하고, 각각의 위험도에 따라 차등적 의무를 부과한 다. 특히 허용할 수 없는 위험에는 정신적 또는 신체적 손상을 초래하는 중대한 행동 왜곡을 야기하기 위해 잠재의식 기술(subliminal techniques)을 사용하는 인 공지능시스템이나 공공장소에서 이용되는 실시간 원격 생체인식시스템 등이 포함되며, 이는 엄격히 금지된다. 우리 법안은 에너지, 먹는 물, 보건의료 등을 고위 험영역으로 열거하면서, 특히 생체정보의 분석·활용의 경우 범죄 수사나 체포업무라는 일부 업무에 한정하여 고위험영역으로 분류하고 있어, 이를 금지하는 유럽연 합의 입법 태도와 대조를 이룬다. 우리 법안은 금지되 는 인공지능 시스템에 관한 규정 자체가 없다. 또, 유럽연합의 법안은 허용할 수 없는 위험이나 고위험 인공지능시스템이 제재 사항을 준수하지 않을 경우, 3천만 유로 내지 직전 회계연도의 전 세계 연간 총매출액의 6% 중 높은 금액을 과태료로 부과토록 하 고 있다. 반면, 우리 법안에서는 고위험영역 인공지능에 대 한 사업자의 이용자에 대한 사전고지 의무, 사업자의 신뢰성 확보 조치와 그에 대한 준수 ‘권고’만을 규정하 여, 고위험을 완화하거나 방지할 수 있는 실효적 장치 를 찾아볼 수 없다. 다. 인공지능 정책의 거버넌스 문제 이번 법안은 인공지능에 관한 폭넓은 정책 권한 을 과기부에 부여하고 있다. 인공지능 기본계획 수립, 인공지능위원회 간사위원 참여, 학습용 데이터 관련 시책 수립, 전문인력 확보, 인공지능 윤리원칙 및 그 실 천방안 권고, 고위험영역 인공지능의 확인 등이 과기부 의 권한에 포함된다. 그러나 이 영역 중 상당 부분은 공정거래위, 고용 노동부, 국가인권위, 개인정보보호위원회, 방송통신위 원회, 산업통상자원부, 행정안전부, 각 지자체 등의 업 무와 중첩된다. 산업진흥에 본연의 가치를 두고 있는 과기부가 개인정보보호, 소비자보호, 인권보장, 차별금 지, 제품안전 등 광범위한 영역의 가치를 두루 고려하 면서 윤리원칙 등을 마련할 수 있을지 의문이다. 04 향후 과제 이상의 쟁점과 문제점들을 종합할 때, 인공지능 법안은 전면 재검토되어야 한다. 우선, AI 기술·제품·서비스의 잠재적 위험성을 예방·완화할 수 있는 규제방식을 채택해야 한다. 이와 관련하여 국제기구와 세계 각국은 인공지능 에 대한 영향평가제도를 도입하고 있다. 특히 인공지능 인권영향평가(인권실사의 핵심도구)는 인공지능 기술 의 잠재적·현실적 위험성을 예방·완화하기 위한 제도 적 대안으로 주목받고 있다. 이번 법안이 추상적으로 선언하는 ‘우선허용·사후규제’ 원칙은 영향평가제도의 도입을 봉쇄하는 독소조항으로 지목되고 있다. 둘째, 인공지능 사용영역의 위험도·심각도에 대 한 사회적 합의와 이에 기초한 입법이 필요하다. 42

RkJQdWJsaXNoZXIy ODExNjY=