는 것도 쉬운 일은 아니다. 살펴본 것처럼 민사법상의 손 해배상인 과실책임이나 무과실책임 법리로 인공지능에 의해 발생한 손해를 배상한다는 것은 어렵다는 것이다. 4. 맺으며 – 보험제도 활용이 현재로서는 가장 합리적 인공지능에 의한 불법행위 손해배상 책임에 대한 법 적 규제가 명확하게 이루어진다면 다양한 문제가 해결될 것이다. 그러나 인공지능의 행위는 다양한 주체와 시스템 의 상호작용에 의해 결정되어, 이로 인한 책임 규정이 어 렵고 여러 주체 간의 책임 분담 문제가 발생한다. 외국의 입법 사례를 통해 살펴본 것처럼 인공지능 으로 인한 손해에 대한 보상과 불법행위 규제에 대한 논 의는 현실적으로 부족하며, 기존 사법 틀에서 해결하기 어려운 문제가 존재한다. 인공지능으로 인한 손해는 예측 불가능하고, 증명 이 어려운 특성을 가지고 있어 이에 대한 공평하고 타당 한 보상을 위해서는 보험제도의 활용이 현재로서는 가 장 합리적인 손해의 분배 방법이라고 생각한다. 자동차 보험제도와 같은 일반화된 제도를 활용하 여 적절한 책임 분배와 손해 보상이 이루어질 수 있을 것이라고 생각한다. 나. 손해배상 현재 인공지능의 발전으로 인해 불법행위 발생 가 능성이 높아지고 있으나, 해당 행위에 대한 책임을 부과 하는 것은 어려운 상황이다. 인공지능은 의도나 의식을 갖지 않아 직접적인 의도나 책임 부여가 어렵다. 소프트 웨어와 데이터에 기반한 알고리즘으로 작동하며, 불법 행위 시 주로 개발자나 운영자에게 계약책임, 일반불법 행위, 사용자 책임, 제조물책임 등을 물을 수 있다. 그러나 계약책임의 경우 인공지능을 운영자의 대 리인으로 보고 계약책임을 부과하려고 하나,8 운영자 와 인공지능 사이에는 수권행위라는 것이 존재하지 않 으므로 대리제도를 기반으로 한 계약책임의 성립은 불 가능하다. 일반불법행위 책임의 경우 알고리즘과 데이터의 복 잡성으로 행위를 완전히 예측하거나 제어하기 어려워 불법행위는 예측할 수 없는 행동으로 나타날 수 있으며, 이에 대한 책임 부담이 개발자나 운영자에게 부과되면 기술 발전이 제약받고, 손해의 인과관계 증명도 어려워 질 수 있다.9 사용자 책임을 운영자에게 묻기 위해서는 사용자 와 피용자 사이에 실질적인 지휘·감독관계가 필요한데, 스스로 학습·판단하는 지능형 인공지능을 피용자로 보 기 어려울 뿐 아니라, 이용자의 구체적이고 직접적인 조 작이 필요 없는 지능형 인공지능에 대해 사용관계를 인 정하기도 어렵다.10 또, 인공지능의 오작동으로 발생한 손해에 대한 제조물 책임의 적용도 검토가 필요하다.11 그러나 제조물 책임을 인정하기 위해서는 제조물의 결함과 피해자의 손해 발생, 결함과 손해 사이의 인과관 계가 입증되어야 한다. 제조물 책임에서의 ‘제조물’이란 정해진 설계에 따라서 제조되고 정해진 방식대로 운영 되는 것을 말하는데, 인공지능이라는 것은 고도의 기술 과 복잡한 공정에 의해서 만들어지고 이후 지속적인 학 습을 통해 진화하는 것이므로. ‘결함’을 밝히기가 어렵 고, 또, 이러한 고도의 알고리즘에 의해 운영되는 인공지 능의 오류나 오작동을 입증하기도 어렵다. 이러한 이유로 인공지능에 제조물 책임을 부과하 WRITER 장석천 충북대학교 법률전문대학원 교수 5 자세한 내용은 동북아법연구소(송문호외 6인), 『가상재화와 인공지 능에 관한 법이론』, 아레떼, 2023, pp.222~248. 6 동북아법연구소(송문호 외 6인), 전게서, pp.248~255; 박소영, 「인공 지능의 FATE(공정성·책임성·투명성·윤리의식)를 위한 입법 논의 동 향과 시사점」, 이슈와 논점, 국회입법조사처, 2023, 제2111호. 7 동북아법연구소(송문호 외 6인), 전게서, pp.255~263. 8 이근영, 「인공지능(AI) 시대와 글로벌 한국학의 전망」(2023 가을철 세명대 인문사회과학연구소 공동학술대회), 세명대학교 인문사회과 학연구소, 2023, 121면. 9 오병철, 전게논문, p.181. 10 정진명, 전게논문, p.145; 오병철, 전게논문, p.199. 11 정진명, 전게논문, pp. 151-153. 43 2024. 03. March Vol. 681
RkJQdWJsaXNoZXIy ODExNjY=