2026 법무사 4월호

31 2026. 4. April Vol. 706 이 기존의 비율과 유사한 결론을 제시한 것이라면, 이 를 인공지능의 잘못이라고 볼 수 있을까. COMPAS의 경우도 마찬가지다. 그동안 백인보다 흑인의 범죄율과 재범률이 높았다는 데이터를 인공 지능이 그대로 학습한 것이라고 가정한다면, 인공지 능이 흑인의 재범위험을 더 높게 평가한 것은 그동 안의 자료를 바탕으로 한 합리적인 결론이라고 볼 수 있지 않을까. 인공지능의 편향은 학습데이터나 알고리즘 편향에 서 비롯되므로 학습데이터 라벨링부터 알고리즘 설 계에까지 편향성이 없도록 고려해야 한다. 하지만 무 엇이 공정한지, 어느 정도면 편향적이지 않은지, 공정 하기 위해서 어느 정도의 규범적 강제가 동원되어야 하는지는 쉽지 않은 문제다. 인공지능의 결과가 편향적이라고 해서 인공지능 이 편향적이라고 보기보다는 우리 사회의 다양한 가 치(데이터화된)를 학습하고 이를 반영한 결과라고 할 수 있기 때문에, 인간의 윤리, 규범, 가치, 도덕성을 인간과 같이 학습할 수 없다면 학습데이터와 알고리 즘 조정을 통하여 편향성을 줄여나가는 방법밖에 없 을 것이다. 따라서 인공지능 학습데이터의 선별·조작·가공을 통해 최대한 가치중립적으로(불평등이 발생하지 않 도록) 라벨링하는 학습데이터 거버넌스가 논의된다. 또한, 인공지능 알고리즘의 투명성, 설명 가능성, 설명 의무 등이 알고리즘의 편향성을 줄이기 위한 해 법으로 논의되고 있지만, 이러한 설명 의무가 실제로 실현되기 어려워 편향성을 발견하기 어렵고, 블랙박 스 현상으로 인해 알고리즘 자체를 이해하기도 어려 우며, 알고리즘을 인위적으로 조정하면서 새로운 공 정성 문제가 야기될 위험도 있다. EU는 「AI Act」, 미국은 「2022 알고리즘 책임법 (Algorithmic Accountability Act of 2022)」 등에 서 이러한 해법을 규범화하고 있다. 우리나라도 「인 공지능 기본법」을 제정하여 세계 최초로 시행은 하 고 있으나 이러한 내용을 구체적으로 규정하고 있지 는 않다. 인공지능의 편향성, 불공정성으로 인한 불평등, 차 별 문제는 인공지능을 사용하면 할수록 더 빈번하게 발생할 수 있는 문제이지만, 인공지능이 우리 사회의 편향성을 그대로 반영하는 경우가 많기 때문에 이 문 제의 해결은 쉽지 않다. 인공지능의 공정성을 심사하고 규제하기 위해서는 이에 앞서 공정성에 대한 개념 설정과 공정성을 심사 할 수 있는 기준, 심사 척도를 마련하는 것이 전제되 어야 한다. 하지만 무엇이 공정한지, 공정성을 위한 심사 기준을 어떻게 설정할지에 대해서는 아직 논의 가 부족한 것이 사실이다. 인공지능은 아직 발전단계이기 때문에 우리 사회 의 편향성이 인공지능에 의해 고착화되고 더 강화되 기 전에 이러한 문제의 심각성을 인지하고, 이에 대한 논의가 확대되어 사회적 합의가 도출될 수 있도록 대 응하는 것이 필요하다고 할 것이다. 이슈와 쟁점 법무사 시시각각 04 나가며 - 인공지능의 규율 방향 인공지능의 결과가 편향적이라고 해서 인 공지능이 편향적이라고 보기보다는 우리 사 회의 다양한 가치(데이터화된)를 학습하고 이 를 반영한 결과라고 할 수 있다. 인공지능이 인간의 윤리, 규범, 가치, 도덕성 을 인간과 같이 학습할 수 없다면, 학습데이터 와 알고리즘 조정을 통해 편향성을 줄여나가 는 방법밖에 없을 것이다.

RkJQdWJsaXNoZXIy ODExNjY=