29 2026. 4. April Vol. 706 의 기술을 이용한 거대 데이터 분석을 기반으로 스스 로의 학습을 통한 분류와 예측, 더 나아가 결과물까지 스스로 생성(또는 의사결정)하는 특징을 가진다. 이를 위해서는 ‘빅 데이터’로 불리는 거대한 학습데 이터가 필요하다는 점, 그리고 인간의 신경망과 유사 한 인공신경망을 통한 학습기술인 딥러닝 기술이 접 목된다는 점도 특징이다. 이러한 특징을 기준으로 인간의 사고와 얼마 나 유사한 수준인가에 따라 ‘약인공지능’(좁은 인 공지능, 제한적 인공지능, Narrow AI, Weak AI, ANI), ‘강인공지능’(일반 인공지능, 범용 인공지 능, General AI, Strong AI, AGI), 그리고 ‘초인공지 능’(Superintelligent AI, ASI)으로 분류되기도 한다. 우리의 「인공지능 발전과 신뢰 기반 조성 등에 관 한 기본법」(이하 ‘「인공지능 기본법」’)은 인공지능을 학습, 추론, 지각, 판단, 언어 이해 등 인간의 지적 능 력을 전자적 방식으로 구현한 것으로 정의하고 있다. 한편, EU의 「AI Act」는 인공지능 시스템을 “다양 한 수준의 자율성을 가지고 작동하도록 설계된 기계 기반 시스템으로서 배포 이후에도 적응력을 발휘할 수 있으며, 명시적 또는 묵시적 목표에 따라 수신한 입력으로부터 물리환경 또는 가상환경에 영향을 미 치는 예측, 콘텐츠, 추천, 결정 등의 산출물을 생성하 는 방법을 추론하는 시스템”으로 정의한다. 즉, 인공지능은 학습데이터의 입력-알고리즘을 통 한 스스로의 학습-과 그 학습을 바탕으로 한 자율적 인 결과(결정, 콘텐츠 등)의 도출이라는 과정을 통해 인간의 사고와 유사한 방식으로 스스로 결론(결과물) 을 도출해내는 기술로 정의할 수 있고, 이 과정에서 학습데이터와 알고리즘은 핵심적인 요소라고 할 수 있다. 가. 인공지능의 편향성 사례 인공지능이 인간과 유사한 사고체계와 지적능력 을 갖추었다고 해도 그것은 인간이 아닌 기계다. 우리 는 지금까지 기계는 가치중립적일 것이란 믿음을 가 져왔고, 인공지능이 기계인 이상 감정, 편견, 허기짐 과 같은 사소한 변수에 영향을 받는 인간보다 더 공 정하고, 편향적이지 않을 것이라는 기대가 있었다. 인 공지능 면접의 도입, 인공지능 판사 도입 논의 등이 이러한 사고에 기반한다고 할 수 있겠다. 하지만 인공지능이 개발되어 사용된 결과를 보면, 실제로는 인공지능의 편향성으로 인한 평등, 차별, 혐 오 문제가 인공지능의 부작용 중 많은 부분을 차지하 고 있음을 경험할 수 있다. 예를 들어서 인공지능 비 서의 경우, 비서의 성별(이름과 음성 등)을 여성으로 하는 경우와 관련하여 우리 사회의 성역할 문제, 젠더 편향을 강화시킨다는 비판이 있었다. 성별과 고용 차별의 대표적인 예로는 아마존의 직 원 선발을 위한 인공지능 개발 사례를 들 수 있다. 아 마존은 입사지원자들을 평가·선별하기 위해 알고리 즘을 개발했으나 인공지능이 남성 지원자를 더 선호 하는 결과로 나타났다. ‘여성’이 언급된 이력서나 여 성으로 유추되는 이력서를 저평가하고 남성지원자를 우대한 것이다. 아마존은 결국 이 인공지능 개발을 포 기했다. 또, 인종이나 피부색과 관련한 차별 사례도 있다. 미국의 노스포인트사가 개발한 범죄예측 프로그램 ‘COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)’은 피고인의 범 죄 참여, 생활방식, 가족환경, 성격과 태도 등을 데이 터화하여 재범 위험성을 예측하고, 이를 바탕으로 판 사에게 구속 여부나 형량을 추천하는 인공지능 알고 리즘이다. 이 알고리즘은 미국 여러 주 법원에서 실제로 활용 되고 있는데, 탐사보도 전문 매체인 『프로퍼블리카 이슈와 쟁점 법무사 시시각각 03 인공지능의 편향성 사례와 원인
RkJQdWJsaXNoZXIy ODExNjY=