공평해야 할 매칭 시스템이 불평등을 초래하는 이유는 무엇일까요? 이해의 차이가 결과의 차이로 이어진다

공평해야 할 매칭 시스템이 불평등을 초래하는 이유는 무엇일까요? 이해의 차이가 결과의 차이로 이어진다

"공정한 알고리즘"이 불공정을 초래할 때——격차는 코드 외부에서 발생했다

"알고리즘이 공정하면, 결과도 공정할 것이다."

AI와 자동화된 의사 결정 시스템이 사회에 확산되면서, 우리는 어딘가에서 그렇게 기대하고 있다. 인간의 주관과 편견을 제거하고, 규칙에 따라 기계적으로 판단하면, 채용, 진학, 배치, 승진과 같은 중요한 장면도 더 공정해질 것이다. 적어도, 사람이 뒤에서 임의로 결정하는 것보다 투명하고, 편향도 적을 것처럼 보인다.

그러나 새로운 연구는 그 전제에 찬물을 끼얹는다.

설령 매칭 시스템 자체가 공정하게 설계되어 있어도, 사용자가 그 구조를 충분히 이해하지 못하면, 결과적으로 불평등이 발생할 수 있다는 것이다. 문제는 알고리즘 내부에만 있는 것이 아니다. 오히려, 알고리즘을 사용하는 인간의 측면, 그리고 그 인간을 둘러싼 정보 환경의 측면에 있다.

이번에 주목받고 있는 것은, 미국의 의대생이 연수지를 결정하는 "레지던시 매치"라고 불리는 제도이다. 졸업을 앞둔 의대생과 연수 프로그램이 각각 희망 순위를 제출하고, 컴퓨터화된 매칭 시스템에 의해 조합이 결정된다. 미래의 의사에게 있어, 어디서 연수를 받느냐는 경력을 크게 좌우한다. 즉, 이는 단순한 진로 조정이 아니라, 인생의 분기점에 가깝다.

이 제도는 학생이 자신의 진정한 희망 순위에 프로그램을 배열하는 것이 최선이 되도록 설계되어 있다. 다시 말해, "이 인기 프로그램은 무리일 것 같으니 순위를 낮추자" "안전한 곳을 위에 두는 것이 합격하기 쉬울 것이다"와 같은 흥정을 할 필요가 없다. 오히려, 그러한 전략적인 순위 조작은 본인에게 바람직한 결과를 멀리할 가능성이 있다.

제도의 이념으로서는 매우 합리적이다. 솔직하게 희망을 내면 된다. 게임을 할 필요가 없다. 그렇다면, 누구에게나 공정할 것이다.

그러나 현실은 그렇게 단순하지 않았다.

연구자들은 1,700명 이상의 의대생을 대상으로 한 인센티브가 포함된 시뮬레이션 데이터와, 실제로 레지던시 매치를 경험하는 66명의 의대생에 대한 상세한 인터뷰를 분석했다. 그 결과, 시스템이 공정하게 설계되어 있어도, 학생의 이해도나 정보 수집 행동의 차이에 따라 최적이 아닌 선택이 발생할 수 있다는 것을 알게 되었다.

예를 들어, 일부 학생은 "사실은 A 병원에 가고 싶지만, A 병원은 경쟁률이 높을 것 같으니 B 병원을 상위에 적는 것이 매칭되기 쉬울 것 같다"고 생각한다. 이는 일견 신중한 판단으로 보인다. 그러나 이 종류의 매칭 제도에서는 자신의 진정한 희망 순위를 속임으로써, 오히려 자신에게 최선의 결과를 놓칠 가능성이 있다.

즉, 제도는 "솔직하게 선택하는 것"이 유리하도록 만들어져 있는데, 사용자가 그것을 이해하지 못하면, 제도를 올바르게 사용할 수 없다. 공정한 구조가 있어도, 거기에 접근하는 사람의 지식이나 자신감, 주변의 조언의 질이 다르면, 결과는 공정하지 않다.

이 연구에서 특히 주목된 것은, 남녀 간의 차이였다. 남성 의대생은 여성 의대생에 비해, 제도에 대해 추가 정보를 스스로 찾는 경향이 강했다. 공식 사이트를 확인하고, 설명 영상을 보고, 여러 정보원을 비교하고, 독자적으로 검색하는 등의 행동을 취한 학생일수록 매칭 알고리즘의 이해가 깊어지고, 최적의 전략을 취하기 쉬웠다.

반면에, 표준적인 제도 설명이나 대학 측의 일반적인 조언에만 의존한 학생은 구조를 오해하기 쉬웠다. 의대 측의 조언은 "진정한 희망 순위에 배열합시다" "직감을 따릅시다" "너무 생각하지 마세요"와 같은 것이 되기 쉬웠다고 한다. 이것들은 결코 틀린 것이 아니다. 오히려 제도의 원칙으로서는 올바르다.

그러나, 올바른 조언과 충분한 조언은 다르다.

"왜 진정한 희망 순위에 배열하는 것이 최선인가"
"인기 프로그램을 위에 적으면 불리해지는 것은 아닌가"
"안전 학교와 같은 생각은 이 제도에서도 통용되는가"
"순위를 바꿈으로써, 자신의 매칭률은 어떻게 변하는가"

이러한 의문에 답할 수 없다면, 학생은 불안에 기반하여 행동한다. 제도가 '흥정 불필요'로 설계되어 있어도, 사용자가 그렇게 믿지 못하면, 결국은 흥정을 하게 된다.

여기에, 알고리즘 공정성을 둘러싼 큰 맹점이 있다.

지금까지 "공정한 알고리즘"이라는 논의에서는, 주로 시스템의 내부가 문제시되어 왔다. 특정 속성을 차별하지 않는가. 과거의 편향된 데이터를 학습하지 않는가. 판단 기준이 불투명하지 않은가. 결과에 편향이 나오지 않는가. 물론, 이것들은 중요하다.

그러나 이번 연구가 보여주는 것은, 알고리즘 자체가 편향되어 있지 않아도, 불평등은 발생한다는 것이다. 차별적인 코드가 없어도, 편향된 결과는 발생할 수 있다. 왜냐하면, 사용자는 같은 출발선에 서 있지 않기 때문이다.

어떤 사람은, 추가 정보를 찾을 시간과 자신감이 있다. 어떤 사람은, 구조를 이해하기 위한 지원을 받을 수 있다. 어떤 사람은, 선배나 지도자로부터 구체적인 조언을 받을 수 있다. 어떤 사람은, 제도에 대한 의문을 입에 담는 것 자체에 망설임이 있다. 어떤 사람은, 애초에 "이것은 스스로 조사해야 할 일이다"라고 깨닫지 못한다.

이 차이는, 단순한 개인차가 아니다. 성별, 계층, 출신 학교, 가정 환경, 문화적 배경, 주변 네트워크에 의해 형성된다. 알고리즘은 모두에게 같은 규칙을 적용하고 있다고 생각하지만, 인간의 측면에 있는 정보 격차나 자신감의 격차를 자동적으로 메워주지는 않는다.

오히려, 제도가 복잡할수록, 이해하고 있는 사람이 유리해진다.

이 구조는, 의대생의 연수지 매칭에 국한되지 않는다. 학교 입시, 기업 채용, 사내 배치, 승진 심사, 인재 마켓플레이스, 공공 부문의 직무 할당, 장학금 선정, 주택 추첨, 보육원 입원, 군의 배치 등, 우리 사회에는 매칭이나 자동화된 의사 결정이 증가하고 있다. 거기에서는 종종 "시스템이 공정하게 처리하고 있으니 괜찮다"고 설명된다.

그러나, 사용자가 그 시스템을 어떻게 이해하고 있는지는, 의외로 경시되고 있다.

예를 들어, 기업의 사내 공모 제도를 생각해보자. 직원이 희망 부서를 순위 매기고, 시스템이 적성과 희망에 따라 배치를 결정한다고 하자. 제도상으로는 공정해도, "첫 번째 희망에 인기 부서를 적으면 불리해진다"고 오해하는 직원이 있다면, 처음부터 희망을 낮출지도 모른다. 한편, 제도를 잘 이해하고 있는 직원은, 거리낌 없이 진정한 희망을 낸다. 그 결과, 같은 규칙 아래에서, 이해하고 있는 사람일수록 유리해진다.

대학 입시나 학교 선택에서도 같은 일이 일어날 수 있다. 보호자나 학생이 선발 제도를 올바르게 이해하지 못하면, 안전책으로서 불리한 선택을 할 가능성이 있다. 정보를 가진 가정일수록 제도를 잘 활용하고, 정보를 가지지 않은 가정일수록 제도의 의도를 오해한다. 알고리즘의 공정성은, 가정의 정보 자본의 차이를 그대로 반영해버린다.

이 의미에서, 공정한 시스템이란, 단순히 "편향 없이 계산하는 시스템"으로는 불충분하다. 사용자가 올바르게 이해하고, 안심하고 사용할 수 있으며, 필요할 때 지원을 받을 수 있는 시스템이어야 한다.

연구자들은, 실천적인 대책으로서, 보다 명확한 설명, 반복해서 배울 수 있는 교재, 시뮬레이션, 인터랙티브한 연습, 여러 정보원에 접근하는 것에 대한 후원을 들고 있다. 중요한 것은, "진정한 희망 순위에 적으세요"라고 한 마디로 끝내는 것이 아니라, "왜 그것이 최적인가"를 이해할 수 있도록 하는 것이다.

이는, 사용자 교육의 문제이자, 제도 설계의 문제이기도 하다.

사용자가 오해하기 쉽다면, 그것은 사용자만의 책임이 아니다. 설명이 모호하고, 제도의 직관에 반하는 부분이 방치되어 있으며, 질문하기 어려운 분위기가 있고, 표준적인 조언이 추상적이라면, 제도의 구현에 문제가 있다. 공정성을 진지하게 실현하고 싶다면, 알고리즘의 설계 단계뿐만 아니라, 사용자와의 접점까지 설계해야 한다.

SNS상의 반응을 보면, 이 연구에 대한 주목은 아직 제한적이지만, 전문가 커뮤니티에서는 관심을 모으기 시작하고 있다. 논문 저자 중 한 명이 LinkedIn에 연구 내용을 소개한 게시물에는, 확인 시점에서 69개의 반응과 3개의 댓글이 있으며, 댓글란에서는 연구에 대한 축하나 "흥미로운 논문이다"라는 긍정적인 반응이 보였다. 화려한 논쟁이나 일반 사용자에 의한 대규모 논의보다는, 현 시점에서는 경영학, 의료 교육, 알고리즘 공정성에 관심을 가진 층 사이에서, 조용히 공유되고 있는 단계라고 할 수 있다.

한편, Phys.org의 기사 페이지에서는, 확인 시점에서 공유 수는 적고, 댓글도 거의 보이지 않았다. 이는 연구의 중요성이 낮다는 것보다는, 주제가 전문적이고, 일반 독자가 바로 자신의 일로 여기기 어렵기 때문일 것이다. 그러나, 이 연구가 제시하는 문제는, 사실 많은 사람의 생활에 직결되어 있다.

왜냐하면, 우리는 이미 "제도를 이해할 수 있는 사람일수록 이득을 보는 사회"에 살고 있기 때문이다.

세제, 장학금, 보험, 주택 대출, 포인트 제도, 취업 활동, 이직 사이트, 학교 선택, 행정 절차. 모두, 표면적으로는 규칙이 같아도, 이해도에 따라 결과가 달라진다. 거기에 알고리즘이 더해지면, 문제는 더욱 보이지 않게 된다. 인간 담당자라면 "설명이 부족하다"고 말하기 쉽지만, 시스템 상대라면 "그런 것이다"라고 받아들이기 쉽다.

그러나, 공정성이란, 사용자에게 자기 책임을 떠넘기는 것이 아니다.

"제대로 조사하지 않은 사람이 나쁘다"
"제도를 이해하지 못하는 사람이 나쁘다"
"스스로 질문하지 않는 사람이 나쁘다"

그렇게 잘라내는 것은 쉽다. 그러나, 제도가 사회적으로 중요하다면, 사용자의 이해를 지원하는 책임은 운영 측에도 있다. 특히, 그 제도가 인생의 진로, 직업, 수입, 교육 기회에 관련된다면, 설명의 부족은 단순한 불친절이 아니라, 불평등의 온상이 될 수 있다.

이번 연구가 던지는 질문은, AI 시대의 제도 설계에 있어 매우 무겁다.

공정한 알고리즘을 만드는 것만으로 만족해야 하는가.
사용자가 제도를 오해한 채 불리한 선택을 해도, 그것이 정말로 공정한가.
"올바른 정보는 공개하고 있다"는 것만으로, 충분한 설명 책임을 다했다고 할 수 있는가.
제도를 이해하기 위한 능력이나 자신감에 차이가 있을 때, 어디까지 지원해야 하는가.

앞으로의 사회에서는, 알고리즘의 투명성뿐만 아니라, "이해 가능성"이 더 중요해질 것이다. 투명한 설명이 있어도, 그것이 전문가에게만 이해된다면 의미가 없다. 사용자가 자신의 판단에 어떻게 영향을 미치는지를 이해할 수 있어야만, 투명성은 공정성으로 이어진다.

공정한 시스템을 만들기 위해서는, 코드를 작성하는 사람뿐만 아니라, 설명하는 사람, 교육하는 사람, 제도를 운영하는 사람, 사용자의 불안을 듣는 사람이 필요하다. 알고리즘 공정성은, 기술 부문만의 일이 아니다. 조직 전체의 커뮤니케이션 설계이며, 교육 설계이며, 신뢰 설계이다.

의대생의 레지던시 매치는, 어디까지나 하나의 사례에 불과하다. 그러나, 거기에서 보이는 교훈은 넓다.

공정한 규칙은, 공정한 이해에 의해 지지되어야만 공정하게 기능한다.
그리고, 불평등은 반드시 악의 있는 차별에서 발생하는 것은 아니다.
선의로 설계된 제도라도, 설명이 부족하고, 지원이 편향되고, 사용자의 이해에 차이가 있으면, 불공정한 결과를 낳는다.

AI나 알고리즘을 사회에 도입하는 시대에 필요한 것은, "기계라면 공정하다"는 소박한 신뢰가 아니다. 오히려, 기계가 공정해 보이기 때문에, 그 주변에 있는 인간의 이해, 행동, 정보 환경을 신중히 봐야 한다.

공정성은, 알고리즘 내부에만 존재하지 않는다.
그것은, 알고리즘을 사용하는 사람들 사이에 있다.


출처 URL

Phys.org에 의한 연구 소개 기사. "공정하게 설계된 매칭 시스템에서도, 사용자의 이해 차이에 의해 불평등한 결과가 발생할 수 있다"는 연구 내용을 보도하고 있다.
https://phys.org/news/2026-05-fair-unequal-outcomes.html

연구 논문의 게재 페이지. Samuel E. Skowronek 씨와 Joyce C. He 씨에 의한 논문 "Gendered Navigation of Advice and Suboptimal Behavior in Matching Algorithms: Evidence from the Residency Match"의 개요, 저자, 게재 정보, DOI를 확인했다.##HTML_TAG_114