인공지능, 빅데이터 등 알고리즘 기반 기술 및 서비스가 사회 및 경제적으로 확산됨에 따라 이용자 행태 또한 빠르게 변화하고 있다. 구글, 페이스북, 아마존 등 대표적인 IT 기업뿐만 아니라 각기 다른 영역의 중소기업 및 개인사업에서도 이러한 지능정보기술 및 서비스를 이용 및 제공하고 있기 때문에 사회에 미치는 파급력 또한 크다. 또한 국내에서도 데이터 3법의 통과로 개인정보보호법, 신용정보법, 정보통신망법상의 데이터 활용제한이 완화됨에 따라 프로파일링과 알고리즘 기반의 추천시스템(의사결정 시스템)은 규모가 확돼될 것으로 예측된다.

이러한 변화에 맞춰 지능정보기술 및 서비스 이용자 행태에 대한 조사방법론의 변화가 필요하다. 개인의 선호와 성향을 예측하는 기법을 통해 인간의 행위를 유도하는 추천 시스템들은 편향, 불공정 문제를 수반하며, 이는 곧 정보편식, 에코챔버와 같은 현상들을 발생시키며 사회 전반에서 다양한 사회문제를 발생시킬 수 있다.

DCRC에서는 정보통신정책연구원(KISDI)과 함께 알고리즘에 의한 의사결정과 이로 인해 발생하는 이용자 피해에 관련된 쟁점 및 국내외 사례들을 검토하여 지능정보사회에서 알고리즘을 적용한 서비스가 이용자의 의사결정과 사회 전반에 미치는 영향으로부터 이용자를 보호하기 위한 추천시스템의 편향 보정 및 공정성 보장방안 연구를 진행하고 있다.

알고리즘을 활용하는 대표적인 서비스인 추천시스템 사례를 대상으로 기계학습의 공정성에 대한 모형을 구축하고 알고리즘 편향에 따라 발생하는 사회의 불공정 문제를 해소하고자 하는 방안을 마련하는 것을 주요 목표로 연구를 진행하고 있다.

먼저 기존에 존재하는 추천 시스템의 알고리즘 공정성(Fairness)을 분류하고 접근방식에 대한 조사를 통해 지속적으로 제기되고 있는 추천 알고리즘의 편향 및 차별 문제를 보다 정확히 파악하여 이에 맞는 합리적인 연구방법을 선택 및 제시하고자 한다. 또한, 알고리즘의 기술적인 부분에서 발생하는 문제에 대하여 사전조사를 기반으로 설계한 컴퓨터 과학적 시뮬레이션 연구 및 데이터 분석을 통하여 구체화하고자 한다.

더불어 사회적, 기술적 측면에서의 관련 전문가들을 대상으로 부작용의 사례 및 개선을 바탕으로 하는 전문가 조사를 진행하여 해소방안을 모색하고 가이드라인을 제시하고자 한다. 궁극적으로 추천 시스템의 알고리즘에 대한 공정성 문제에 대한 심도있는 조사를 통하여 사회 전반에 걸쳐 영향을 미치고 있는 알고리즘 편향에 대하여 문제를 제기하고, 시스템적, 법적, 윤리적, 기술적 차원에서 오류, 즉 편향성을 파악할 수 있는 측정도구를 개발하는 등 알고리즘 공정성 문제에 기여하고자 한다.