자동화 결과물이 드러내는 편향에 대한 대응방안으로서 저널리즘의 역할에 대한 탐색적 연구
한국언론학보 | 한국언론학회 | 46 pages| 2020.09.21| 파일형태 :
조회 158 다운로드 0
자료요약
이 글은 인공지능 등 기술에 따른 자동화의 결과물들에서 발견되는 편향의 사례들을 제시한 후 이러한 문제들을 극복하기 위해 논의되고 있는 방안들에 대해 검토한다. 이론적, 법률적, 제도적, 사회적, 기술적 대응 방안들이 제시되고 있지만, 데이터가 갖고 있는 한계, 측정 개념의 모호함 등으로 인해 근본적 해결 방안이 되지는 못하고 있음을 밝힌다. 새로운 방안으로 저널리즘에 주목하여, 만드는 사람도 이해 못하는 기술의 최종 결과물들을 공동체의 관점에서 검토할 필요성이 있으며, 이를 위해서는 그 결과가 정당한지 끊임없이 질문하고 비판적으로 분석해야 함을 주장한다. 인공지능 기술이 수단이 아닌 권력이 되지 않도록 하기 위해서는 저널리즘이 기술의 결과물들에 대해 사회적 상식 기준에서 공정한지에 대해 묻고 그 공정함이 구현될 수 있도록 감시하고 비판하는 역할을 수행할 필요가 있다.
 
This article presents biases produced by artificial intelligence (AI) technology and examines available options to overcome these problems. Although theoretical, legal, institutional, social, and technical remedies have been proposed, these methods fall short of solving the issues because of the limitations of data and the ambiguity of the concept being measured. This study suggests journalism as a method to address problems caused by automation technologies. In the interest of society, there is a need to examine the consequences of automation technology that even the developers may not understand and we must constantly question and critically evaluate whether the results are fair. In order to prevent AI technology from becoming a power rather than a means, the media must keep on monitoring and critically assess the results of automation technologies according to social standards for fairness to be realized.
목차
1. 서론
2. 자동화 결과물이 드러내는 편향의 사례들
3. 자동화 결과물의 편향에 대한 대응 사례들
4. 논의 : 대응방안으로서 저널리즘의 역할
5. 결론
참고문헌
Abstract
#인공지능 #저널리즘 #편향 #데이터 #공정성 #투명성 #질문 #감시 #Artificial Intelligence #Journalism #Bias #Data #Fairness #Transparency #Questions #Watch Dog
저작권 안내 및 사용범위와 규정
  • 위 정보 및 게시물 내용의 불법적 이용, 무단 전재, 배포는 법적으로 "금지되어" 있습니다.
  • 저작권 침해, 명예훼손 등 분쟁요소 발견시 하단의 “고객센터”를 이용해주세요.
  • 기타는 저작물의 등록자가 정하는 사용 범위와 규정에 준합니다.
  • 위 자료는 한국언론학회 가 저작권을 관리하고 있습니다.
자료 제공처