공학윤리 레포트 빅데이터(AI)의 공정성
체리체리체인지
다운로드
장바구니
소개글
"공학윤리 레포트 빅데이터(AI)의 공정성"에 대한 내용입니다.목차
1.서론1) 주제 선택 배경
2) 빅데이터의 정의 및 AI와의 연관성
3) 빅데이터의 다양한 부작용
2.본론
1) 빅데이터 부작용 예시
2) 문제 원인 분석
3.결론
4.참고문헌
본문내용
0.주제 선택 배경지난 해에 미국 언론사 Vox의 유튜브 채널에서 ‘우리는 인종차별을 자동화하는가?(Are we automatic Racism?)’이라는 제목의 영상을 보게 되었다. 영상에서는 AI가 매우 ‘차별적’으로 움직인다는 사실이 담겨있었다. 이는 아주 충격적이었는데, 대부분의 사람들처럼 나도 기계는 객관적일 것이라 믿었기 때문이다. 단 한 번도 기계가 중립적이지 않을 것이란 의심은 해본적이 없었다. 물론 이미 2016년도의 ‘테이’와 2021년도의 ‘이루다’의 사례를 통해 기계도 틀릴 수 있다는 사실은 알았지만, 그는 사용자들이 의도적으로 훈련시켰기 때문이라고 생각했지, 기본적으로도 차별적일 것이라 생각하진 못했다. 이번 기회를 통해 더 많은 사례와 자료를 찾아보고 어떤 접근방식이 필요한 지 생각해보고자 한다.
1. 빅데이터의 정의와 AI와의 연관성
빅데이터를 정의할 때 가장 일반적으로 쓰이는 것은 3V-규모(volume), 속도(velocity), 다양성(variety)이다(2012,가트너). 즉, 이전의 아날로그 환경에서 생성되던 데이터와 비교했을 때, 대량의 데이터(volume)을 빠르게(velocity) 처리하며 비정형 데이터를 처리할 수 있어야 한다. 비정형 데이터란 정형 데이터의 반대 개념으로, 음성, 영상, 텍스트 같은 데이터가 여기에 속한다. 이런 비정형 데이터를 처리할 때 Al, 엄밀히 하면 기계학습이 연계 되어있다. 현대의 AI가 빅데이터의 다양성 부분을 구현할 수 있게 하게한다. 동시에, 빅데이터는 AI가 많은 정보를 학습하는 것을 지원한다. 이런 식으로 AI와 빅데이터는 상호보완적 관계에 있다.
2.빅데이터의 부작용
빅데이터를 활용하는데 있어 개인정보 및 사생활 보호 권리 침해의 우려와 차별과 오용의 위험성이 부작용으로 지적되고 있다.
첫번째는 개인정보 및 사생활 보호 권리의 침해 우려이다. 기본적으로, 개인정보 보호법제의 주요원칙들이 빅데이터와 상충된다.
참고 자료
빅데이터 규제의 새로운 패러다임 모색을 위한 연구(2018, 윤혜선)인공지능 알고리즘은 사람을 차별하는가(2018,오요한,홍성욱)
인공지능의 공정성과 데이터의 편향성(2021,정원섭)
빅데이터와 공공데이터의 활용(2011,이만재)
International and comparative legal study on Big Data(2016, The Netherlands Scientific Council for Government Policy (WRR))
THE LSI-R AND THE COMPAS Validation Data on Two Risk-Needs Tools(2008, TRACY L. FASS, KIRK HEILBRUN, DAVID DEMATTEO, RALPH FRETZ)
Fair prediction with disparate impact: A study of bias in recidivism prediction instrument (2017, Alexandra Chouldechova)
Probulica, Machine Bias (2016.5.23, Julia Angwin, Jeff Larson, Surya Mattu and Lauren Kirchner) (https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing)
Equivant, Response to ProPublica: Demonstrating accuracy equity and predictive parity (https://www.equivant.com/response-to-propublica-demonstrating-accuracy-equity-and-predictive-parity/)
Probulica, ProPublica Responds to Company’s Critique of Machine Bias Story (2016.6.29, Julia Angwin and Jeff Larson) (https://www.propublica.org/article/propublica-responds-to-companys-critique-of-machine-bias-story#:~:text=Series%3A%20Machine%20Bias-,ProPublica%20Responds%20to%20Company's%20Critique%20of%20Machine%20Bias%20Story,and%20stand%20by%20our%20conclusions.)
대량살상 수학무기 (2016, 캐시 오닐, 김정혜 번역)
무엇이 옳은가?(2022,후안 엔리케스,이경식 번역)
Twitter says its image-cropping algorithm was biased, so it's ditching it (2021, CNN)
Google ‘fixed’ its racist algorithm by removing gorillas from its image-labeling tech (2021, The New York Times)
Why it’s so damn hard to make AI fair and unbiased (2022, Vox)
Discriminating algorithms: 5 times AI showed prejudice (2018, New Scientist)
Are we automating racism? (Vox,2021)
국가인권 위원회 <인공지능 개발과 활용에 관한 인권 가이드라인> 마련 보도자료 (2022)
정필모 의원 블로그「인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안」 제정법 대표발의(2021)