[ 연사소개 ] Presenter Biography
Sandra Wachter는 옥스포드대학교 부교수이며, 옥스포드대학교 인터넷 연구소에서 AI, 빅데 이터 , 로보틱스, 인터넷 규제에 관한 법윤리를 연구하는 선임연구위원이다. 전문분야는 기술법, 지재권법, 데이터 보호법, 비차별법, 유럽법, 국제법, 온라인인권법, 의료법이다. 현재 그녀가 주력하는 연구 분야는 AI의 법과 윤리적 함의, 빅데이터, 로보틱스, 프로파일링, 추론분석, 설명 가능한 AI, 알고리듬 편향성·다양성·공정성, 정부 감시, 예측 치안, 온라인 인권 분야이다.
Sandra Wachter is an Associate Professor and Senior Research Fellow in Law and Ethics of AI, Big Data, and Robotics as well as Internet Regulation at the Oxford Internet Institute at the University of Oxford. Wachter is specialising in technology-, IP-, data protection and non-discrimination law as well as European-, International-, (online) human rights,- and medical law. Her current research focuses on the legal and ethical implications of AI, Big Data, and Robotics as well as profiling, inferential analytics, explainable AI, algorithmic bias, diversity, and fairness, governmental surveillance, predictive policing, and human rights online.
[ 강연요약 ] Abstract
인공지능과 기계학습은 우리 일상생활 깊숙이 자리 잡았다. 알고리듬은 채용/대출 신청, 대학입학, 의료진단, 치료계획에서 범죄자 판정에 이르기까지 중요한 결정을 내린다. 이 기술은 시간과 비용 효과를 높이고, 의사결정의 일관성을 개선할 수 있는 잠재력을 갖고 있다. 그와 동시에 알고리듬은 종종 사생활을 침해하고, 편향이 있으며, 설명 불가능한 블랙박스로 알려져 있다. 이것은 중요한 책무성에 공백이 있다는 뜻이다. 인간과 알고리듬은 의사결정하는 방식이 매우 다르다. 아쉽게도 가용한 법적 장치(예: 데이터 보호법 및 비차별법)는 인공 시스템이 아닌 인간에 적용하기 위해 고안되어 있어서 이러한 새로운 위험에 대해 우리를 보호해주지 못한다. 편향을 가진 알고리듬을 제대로 견제하지 못하는 법규체계를 살펴보고, 편향이 있고 차별적이며 의도치 않거나 사회적으로 바람직하지 못한 결과를 막기 위해 무엇을 할 수 있는지 법제도적 관점에서 알아본다.
Artificial intelligence and machine learning have become an integral part of our daily lives. Algorithms are making important decisions ranging from job and loan applications, university admissions, medical diagnosis and treatment plans to sentencing criminals. This technology bears the potential for time and cost efficient and more consistent decision making. At the same time algorithms are known to be black boxes that are often privacy-invasive, biased and inexplicable. This means we are facing a major accountability gap. Humans and algorithms are very different in the way they make decisions. Unfortunately, the legal tools available (e.g. data protection and non-discrimination law) were designed to govern humans, not artificial systems, and thus fail to protect us against those novel risks. I will examine regulatory frameworks that are ill-equipped to keep biased algorithms in check and I will shed light what can be done from a regulatory perspective to prevent biased, discriminatory, unintended, or socially undesirable outcomes