연구성과물검색
유형별/분류별 연구성과물 검색
HOME ICON HOME > 연구과제 검색 > 연구과제 상세정보

연구과제 상세정보

기술적, 의학적, 윤리적, 법적 관점에서 바라본 인공지능의 책임성과 거버넌스
Accountability and governance of artificial intelligence: technical, medical, ethical and legal perspectives
  • 연구자가 한국연구재단 연구지원시스템에 직접 입력한 정보입니다.
사업명 융합연구 [지원년도 신청 요강 보기 지원년도 신청요강 한글파일 지원년도 신청요강 PDF파일 ]
연구과제번호 2019-S1A5A2A03-2019S1A5A2A03036673
선정년도 2019 년
연구기간 3 년 (2019년 07월 01일 ~ 2022년 06월 30일)
연구책임자 고학수
연구수행기관 서울대학교
과제진행현황 종료
공동연구원 현황 김용대(서울대학교)
박도현(서울대학교)
조주은(서울대학교)
김정훈(서울대학교)
이선구(연세대학교)
윤성로(서울대학교)
김현섭(서울대학교)
과제신청시 연구개요
  • 연구목표
  • 세계적으로 교통, 의료, 행정을 비롯한 다양한 분야에서 인공지능을 이용한 자동화된 의사결정이 늘어나고 있다. 한편, 이러한 의사결정이 유발한 결과에 대한 책임성과 공정성 문제가 점차 부각되는 중이다. 이는 주로 오늘날 실무에서 활용되는 머신러닝과 딥러닝 기반 인공지능의 의사결정이 가진 ‘불투명성’에 의한 것으로 평가된다.
    본 연구에서는 인공지능의 불투명성이 구체적으로 무엇을 뜻하고, 그로 인한 파급효과가 어떻게 공정성과 책임성 논란으로 이어지는지 구체적 메커니즘을 규명해본다. 이를 바탕으로, 인공지능의 책임성을 향상시킬 수 있는 방안을 강구하되, 어느 한 영역에 치중된 연구가 되지 않도록 기술적, 의학적, 윤리적, 법적 시각에서 통합적인 고찰을 해본다. 기술 자체로 해결할 수 있는 범위는 어디까지인지, 기술이 포착하지 못한 규범적 영역의 문제에 대해 윤리, 법이 어떤 역할을 상보적으로 수행할 수 있는지 등에 관해 각각 고찰한다.
    이와 같이 인공지능의 책임성 문제가 발생하게 되는 근본적 원인과 해결방안에 관한 융합학문적인 이해를 바탕으로, 최종적 대안으로서 바람직한 인공지능 거버넌스 형태를 구체화해보고자 한다. 이를 위해, 추상화된 개념이 아니라, 실제 공학이나 의학 등의 연구현장에서 이용되는 알고리즘에 기초하여 현실적인 분석을 시도할 것이다.
  • 기대효과
  • 연구결과물은 인공지능의 의사결정에 대한 책임성과 공정성 문제의 구조를 이론적으로 체계화함은 물론, 기술, 윤리, 법적 고찰을 동반한 구체적 해결책을 도출할 것이고, 규범적 문제의 해결을 위한 거버넌스 구조를 구체화할 것이다. 이를 통해 국내는 물론이고 전 세계적으로 인공지능 연구와 문제해결의 실질적 진전을 가져오는 중대한 계기가 마련될 것으로 기대된다.
  • 연구요약
  • 본 연구는 인공지능 책임성에 관한 이슈를 포괄적으로 논의하고, 그 해결방안으로 기술적, 윤리적, 법적 메커니즘을 융합한 거버넌스 구조를 제시한다. 이와 같은 큰 틀을 토대로, 본 연구는 아래와 같이 다섯 가지의 세분화된 주제를 기초로 논의를 심화해나갈 계획이다.

    <주제 1: 인공지능 의사결정의 특성과 책임성의 문제>
    앞서 언급한 본 연구의 목표를 위해서는 인공지능 의사결정의 특성을 명확하게 규명하는 것이 중요한 대전제가 된다. ‘딥러닝’을 비롯하여 일부 신기술에 대한 부분적 고찰을 넘어, 본 연구에서는 보다 심화된 이해를 위해 GAN, XAI 등 최신기술의 동향은 물론이고, 인공지능의 역사적 발전과정과 의사결정의 특성에 대한 깊이 있는 학술적 논의를 병행하도록 한다.
    가령, 딥러닝 기술에 대한 표면적 이해를 넘어 기술이 출현하게 된 역사적 맥락이나 최근의 공학적 방법론 추이를 고찰한다든지, 투명성과 같은 특성 자체에만 주목하는 대신, 그 근본적인 원인이 되는 편향성에 대한 이해를 동반할 것이다. 다른 한편, 법(law; liability)과 윤리(ethics; responsibility)에서 논의되는 ‘책임’과 인공지능 맥락에서의 책임성(accountability)이 어떤 차이가 있는지를 조망함으로써, 인공지능 시대의 책임성 개념을 재구성해본다.

    <주제 2: 인공지능 책임성 향상을 위한 기술적 접근>
    앞선 논의를 토대로, 기술 그 자체를 바탕으로 인공지능 책임성을 향상하기 위한 선행연구를 고찰해보고, 그중 실효성 있는 접근방식과 실효성이 높지 않은 접근법을 구분한다. 특히 설명가능 인공지능 등 실효성 높은 접근법의 경우에는, 세계적으로 논의되는 관련 분야 최신기술이 무엇인지 알아보고, 이를 법제도의 맥락에서 어떻게 반영할 수 있을지를 깊이 있게 탐구한다.

    <주제 3: 인공지능 책임성 향상을 위한 윤리적 접근>
    기술철학은 기술이 유발하는 문제를 기술적 접근만으로 해소할 수 없음을 역설한 바 있다. 그와 같은 지적이 오늘날 인공지능의 책임성 논란에서도 그대로 적용될 수 있는지를 고찰해보고, 인공지능 시대의 책임성 문제의 대안으로 인공지능 윤리가 대두되는 이유를 파악한다. 한편, 세계 각국의 사적, 공적 기관에서 공통으로 채택하는 윤리원칙 내지 가이드라인의 내용을 구체적으로 파악한 다음, 우리나라 실정에 맞게 변용하도록 한다.

    <주제 4: 인공지능 책임성 향상을 위한 법적 접근>
    법은 윤리만으로 해소될 수 없는 규범의 강제력 측면을 보완해주는 한편, 지나친 법적 규율은 기술의 발전을 저해할 우려가 있다. 양날의 칼이 될 수 있는 법제도에 대해, 책임성의 제고와 함께 공리의 극대화 모두를 달성할 수 있도록 하는 방안이나 원칙의 수립이 가능할지 모색한다. 특히 EU GDPR과 같은 전 세계적 영향력을 행사하는 법제의 비교법적 고찰을 병행한다.

    <주제 5: 기술, 윤리, 법적 접근방식을 종합한 인공지능 거버넌스>
    앞선 주제를 통한 논의와 분석을 바탕으로, 기술, 윤리, 법이라는 3대 접근방식을 종합한 인공지능 거버넌스를 도출해본다. 그동안, 예를 들어, 오바마 행정부, AI Now Institute, Google과 같은 다양한 공적, 사적 기구 및 기업에서 각자의 특성에 맞는 거버넌스 구조를 제안한 바 있으므로, 먼저 이를 참조해 국내의 실정에 맞는 거버넌스를 도출한다. 나아가, 앞서 살핀 기술의 변천사, 이에 대한 윤리와 법의 역학관계를 토대로 오늘날의 국내에 국한된 거버넌스를 넘어, 인류 전반에, 미래에까지도 통용될 수 있는 궁극적 거버넌스 구조를 모색해본다.
결과보고시 연구요약문
  • 국문
  • 인공지능의 윤리적, 법적 책임에 대한 사회적 관심과 수요가 나날이 커지고 있다. 인공지능의 책임성을 강화할 수 있는 적절한 정책적 대안이 마련되어야 사회적 수용성이 확보될 수 있고 인공지능 기술과 산업이 발전할 수 있기 때문이다. 그리하여 본 연구는 인공지능 시대에 문제 되는 책임성 개념의 의미를 윤리적, 법적 관점에서 파악하고 이를 재차 기술을 통해 실무현장에 반영하는 융복합연구를 수행하여 인공지능의 책임성을 실질적으로 확보하고자 하였다. 또한 현재 인공지능 분야에서 가장 많은 응용이 이루어지고 있는 의학 분야에 논의를 응용하였다.
  • 영문
  • There has been a growing demand for accountability of artificial intelligence (AI). This is because unless appropriate policy alternatives that can strengthen the accountability of AI are established, social acceptance cannot be secured and AI technology and industry cannot develop. Therefore, in this study, convergence research was conducted to secure the accountability of AI. In this study, ethics and law researchers clearly defined the meaning of the concept of accountability, and natural science and engineering researchers created AI technologies that reflect the accountability of AI. The discussion was also applied to the field of medicine, which currently has the most applications in AI.
연구결과보고서
  • 초록
  • 인공지능 시대가 도래하면서 기술적, 산업적 발전을 넘어 윤리적, 법적 책임에 대한 사회적 관심과 수요가 나날이 커지고 있다. 인공지능의 편익에 비해 그것이 가져올 해악과 위험이 부각될 경우 사회적 반작용이 생겨날 수밖에 없기 때문이다. 이에 따라 인공지능의 책임성을 강화할 수 있는 적절한 정책적 대안이 마련되어야만 인공지능 의사결정의 사회적 수용성이 확보될 수 있고 인공지능 기술과 산업이 발전할 수 있다. 그리하여 본 연구는 인공지능 시대에 문제 되는 책임성 개념의 의미를 윤리적, 법적 관점에서 파악하고 이를 재차 기술을 통해 실무현장에 반영하는 융복합연구를 수행하여 인공지능의 책임성을 실질적으로 확보하고자 하였다.
    구체적으로 본 연구는 인공지능의 윤리적, 법적 책임과 관련된 다양한 쟁점들을 상세히 논의한 뒤, 이를 해결하기 위한 기술적 이해를 바탕으로 구체적 제도적 거버넌스를 도출하는 연구를 수행하였다. 인문사회와 이공분야 연구진의 융합연구를 바탕으로 인공지능의 윤리적, 법적 책임을 이론적으로 규정하였고, 이를 실무적으로 반영할 수 있는 기술적 방법론을 고안하였으며, 이에 토대를 둔 거버넌스 구조를 도출하였다. 이를 통해 기술적 이해를 바탕으로 한 정책과 제도를 수립하고자 하였다. 또한 현재 인공지능 분야에서 가장 많은 응용이 이루어지고 있는 의학 분야에 논의를 응용하여 실제적 논의를 추구하였다.
  • 연구결과 및 활용방안
  • 본 연구를 통해 인공지능 책임성을 주제로 다수의 국내, 국제 세미나를 개최하였고, 이슈페이퍼, 매거진 등 다양한 형태의 연구결과물을 발표하였다. 또한 해당 주제와 관련된 단행본 책을 발표하였고 여러 편의 논문을 국내외 학술지에 게재하였다. 이러한 연구성과물은 현재 국내외 정부, 기업, 여타 조직에서 급증하고 있는 인공지능의 책임성 거버넌스의 수요를 충족하는 유용한 참고자료로 활용되고 있다. 또한 앞으로 해외의 연구성과를 바탕으로 우리나라 고유의 인공지능 책임성 거버넌스 정책을 펼쳐나가는 과정에서도 중요한 참고자료가 될 것으로 예상된다.
  • 색인어
  • 인공지능, 책임성, 거버넌스, 자율규제, 기술규제
  • 연구성과물 목록
데이터를 로딩중 입니다.
데이터 이용 만족도
자료이용후 의견
입력