연구성과물검색
유형별/분류별 연구성과물 검색
HOME ICON HOME > Research Project Search > Research View

Research Projects Detailed Information

인공지능 기술 활용에서 편향(성) 최적화 방법론 융합연구
A Convergence Research on Optimization of Biases in AI Application
  • Researchers have entered the information directly to the NRF of Korea research support system
Program 융합연구 [지원년도 신청 요강 보기 지원년도 신청요강 한글파일 지원년도 신청요강 PDF파일 ]
Project Number 2019-S1A5A2A03-2019S1A5A2A03046571
Year(selected) 2019 Year
Research period 3 Year (2019년 07월 01일 ~ 2022년 06월 30일)
chief of research 정원섭
Executing Organization 경남대학교
the present condition of Project 종료
Cooperation researcher 정성훈(인천대학교)
장윤정(국립암센터)
윤미선(순천향대학교)
양일모(서울대학교)
강승식(국민대학교)
Research Summary
  • Goal
  • 본 연구는 최근 인공지능 기술 분야 가장 중요한 사안으로 부각되고 있는 편향성(bias)을 문화적 다양성의 견지에서 최적화하기 위한 기본 원칙과 가이드라인 그리고 프로토콜을 개발하는 것을 목표로 한다. 이를 위한 연차별 목표는 다음과 같다.
    1년차: 인공지능 기술 관련 편향성에 대한 요인별 조사 분석
    a. 데이터에 의한 편향성 (음향, 영상, 언어형태소)
    b. 알고리즘에 의한 편향성
    c. 문화적 요인에 의한 편형성
    2년차: 인공지능 편향성 최적화를 기존 프로토콜 검증
    a. IBM AI Fairness 360 (AIF360) 등 검증
    b. 기존 기본 원칙과 가이드라인 검증
    c. 독자적 최적화 원칙 설립의 필요성 검토
    3년차: 편향성을 최적화하기 위한 프로토콜을 개발 및 검증
    a. 자체 프로토콜 개발 및 공개 검증
    b. 편향성과 문화적 다양성 간 최적화
    c. 최적화 프로토콜에 대한 다양한 활용 방안 제시
    이를 통해 인공지능 기술이 기존의 사회적 차별과 불평등을 강화 혹은 정당화하는 것을 예방하면서 공정하게 활용될 수 있는 미래 지향적인 규범적 준거를 제시하고 이를 실질적으로 검증 및 활용하는 것을 목표로 한다.
  • Expectation Effectiveness
  • 1. 인공지능 기술 활용과정에서 등장할 수 있는 악성 편향을 사전에 차단함으로써 인공지능 기술에 대한 악용 가능성을 차단함으로써 인공지능의 효율성 및 사회적 공공성 증진에 기여함.
    2. 사회적 알고리즘(범죄 예방 혹은 보험이나 대출 등 금융 분야에 활용되는 인공지능 프로그램)에 대한 공공 거버넌스를 강화함으로써 사회적 소외 계층을 보호하고 인공지능 기술을 통해 사회적 불평등을 정당화할 수 있는 가능성 차단.
    3. 알고리즘의 투명성 및 설명가능성을 증진하여 치안, 범죄, 의료 영역 등 전문 분야 정보의 비대칭 문제를 완화함으로써 사회적 약자를 기술적으로 보호할 수 있는 사회적 안전망 제공.
    4. 인공지능 유관 기업들의 사회적 책임 및 공공성 증진
    도덕적 자질을 갖춘 인공지능 전문가 양성
    인공지능 개발자의 자긍식 및 윤리 의식 고취
    5. 인공지능 활용과정에서 편향성을 최적화하기 위한 입법 및 사법의 방향 제시 (인공지능 기술 활용과정에서 등장할 수 있는 각종 사고와 관련된 민·형사 책임 규명 방향 제시)
    6. (지적)재산권적 책임, 프라이버시 및 개인정보보호 정책, 고용노동 정책, 노인 및 여성 관련 정책, 소비자보호 정책, 형사사법 정책 방향 제시
    7. 인간 및 인공지능 편향성에 대한 이해 심화 및 고급 인문 교양 도서 제공
  • Summary
  • 본 연구의 내용은 다음과 같다.
    1. 인공지능 활용과정에서 등장한 편향성 조사 및 유형화
    2. 편향성이 발생할 수 있는 다양한 기원(데이터의 역사성, 알고리즘, 시대적 및 문화적 한계)에 대한 융복합적 이해 증진
    3. 성차별, 인종차별 등 허용 불가능한 악성 편향의 데이터 인덱스 구축 및 지수화
    4. 편향성 최적화를 위한 기존 프로토콜에 대한 공개 검증을 통해 문화적 다양성에 대한 인문학적 이해 중진.
    5. 편향성 최적화를 위한 독자적인 기본 원칙, 가이드라인 및 프로토콜 제시
    6. 문화 다양성의 견지에서 프로토콜을 통한 편향성 최적화 검증 및 적용
    이러한 프로토콜 개발을 인문학적으로 뒷받침하기 위하여 인간의 편향성과 관련한 주요 문헌에 대한 융합연구를 진행하고자 한다. 이 과정에서 Latent Semantic Analysis와 Latent Dirichlet Allocation 등과 같은 topic modeling 및 deep learning 기법을 활용하여 바이어스 관련 기존 연구 조사 및 관련 개념 및 용어를 재정의한 후 Neural Network model을 이용하여 편향 예측 모델을 구현할 것이다.
Research Summary
  • Korean
  • ○ 본 연구의 목적은 최근 인공지능 기술 활용과정에서 가장 민감한 사안으로 부각된 요인 중 하나인 편향성(bias)을 최적화할 수 있는 다양한 방안을 모색하는 것임.

    ○ 이를 위해 인공지능 기술 활용과정에서 편향성이 쟁점이 된 주요 사례에 대해 인문학을 바탕으로 융복합적 관점에서 고찰한 후 인공지능 관련하여 제시되고 있는 다양한 윤리 원칙, 가이드라인, 프로토콜을 비판적으로 고찰하고자 함.

    ○ 2016년 구글 딥마인드의 알파고에서 보듯 인공지능의 성취의 엄청난 위력은 향후 인공지능 거버넌스에 대한 근본적인 성찰의 필요성을 보여 줌. 특히 인공지능 가술 활용 과정에서 인공지능이 기존의 다양한 사회적 이슈들, 특히 편향성의 문제 자체를 인식조차 하지 못하도록 할 수 있다는 점에 주목하고자 함.

    ○ 인공지능 기술의 편향성은 크게 데이터 편향성 및 알고리즘 편향성이라는 두 가지 연원으로부터 연원함. 이를 분석하기 위해 본 연구팀은 크게 아래와 같은 세 가지 연구를 진행하고자 함

    1. 데이터의 편향성 및 편향성에 대한 인문학적 연구
    2. 알고리즘 편향성에 대한 연구
    3. 알고리즘 편향성 진단 및 프로토콜 개발 관련 원천 기술 확보

    Ⅱ. 연구수행 내용 및 결과
    1. 1년차 결과
    ○ 1년차 연구: 인공지능 기술 활용과정에서 등장한 편향성에 대한 조사 분석
    (1) 인간 편향성에 대한 문헌 연구
    (2) 인공지능 기술 편향성에 대한 조사 분석 및 데이터 구축
    (3) 편향성 최적화 등 주요 핵심 개념 정의 등의 세 가지 세부주제로 분류.

    2. 2년차 결과
    (1) AI 편향성에 대한 문헌 검토
    (2) 인공지능 기술 편향성에 대한 조사 분석 및 데이터 구축
    (3) 편향성 최적화 등 주요 핵심 개념 정의 및 분과별 편향성 사례 조사

    3. 3년차 결과
    (1) 한국 인공지능 기술개발 생태계 문제점 분석
    (2) AI 기술 편향성 최적화 프로토콜 개발 및 검토
  • English
  • ○ The purpose of this research is to explore several approaches to bias optimization, one of the elements that have recently come to light as the most problematic issue in the application of artificial intelligence technology.

    ○ To do this, the most notable incidents of bias in the application of artificial intelligence technology will be examined from a humanities-based convergence point of view, and various ethical principles, guidelines, and protocols related to artificial intelligence will then be critically examined.

    ○ The massive potential of AI developments, as demonstrated by Google Deep Mind's AlphaGo in 2016, shows the necessity of critical thought towards AI governance in the future. We would like to draw attention to the fact that using artificial intelligence can make it more difficult to identify a number of current social problems, most notably the issue of bias itself.

    ○ The bias in artificial intelligence technology stems from two sources: data bias and algorithm bias. The study team plans to carry out the following three significant projects to investigate this:

    1. Humanistic research on data bias
    2. Algorithm Bias Research
    3. Acquiring original technology for protocol development and algorithm bias detection


    II. Research Details and Results

    1. Year 1 Results
    ○ First-year research: Examining and analyzing biases that emerged during the use of artificial intelligence.
    (1) A literature review on human prejudice
    (2) An analysis and data collection on bias in artificial intelligence
    (3) Definitions of key terms such bias optimization

    2. Year 2 Results
    (1) A literature review on AI bias
    (2) An analysis and data generation on AI bias
    (3) Definitions of key terms such as bias optimization and Investigation of bias cases by discipline

    3. Year 3 Results
    (1) Examining issues with Korea's ecosystem for developing artificial intelligence technology
    (2) Developing and assessing an AI technology bias optimization process
Research result report
  • Abstract
  • ○ 본 연구의 목적은 최근 인공지능 기술 활용과정에서 가장 민감한 사안으로 부각된 요인 중 하나인 편향성(bias)을 최적화할 수 있는 다양한 방안을 모색하는 것임.

    ○ 이를 위해 인공지능 기술 활용과정에서 편향성이 쟁점이 된 주요 사례에 대해 인문학을 바탕으로 융복합적 관점에서 고찰한 후 인공지능 관련하여 제시되고 있는 다양한 윤리 원칙, 가이드라인, 프로토콜을 비판적으로 고찰하고자 함.

    ○ 2016년 구글 딥마인드의 알파고에서 보듯 인공지능의 성취의 엄청난 위력은 향후 인공지능 거버넌스에 대한 근본적인 성찰의 필요성을 보여 줌. 특히 인공지능 가술 활용 과정에서 인공지능이 기존의 다양한 사회적 이슈들, 특히 편향성의 문제 자체를 인식조차 하지 못하도록 할 수 있다는 점에 주목하고자 함.

    ○ 인공지능 기술의 편향성은 크게 데이터 편향성 및 알고리즘 편향성이라는 두 가지 연원으로부터 연원함. 이를 분석하기 위해 본 연구팀은 크게 아래와 같은 세 가지 연구를 진행하고자 함

    1. 데이터의 편향성 및 편향성에 대한 인문학적 연구
    2. 알고리즘 편향성에 대한 연구
    3. 알고리즘 편향성 진단 및 프로토콜 개발 관련 원천 기술 확보

    Ⅱ. 연구수행 내용 및 결과
    1. 1년차 결과
    ○ 1년차 연구: 인공지능 기술 활용과정에서 등장한 편향성에 대한 조사 분석
    (1) 인간 편향성에 대한 문헌 연구
    (2) 인공지능 기술 편향성에 대한 조사 분석 및 데이터 구축
    (3) 편향성 최적화 등 주요 핵심 개념 정의 등의 세 가지 세부주제로 분류.

    2. 2년차 결과
    (1) AI 편향성에 대한 문헌 검토
    (2) 인공지능 기술 편향성에 대한 조사 분석 및 데이터 구축
    (3) 편향성 최적화 등 주요 핵심 개념 정의 및 분과별 편향성 사례 조사

    3. 3년차 결과
    (1) 한국 인공지능 기술개발 생태계 문제점 분석
    (2) AI 기술 편향성 최적화 프로토콜 개발 및 검토
  • Research result and Utilization method
  • Ⅲ. 연구결과 활용계획

    1. 연구결과 활용계획

    1) 인공지능의 편향성을 최적화하기 위한 연구를 통해 본 연구는 우리 삶에 직접 영향을 미치는 인공지능 기술에서 등장할 수 있는 다양한 바이어스를 확인함. 이를 통해 일차적으로 인간에 대한 이해를 증진하면서 인문학 연구에 새로운 활력을 제공하고, 인공지능 기술에 대한 사회적 신뢰를 증진할 수 있는 길을 제시, 인공지능 기술이 건강한 방향으로 발전할 수 있는 길을 제공하고자 함

    2) 인공지능 기술이 지닌 의의와 한계를 근본적으로 성찰할 수 있는 기회를 제공함으로써 우리 사회의 공공성 증진에 기여하고자 함.
    첫째, 인공지능 기술을 활용하는 다양한 상품의 사회적 수용성을 비판적으로 검증함으로써 이 분야 기술 발전의 의의와 한계를 성찰
    둘째, 사회적 알고리즘의 공공성 강화를 통해 기술 발전이 새로운 사회적 불평등으로 구조화되는 것을 규율하기 위한 표준의 탐색에 기여
    셋째, 의료 영역의 경우 고도로 전문화된 의료인과 환자 간의 정보의 비대칭 문제를 완화, 사회적 약자를 보호할 수 있는 하나의 사회적 안전망을 제공하는데 기여
    넷째, 알고리즘 구현 과정에서 인공지능 전문가들을 위한 윤리 방향 및 내부 고발 가능성을 열어둠. 한편으로 해당 분야 전문가를 보호하고, 다른 한편으로 관련 기업들의 사회적 책임을 강조하여 건강한 기술 생태계를 형성하는데 기여하고자 함.
    다섯째, 인공지능 시대 직업윤리, 공학 윤리, 기업 윤리의 방향을 모색하는 구체적인 가이드라인의 구축에 기여

    3) 사회적 공공성 증진을 위한 인공지능 기술 활용방안을 의료, 입법 및 사법 과정에서 구체적으로 참조할 수 있도록 함

    4) 본 연구진의 성과 『인공지능의 편향과 챗봇의 일탈』은 해당 주제에 관한 주요 참조자료이자 독서공중을 위한 교양도서로 사용될 것임
  • Index terms
  • 인공지능, 편향(성), 가이드라인, 인공지능윤리, 인공지능 규범, 인공지능프로토콜, 데이터, 알고리즘, 거버건스, 알파고, 최적화
  • Research Achievements List
데이터를 로딩중 입니다.
데이터 이용 만족도
자료이용후 의견
입력