카테고리 없음

[GenAI 스터디] Introduction-Responsible-AI

sian han 2023. 8. 9. 10:11

Introduction to Responsible AI

alt

AI는 놀라운 속도로 발전하고 있지만 아직 AI가 완벽한 것은 아니다.
책임감 있는 AI를 개발하기 위해서는 잠재적인 문제, 한계나 의도치 않은 결과를 파악해야한다.

책임감 있는 AI 란

책임감 있는 AI는 논란의 여지가 있는 사용 사례에 집중하는 것만을 의미하지 않는다. 책임감 있는 AI의 실천은 위험하지 않아 보이거나 선의의 의도를 가진 경우에도 중요하다. 윤리적 문제나 의도하지 않은 결과가 발생할 수 있으며, 기대했던 만큼의 유익함을 제공하지 못할 수 있다.

책임감 있는 AI(Responsible AI)'란 인공지능 시스 템을 개발, 운영, 배포하는 과정이 윤리적이고 투명하며 사용자 개인정보와 사회적 가치를 존중하는 방식으로 이뤄지는 것을 의미한다.

AI에 관한 책임이란 단순히 위험을 피하는 데 있다고 생각되곤 하지만, 실제로는 복잡성과 위험을 완화할 뿐만 아니라 사람들의 삶을 개선하고 사회 및 과학적 문제를 해결하도록 돕는 것이다.

AI 개발에서 어떤 부분에 참여하고 있든 각자 내리는 결정이 전체에 영향을 미치기 때문에 책임감 있는 AI 개발을 위한 프로세스를 정의 것이 중요하다.

책임감 있는 AI 의 필요성

AI 개발할 때 데이터를 수집하고 가공하는 것은 사람이 진행하며, 데이터를 수집하는 과정에서 데이터를 선별하는 작업도 사람이 진행하고 또 최종적인 성능 평가도 사람이 진행한다.
데이터 선별, 학습, 성능평가에 사람이 적극적으로 개입하다 보니 AI 시스템에는 사람의 편향성이 존재하고 결과에 대한 신뢰와 책임 문제, 윤리 문제가 남게된다.

alt

설계에서 배포나 응용에 이르기까지 AI 프로세스의 어떤 단계에 관여하고 있든 각자 내리는 결정이 전체에 영향을 미치게 되고, 따라서 책임감 있는 AI 사용을 위해 정의되고 반복 가능한 프로세스를 마련하는 것이 중요하다.

조직별 AI 원칙

아직 책임감 있는 AI 에 대한 보편적인 정의는 없다.
따라서 AI 를 개발하는 각 조직은 투명성, 공정성, 신뢰성, 개인정보보호를 포함한 자체적인 사명과 가치를 반영하여 자체적인 AI 원칙을 수립하고있다.

구글 7대 AI 원칙

  • 첫째, AI는 사회에 유익해야 합니다.
  • 둘째, AI는 불공정한 편향을 만들거나 강화해서는 안 됩니다.
  • 셋째, AI는 안전하게 빌드되고 테스트되어야 합니다.
  • 넷째, AI를 사람들에게 설명할 수 있어야 합니다.
  • 다섯째, AI는 개인 정보 보호 적용 설계 원칙을 포함해야 합니다.
  • 여섯째, AI는 높은 수준의 과학적 우수성을 유지해야 합니다.
  • 일곱째, AI는 이러한 원칙에 부합하는 용도로 제공되어야 합니다.

Microsoft 의 AI 핵심 원칙

  • 윤리(ethical)
  • 설명가능성(explainable)
alt
  • 책임감(accountability)
  • 포용성(inclusiveness)
  • 신뢰성 및 안전성(reliability and safety)
  • 공정성(fairness)
  • 투명성(transparency)
  • 개인 정보 보호 및 보안(privacy and security)

네이버 AI 윤리 준칙

  • 사람을 위한 AI 개발
  • 다양성의 존중
  • 합리적인 설명과 편리성의 조화
  • 안전을 고려한 서비스 설계
  • 프라이버시 보호와 정보 보안

AI 윤리적 문제 사례

  • MS ‘테이’챗봇 사례
    • MS는 테이에 익명화된 공공 데이터와 코미디언들이 미리 작성한 자료를 심어놓고, 소셜 네트워크 상에서 상호 작용을 통해 배우고 진화하도록 만들었다. 16시간 동안 무려 9만5000개가 넘는 트윗을 올렸는데 그 트윗들은 점차 노골적 인종차별주의, 여성혐오주의, 반유대주의로 급변하기 시작했다. MS는 조정을 위해 신속하게 서비스를 멈췄고, 결국 사용을 중단하기에 이르렀다.

책임감있는 AI 개발 사례(구글)