Introduction to Responsible AI
책임 있는 AI란
- AI 시스템은 놀라운 속도로 발전하고 있지만 인공지능은 완벽하지 않다.
- 책임 있는 AI를 개발하려면 가능한 문제, 한계 또는 의도하지 않은 결과에 대한 이해가 필요하다.
- 그러나 책임 있는 AI에 대한 보편적인 정의는 없지만 투명성, 공정성, 책임, 프라이버시에 걸친 공통적인 담론이 있다.
책임 있는 AI를 만들기 위해 고려할 점
- AI에는 기계가 중심적인 의사결정 역할을 한다는 잘못된 인식이 공통적으로 존재한다.
- 실제로는 모델 훈련을 위한 데이터를 수집하거나 만들며, AI의 배치와 그것이 주어진 맥락에서 어떻게 적용되는지를 통제하는 것은 사람이다.
- 배포 및 유지보수에 이르기까지 모든 의사결정 지점에서 선택이 책임감 있게 이루어졌는지 확인하기 위한 고려와 평가가 필요하다
구글이 제시한 AI의 7가지 원칙
- 이것들은 우리의 연구와 제품 개발을 적극적으로 통제하고 우리의 사업 결정에 영향을 미치는 구체적인 기준들이다.
1.사회적으로 유익해야 한다
- AI는 사회적으로 유익해야 한다.
- 모든 프로젝트는 광범위한 사회적 및 경제적 요인을 고려해야 하며, 우리는 전체적으로 가능한 이익이 예측 가능한 위험 및 단점을 상당히 초과한다고 믿는 경우에만 진행할 것이다.
2.불공정한 편견을 만들거나 강화하는 것을 피해야 한다
- AI는 불공정한 편견을 만들거나 강화하는 것을 피해야 한다.
- 우리는 특히 인종, 민족, 성별, 국적, 수입, 성적 지향, 능력 및 정치적 또는 종교적 신념과 같은 민감한 특성과 관련된 사람들에게 부당한 영향을 미치는 것을 피하려고 한다.
3.구축하고 안전성을 시험해야 한다
- AI를 구축하고 안전성을 시험해야 한다.
- 가정의 위험을 초래하는 의도치 않은 결과가 발생하지 않도록 강력한 안전 및 보안 관행을 지속적으로 개발하고 적용할 것이다.
4.사람들에게 책임을 져야 한다
- AI는 사람들에게 책임을 져야 한다.
- 적절한 피드백, 관련 설명, 호소의 기회를 제공하는 AI 시스템을 설계할 것이다.
5.프라이버시 설계 원칙을 통합해야 한다
- AI는 프라이버시 설계 원칙을 통합해야 한다.
- 통지와 동의의 기회를 주고, 프라이버시 보호장치를 갖춘 아키텍처를 장려하며, 데이터 사용에 대한 적절한 투명성과 통제를 제공할 것이다.
6.높은 수준의 과학적 우수성을 유지해야 한다
- AI는 높은 수준의 과학적 우수성을 유지해야 한다.
- 우리는 과학적으로 엄격하고 다학제적인 접근법에 대해 이 분야에서 사려 깊은 리더십을 촉진하기 위해 다양한 이해관계자들과 함께 일할 것이다.
- 우리는 더 많은 사람들이 유용한 AI 응용 프로그램을 개발할 수 있도록 교육 자료, 모범 사례 및 연구를 출판함으로써 책임감 있게 AI 지식을 공유할 것이다.
7.이러한 원칙들에 부합하는 사용들을 위해 이용될 수 있어야 한다
- AI는 이러한 원칙들에 부합하는 사용들을 위해 이용될 수 있어야 한다.
- 많은 기술들은 다양한 사용들을 가지고 있다.
- 우리는 잠재적으로 유해하거나 남용적인 적용들을 제한하기 위해 노력할 것이다.