AI 윤리

기술과 사람이 함께 만드는 건강한 디지털 문화를 고민합니다.

카카오 그룹의
책임 있는 AI를 위한
가이드라인

2023. 03
보편 원칙
  • 1. 사회 윤리

    인공지능(이하 ‘AI’)과 관련된 모든 노력을 우리 사회 윤리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한다.

상위 단계
  • 2. 포용성

    소외 없는 AI 기술 제공을 디지털 기업의 중요한 책임으로 인식하고, 연령과 장애 여부 등과 상관없이 모든 이용자가 공동체 AI 기술을 동등하게 이용할 수 있는 환경을 추구한다. 공동체는 AI 기술과 서비스가 우리 사회 전반을 포용할 수 있도록 노력한다.

  • 3. 인권

    AI 기술 개발과 활용 전 과정에서 인권 존중의 책임 이행을 목표로 한다. AI 기술로 인해 이해관계자의 권리가 보장받지 못하는 상황에 대해 예방 및 대응 조치를 마련할 수 있도록 노력한다.

중간 단계
  • 4. 비차별과 비편향

    AI가 성별, 인종, 출신, 종교 등의 이유에서 차별을 초래하거나 이에 근거한 편향된 의사결정을 하지 않도록 경계한다.

  • 5. 투명성

    서비스 내 AI 기술의 활용 목적, 활용 내용 및 위험 요소에 대해서 이용자에게 지속적으로 알린다. 이를 위해 관련 내용을 기업 경쟁력을 훼손하지 않는 범위 내에서 성실하게 설명한다.

  • 6. 보안과 안전, 독립성

    AI 시스템과 데이터를 외부 공격 및 악의적인 사용과 같은 위험에서 방어할 수 있도록 법적 요구사항을 준수하는 보안체계를 구축한다. AI 시스템의 비정상적 작동과 예기치 못한 상황에 대한 안전조치와 대응 체계를 마련해 안정적인 서비스가 제공되도록 노력한다. AI가 외부적 혹은 내부적 요인으로 훼손되거나 영향 받는 일이 없도록 엄정하게 관리한다.

  • 7. 프라이버시

    AI 기술 개발과 활용 전 과정에서 이용자의 프라이버시를 보호한다. 개인정보 오용을 최소화하기 위해 관련 법규에 따라 개인정보 보호 절차를 마련하고, 예방 및 대응 조치를 취한다.

  • 8. 이용자 보호

    AI 기술에 각종 법과 규범이 요구하는 이용자 보호 정책을 효율적으로 반영한다. 이용자의 권익이 침해되지 않도록 안전한 예방 절차를 수립하기 위해 노력하고 이후에도 관련 절차가 제대로 작동하는지 지속적으로 확인한다.

  • 9. 역기능의 경계

    AI 기술의 불완전성을 인정하고, 설계 의도와 다른 사회적 결과가 발생할 수 있을 가능성에 대비한다. 필요 시 관련 전문가와 협력을 통해 해결책을 모색한다.

  • 10. 이용자의 주체성

    인간과 AI간 상호작용 과정에서 인간이 AI에 과도하게 의존하여 주체의 자율성을 약화시키거나 신체적·정신적·사회적 안전을 위협하는 사용이 일어나지 않도록 노력한다.

상세 내용은 카카오정책산업연구 브런치(새창열림)에서, 변경 전 내용은 알고리즘 윤리헌장(2018)(새창열림)에서 확인 가능합니다.