전 세계 정보기술(IT) 업계가 ‘AI 윤리’에 주목하고 있습니다. AI는 인간의 편익과 행복을 위한 기술이지만, 잘못된 방향으로 사용(또는 개발)될 때 발생하는 위험성과 역작용이 막대합니다. 이에 인공지능 기술 개발에 있어 윤리의 중요성이 날로 강조되고 있는데요. 아이비엠(IBM) 정책연구소는 사업별 윤리책임자를 지정하고 AI 기술이 서비스에서 어떤 목적으로 적용되는지 공개하는 가이드라인을 내놓는가 하면, 구글은 AI 윤리적 책임 문제를 연구하는 직원 수를 기존 200명에서 400명까지 2배로 늘리기도 했습니다.
국내에서는 어떤 기업이 AI 윤리 준칙 수립에 나서고 있나요?
국내에서는 LG, 네이버, 카카오가 관련 준칙을 만들었습니다. LG AI연구원은 지난해 말 LG전자, LG디스플레이, LG이노텍, LG화학 등 10개 계열사와 함께 ‘AI 윤리 워킹 그룹’을 구성했습니다. 해당 그룹은 LG가 지난해 ‘인간 존중, 공정성, 안정성, 책임성, 투명성’ 등 5개 조항을 담은 AI 윤리 준칙을 발표하고, 구체적인 실행 전략을 수립하기 위해 신설한 ‘AI 윤리 점검 태스크포스(TF)’와 함께 계열사별 AI 윤리 가이드라인을 만들어나갈 예정이라고 합니다.
네이버는 지난 2021년 이미 ‘사람을 위한 AI 개발, 다양성의 존중, 합리적인 설명과 편리성의 조화, 안전을 고려한 서비스 설계, 프라이버시 보호와 정보 보안’등 5개 조항으로 구성된 AI 윤리 준칙을 수립한 바 있습니다.
2018년 국내 기업 중 최초로 ‘인공지능 알고리즘 윤리 헌장’을 제정한 카카오는 지난해 7월 ‘기술윤리위원회’를 새롭게 구성했습니다. 기술윤리위원회는 카카오 서비스의 AI윤리규정 준수 여부와 위험성 점검, 알고리즘 투명성 강화 등을 위한 정책 개선 업무를 수행한다고 하는데요. 카카오는 기술윤리위와 함께 국내외 기술 인권 정책 등을 검토하여 카카오 기술의 윤리 방향성을 제시하는 ‘인권과 기술윤리팀’도 운영 중으로, 향후 이들 조직에서 유의미한 실천안이 도출되면 해당 결과를 사회와 공유하겠다는 방침도 전했습니다.
국내에서 AI 윤리의 중요성이 강조되는데 영향을 미친 사건이 있나요?
2021년 출시되었던 인공지능 챗봇 ‘이루다’ 논란이 대표적입니다. 국내 스타트업이 만든 대화형 인공지능 이루다는 자연스러운 대화 기능으로 주목받으며 이용자가 75만 명에 육박했으나, 대화과정에서 성소수자와 장애인, 특정 인종 등에 대한 혐오 발언을 한 것이 논란이 되어 출시 3주 만에 서비스가 중단되었는데요. 이러한 이루다 논란은 인공지능 윤리성의 중요성과 당위성이 강조되는 계기가 되었습니다.
출처: 조선비즈