오의택님의 다른 아티클 더 보기

UI/UX

윤리적인 인공지능 사용자 경험

AI 서비스 디자인 시 고려해야 할 윤리적 이슈

? 글을 읽으면 있어요!

1. 요즘은 어딜가도 인공지능(AI)가 화제죠. 또 일상 속 많은 부분에 AI가 완전히 녹아들었습니다. 하지만 이렇게 편한 AI에는 잠재력 만큼이나 여러 문제가 있고, 그중 윤리적인 문제가 대표적입니다. AI의 윤리적인 문제는 무엇일까요? 이에 UX 전문가이자 인간공학 기술사인 오의택 인사이터가 현 AI의 윤리적 문제점을 조명합니다.

2. AI의 윤리적 문제를 해결하기에 앞서 AI 개발자는 투명성, 데이터 프라이버시, 공정성 그리고 안정성 이렇게 4가지를 가장 먼저 고려해야 하는데요. 각각 정확히 무엇을 의미하는 것일까요? 이에 대해 살펴봅니다.

3. 그렇다면 UX 디자이너는 이러한 AI의 UX를 어떻게 디자인해 윤리적 문제를 해결할 수 있을까요? 또 어떤 앞으로 어떤 노력을 해나가야 할까요? 이 고민에 대한 대답을 들을 수 있습니다.

글. 오의택(LG전자 디자인 경영센터)
편집. 김동욱 기자 jkkims@ditoday.com


요즘은 어디를 둘러봐도 AI를 볼 수 있습니다. 폭 넓은 영역의 AI 활용은 일상에 혁신과 편리함을 제공하고 있지만, 반면 예상치 못한 부정적 효과로 인해 실망과 두려움을 불러일으키기도 하는데요. 상업적 이득을 위해 개인정보를 함부로 활용해 사용자의 프라이버시를 침해하거나, 편향된 데이터로 학습한 AI 서비스는 차별을 유발하기도 합니다. 뿐만 아니라 신뢰성 낮은 자동화는 예상치 못한 인명 피해를 불러일으키기도 합니다.

이처럼 AI가 지닌 엄청난 잠재력만큼이나 그로 인한 부정적 효과는 쉽게 예측하기 어려운데요. 때문에 AI는 사용자와 사회의 공공선에 해가 되지 않는 범위에서 개발되고 활용돼야 합니다. 이런 개념을 ‘AI 윤리’라고 하는데요. 일반적으로 사람은 교육과 사회 활동을 통해 윤리를 습득하는 것에 반해, AI는 개발자의 윤리적 기준에 의존하게 됩니다. 그러므로 AI기획자나 개발자 그리고 UX 디자이너는 AI가 인간과 사회에 유익한 가치를 제공하는 데에 책임감을 가지고 노력해야 합니다.

이번 글에서는 윤리적인 AI UX를 디자인하기 위해서 고려해야 할 대표적인 윤리적 이슈에 대해 살펴보도록 하겠습니다.

1. 투명성(Transparency)

최근 널리 활용되는 개인화 추천 서비스에서 AI가 제안한 추천 결과는 스스로도 몰랐던 취향을 알아 맞춰 신기하기도 하지만, 가끔은 당혹스럽게 만들기도 합니다. 왜냐하면 사용자 입장에서는 AI의 작동 방식은 블랙박스와 같기 때문입니다. 누군가 내 일거수일투족을 지켜보고 있다는 느낌은 그리 즐거운 경험은 아니죠.

이를 해결할 ‘투명성’은 AI가 사용자의 어떤 개인정보를 사용하고, 어떻게 알고리즘이 작동하는지에 대해 사용자에게 투명하게 공개한다는 개념입니다. 예를 들면 아래 그림과 같이 타이틀 영역의 설명을 통해 추천된 콘텐츠가 어떻게 제안된 것인지 알려주고 있습니다. 이를 통해 사용자는 AI의 동작 방식을 이해할 수 있고 신뢰할 수 있게 됩니다.

(좌) Flow 추천 음악, (우) Netflix 추천 영상 콘텐츠

투명성 제공을 통해 사용자는 AI 시스템의 작동 방식과 그 한계에 대한 명확한 ‘멘탈 모델(Mental model)’을 형성할 수 있습니다. 특히 사용자가 처음 AI 서비스에 사용할 때에 이 시스템이 무엇을 할 수 있고, 얼마나 잘 수행할 수 있는지에 대한 이해가 필요한데요. 만약 사용자가 AI 서비스에 대해 너무 높은 기대치를 설정했다면 실망과 함께 사용 포기로 이어질 수 있기 때문입니다.

예를 들면 아래 그림의 챗GPT의 첫 화면에는 ‘제약점(Limitations)’ 영역을 통해 AI의 한계를 알려 줘, 사용자에게 AI가 할 수 있는 것과 할 수 없는 것을 사전에 고지해줍니다. 이에 사용자는 AI의 제안 결과를 신뢰할 때와 자신이 스스로 판단할 때를 가늠할 수 있습니다.

ChatGPT 첫 화면의 제약점 정보 제공 단계

2. 데이터 프라이버시(Data Privacy)

일상에 편리함을 제공하는 개인화 경험 AI 서비스를 사용하기 위해서는 사용자는 필연적으로 개인정보를 제공해 줘야 하는데요. 자칫 이런 개인정보는 예기치 못한 부정적으로 활용되기도 합니다. 소셜 네트워크 서비스(SNS)에 업로드 된 얼굴과 목소리를 위조한 사기 사건, 사용자 프로필로 심리적 취약점을 파악해 정치 광고를 쏟아내는 것과 같이 이미 우려는 현실이 됐습니다. 때문에 개인정보를 활용한 AI 서비스를 디자인할 때에는 사용자의 ‘데이터 프라이버시’를 보장하기 위한 많은 노력이 필요합니다.

먼저 사용자의 개인정보 자기 결정권을 보장해야 합니다. 즉, 정보의 주체인 사용자가 개인정보의 접근과 사용 권한을 스스로 결정할 수 있어야 한다는 것인데요. 이에 따라 개인정보를 이용하는 AI 서비스를 디자인할 때에는 사용자에게 어느 정도의 개인정보를 어느 기간 동안 사용할 지에 대해 사전에 고지하고 동의를 받아야 합니다.

또한 더 나아가 개인정보 사용 제어 권한을 사용자에게 제공하는 것은 좋은 AI 경험을 제공하는 데에도 필요합니다. 아래 그림의 콘텐츠 큐레이션 서비스에서는 비공개 모드를 통해 개인정보를 추적하지 않도록 선택할 수 있게 하는데요. 이를 통해 사용자는 자기 의지에 따라 개인정보를 보호할 수 있다는 신뢰감을 가질 수 있을뿐만 아니라, 높은 추천 알고리즘 통제권을 행사할 수 있습니다.

Spotify 비공개 모드 (자료 = Geek 티스토리)

다음으로 사용자의 개인정보 보호를 위해서는 보안성을 확보하는 것은 필수적입니다. 대표적으로 개인정보를 해킹해서 피싱과 같은 금융 사고를 일으키기도 하는데요. 이러한 해킹과 같은 공격에 취약점이 없도록 사용자의 개인정보를 보호할 수 있는 높은 수준의 보안이 요구됩니다. 더 나아가 이러한 보안성에 대해 사용자가 직접 확인하고 조치할 수 있도록 디자인하는 것이 필요한데요.

예를 들면 아래 그림은 스마트폰에서 사용자의 데이터가 어떻게 공유되는지 한눈에 볼 수 있고 보안성을 직관적으로 한 눈에 볼 수 있는 대시보드를 제공해 사용자가 안심하고 신뢰할 수 있도록 하였습니다.

갤럭시의 보안 및 개인정보 보호 기능 (자료=삼성)

3. 공정성(Fairness)

AI 개발의 모든 단계에서 사람의 편견이 반영될 수 있습니다. 왜냐하면 AI의 학습을 위해서는 데이터가 필요하고, 이 데이터는 현실의 개인 혹은 사회와 문화에서 축적된 경험과 편견이 그대로 반영되기 때문입니다. 이러한 편견이 AI 서비스에 반영된다면 예상치 못한 다양한 형태로 사용자에게 피해 입힐 수 있습니다.

대표적으로 AI가 특정 사용자 그룹에 대한 부정적인 고정 관념이 반영된 것을 들 수 있는데요. 아래 그림과 같이 딥러닝 기반 챗봇이 일부 이용자에 의한 인종 차별이나 욕설 등을 학습해 서비스가 시작되고 얼마 지나지 않아 운영을 중단했습니다.

또다른 예로 비전 인식 기반의 사진 자동 분류 서비스에서 흑인을 고릴라로 분류해 많은 사람의 분노를 일으키기도 했습니다. 더 나아가 편향된 AI가 예측한 결과로 인해 개인의 기회와 삶의 질에도 부정적인 영향을 미칠 수 있는데요. 예를 들면 AI가 신용 카드 사용의 한도를 성별에 따라 차별하여 적용한 경우를 들 수 있습니다.

(좌) MS AI Chatbot Tay (사진 = Tay 트위터), (우) Google Photo (출처. Jacky Alcine 트위터)

이러한 데이터에 의한 편향을 방지하기 위해서는 공정성이 필요한데요. 공정성(Fairness)은 AI의 편향을 최소화해 그로 인한 결과가 모든 사용자에게 공정하게 적용돼야 한다는 개념입니다. AI를 디자인할 때에는 이를 이용하게 될 사용자의 성별이나 인종, 종교 등과 같이 여러 요소가 반영된 ‘포괄성(Inclusivity)’을 고려해야 합니다.

예를 들면 음성인식 AI를 개발할 경우에는 영어가 모국어가 아닌 나라의 사용자 데이터를 포함시키는 것과 같이, 균형적인 데이터를 확보하여 사용할 사람의 다양성과 문화적 맥락을 반영해 알고리즘의 편향을 최소화하여야 합니다. 더 나아가 AI를 개발 과정에서는 이러한 데이터를 평가하고 검증하는 프로세스가 필요한데요. AI 서비스 출시 이전에 충분한 사용자 데스트를 통해 편향을 발견하고 개선해야 합니다.

4. 안정성(Safety)

AI가 내린 판단과 예측은 완벽할까요? 당연히 100%의 신뢰성을 가지고 있지 않습니다. AI의 알고리즘은 특정한 맥락 하의 데이터를 학습하여 규칙을 만들어 확률이 높은 쪽으로 판단하는데요. 만약 주어진 맥락이 한정적이지 않을 경우 더욱 신뢰성이 낮아질 수 밖에 없습니다.

자율 주행 상황은 정말 많은 변수들이 존재하는데요. 대표적으로 아래 그림과 같이 자율 주행차가 옆면이 하얀색으로 도색된 대형 트레일러를 하늘로 오인해 충돌한 사례가 있었습니다.

자율 주행 오작동으로 대형 트럭에 돌진한 충돌 사고 (사진=Dailymail)

자율 주행이나 금융 및 의료와 같은 도메인에서는 AI의 판단 오류는 사용자에게 엄청난 피해로 돌아올 수 있기 때문에 안전성을 확보하는 것이 무척 중요합니다. AI에 의한 안전성을 확보하기 위해서는 다양한 예외적인 상황을 종합적으로 검토해 사전에 오류를 방지하는 것이 가장 중요합니다.

그럼에도 불구하고 1%의 예상치 못한 오류를 고려해 사용자가 AI가 동작하고 있는 상황을 모니터링할 수 있도록 하고, 문제 발생 시 사용자에게 알려주어 사용자가 문제를 수정할 수 있는 선택 가능성을 보장하도록 디자인하는 것이 필요합니다.

윤리적인 AI의 UX를 디자인하려면

앞서 말한 것처럼 AI의 UX를 윤리적으로 디자인하기 위해서는 투명성, 데이터 프라이버시, 공정성 그리고 안정성을 고려해야 하는데요. 이는 사용자가 AI 서비스 사용을 통한 얻을 수 있는 편익 뿐만 아니라, 이로 인해 예상치 못한 부정적 효과를 다양한 관점에서 검토하고 최소화하기 위한 노력이 필요함을 의미합니다.

또한 UX 디자인의 범위 관점에서는 단순히 사용자와 AI가 상호작용하는 인터페이스뿐만 아니라, AI를 학습시키는 데이터와 알고리즘의 작동 방식에 대한 이해가 요구됩니다. 예를 들면 공정성 있는 AI를 디자인하기 위해서는 이를 사용할 사용자의 다양성과 문화적 맥락을 반영한 균형적인 데이터가 무엇인지 정의하고, AI 학습에 해당 데이터가 반영될 수 있도록 노력해야 합니다. 투명한 AI를 디자인하기 위해서는 알고리즘이 어떻게 작동하는지 사용자 관점에서 쉽고 직관적으로 정보를 제공하는 것이 필요합니다.

인류 역사상 가장 혁신적인 기술로 볼 수 있는 AI는 편익은 극대화하되 위협적인 면을 줄여가면서, 인간과 AI의 긍정적인 공존 관계를 만들어 가는 것이 필요합니다. 이를 위해서 UX 디자이너는 더 많은 역할과 책임감을 가지고 AI의 UX를 윤리적으로 디자인해 사용자에게 신뢰와 안심을 제공해 줘야 합니다.

  • 에디터김동욱 (jkkims@ditoday.com)
  • 섬네일손 찬호

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

오의택님의 다른 아티클 더 보기

성장하는 실무자를 위한
단 하나의 뉴스레터

뉴스레터 구독하기
하루동안 안보기