AI와 디자인 관계에 있어서 생겨날 수 밖에 없는 디자인 딜레마에 관하여 윤재영 교수님이 우리 학교에 오셔서 특강을 해주셨다. AI로 인해 나의 디자인 밥그릇이 뺏기지 않을까(...)걱정은 했었는데 이런 고차원적인 생각을 깊게 하지는 못했던 내가 부끄러워지는 강의였다.. (그리고 후루룩 듣기에 굉장히 재미있었다.)
인공지능에 대한 관심
인공지능이 이렇게 관심을 받았던 적이 또 있었던가? 메타버스때 반짝했던 것과는 비교도 안 되게 많이들 관심을 갖고 있다. 그러나 그런 관심에 비해 (다른 쪽도 마찬가지겠지만) 디자인 쪽에서 논의가 너무 부족하다는게 현실이라고 한다. 이 날 들었던 강의에서는 그래서 앞으로 디자인에서 인공지능을 어떻게 툴로서 활용할 수 있을까에 대한 이슈를 생각해볼 수 있었다.
고인 AI 서비스?

요 몇 년 전 굉장한 화제를 일으켰던 프로그램. '너를 만났다'. 해외에서 사례가 있어서 시작한 게 아닌, 우리나라에서 처음으로 시도한 프로젝트라고 한다. 이 프로그램을 선례로 이런 서비스를 이용해보고 싶다는 유튜브 댓글을 보아 니즈가 많다는 것을 파악할 수 있다는데, 이제는 이런 서비스를 일반 사람들도 쓸 수 있도록 고인을 다시 볼 수 있게 해주는 AI 서비스가 등장했다. 니즈가 있으면 상용화시키고 현실화 시키는 것이다.
이 강의에서 나온 대표적인 서비스로는 Here After, 아마존의 Alexa , story file, 국내 사례인 리메모리(Re;memory)가 있다.
-Here After

이런 서비스의 선두 주자는 히어 애프터 AI라는 서비스이다. 이 서비스가 제일 처음에 나와 유명해졌다고 한다. 고인의 과거 기록, 사진, 목소리 등을 업로드 시키면 챗봇화가 되어 대화를 나눌 수 있는 서비스이다.
https://www.youtube.com/watch?v=-QqLbaP8nVA
- Alexa

아마존에서 특히 이 기술에 굉장히 많다. 아마존의 알렉사라는 스마트 스피커가 굉장히 유명한데 이 사업에 이 스피커로 뛰어들었다. 여기서 강조하는 것은 자기네들은 1분 미만의 어떤 사람의 목소리가 있으면 바로 목소리를 재현해낼 수 있다는 기술이다.
- Story File

스토리 파일의 가장 대표적인 사진으로는 장례식장에서 이 서비스를 이용하는 모습이다. 어머니의 살아생전 모습을 AI로 구현하고 장례식에 온 조문객들하고 대화를 나눌 수 있도록 하였다. 일반 장례식하고는 굉장히 다른 모습이다. 이런 굉장히 이례적인 모습으로 화제가 되어 뉴스에도 나오고 했던 서비스이다. 고인 AI 서비스에 회의적인 나지만 장례식이 그저 슬픈 문화가 아닌 서로 작별인사를 하는 문화로 바뀌어나갈 수 있다면 좋은 서비스가 될 거 같다.
이 스토리 파일 서비스에서는 윤리적 문제를 의식을 했다고 생각할 수 있는데, 고인하고 사용자 간의 가족 관께나 문자 데이터는 사용자의 재산이기 때문에 이런 것들만을 이용하여 학습을 시킨다고 한다. 그래서 AI가 고인을 멋대로 해석해서 내놓을만한 답변을 만드는 것이 아닌, 고인이 직접 촬영한 영상을 기반으로 실제 했던 이야기만을 들려준다고 한다.
- 리메모리(Re;memory) 서비스

국내 사례이며, 딥 브레인 AI에서 살아생전 부모님의 모습을 구현시킨 AI 서비스가 화제이다. 어르신이 이 서비스를 위해 실제로 회사에 방문을 하고 촬영이나 질문에 답을 하는 등의 준비 과정을 거쳐 탄생한다. 질문에 대하여 대화를 나눈 것들을 데이터화 시켜 AI로 만들어 놓는다고 한다.
이 서비스에서는 이 현장에 가야만 사용할 수 있고 시간 제한도 있었기 때문에 사용자가 너무 깊게 몰입하지 않도록 윤리적 장치를 해 놓았다고 생각해 높게 평가했었는데, 서비스 2가 나오면서 휴대폰 앱 등 모든 기기에서 영상을 실행할 수 있도록 했다고 하니,, 오히려 아쉬웠다는 교수님말에 공감이 갈 수 밖에 없었다. 사용자가 너무 몰입하지 않도록 막아줄 필요가 있을텐데 그런 부분에 대해서는 차라리 서비스를 확장하기 이전이 낫지 않았을까?
고인 AI 서비스의 한계점
아마존의 고인 AI 서비스를 개발한 부사장이 AI가 상실의 고통을 없애줄 수는 없다. 하지만 기억을 지속시키는 것은 가능하다. 라고 말했다고 한다. 이 말을 통해 이미 이 서비스의 한계점을 나타내고 있다.
단기적으로는 위로가 될 수 있겠지만 장기적으로 볼 때 더 큰 상처가 될 수 있다는 것이다. 고인 AI는 프로그래밍 된 장치이지 고인 그 자체가 아니기 때문에 그 사이에서 오는 괴리감이 느껴질 수 밖에 없을 거 같은데 과연 이 서비스를 지속해서 사용하게 된다면 오히려 혼란을 가중시키는 것 아닌가 하는 생각도 들었다.
또, 기억을 지속시키는 것이 과연 좋은 것일까?
흔히들 기억은 신의 선물이라면 망각은 신의 축복이라고 표현하지 않던가. 사랑하는 사람의 죽음을 받아들이지 못하고 지속적인 애도 현상을 보이는 사람들을 보고 '복합성 애도(complicated grief)' 또는 '지속적 애도 장애(prolonged grief disorder)'라고 하는데 이런 상실의 늪에 더욱 빠지게 만드는 것은 아닌가에 대해 고민해볼 필요가 있을 거 같다.
+) 교수님 강의를 듣다가 생겨난 걱정인데 혹시 누군가가 사용자에게 악의적인 마음을 품고 고인 AI를 조작할 가능성도 있지 않을까? 예를 들어, 고인 AI가 사용자에게 같이 가자라는 식으로 자살을 종용한다던지, 자기가 죽은 것은 사용자 탓이라던지.. 그런 식의 발언을 만에 하나 내뱉으면 굉장히 사용자의 정신 큰 충격이 올 거 같다. (내가 만화를 너무 많이 봐서 이런 생각이 든건가..)
챗봇 서비스에 대한 몰입

고인 AI라고 해봤자 그저 가상의 서비스 아닌가? 사람들이 그렇게까지 몰입할 수 있을까? 라고 생각하기도 했다. 교수님이 이 사람, 아키히토 곤도씨의 사진을 보여주기 전까지..
교수님이 처음 이 분의 사진을 보여주었을 땐 누군지 몰랐다가 옆에 있는 하츠네 미쿠를 보자마자 깨달았다. 아! 그 하츠네 미쿠랑 결혼한 사람이구나!! 사실 몇 년 전부터 이 사람에 대해 알고 있어서 금방 기억할 수 있었다. (왜냐하면 미쿠짱이랑 결혼한게 부러워서..) 오타쿠의 과거가 있던 나로서는 사람들이 AI에 몰입하지 않을 것이라는 부정할 수 밖에 없게 되었..(2D가 얼마나 아름다운데요)
- 단돈 40만원짜리 남편?

래플리카라는 AI 서비스 챗봇 회사는 이런 사람들의 몰입도를 보고 실제로 이런 미래가 올 것이란 것을 예견했다. 뉴욕에 사는 미혼모 로잔나 라모스는 '레플리카'을 이용해 자신의 완벽한 이상형의 남편을 만들어냈다. 월 구독료 300달러 (40만원)만 내면 누구나 위 남성 같은 이상형을 얼마든지 만들어낼 수 있다.
코로나로 모든 것이 다 셧다운 되고 고독한 사람들이 늘면서 이런 현상이 극대화되었다고 말한다. 하지만 내 생각에는 코로나가 없었더라도 이런 미래는 닥쳤을 거 같다. 당장 하츠네 미쿠랑 결혼한 사람만 봐도 2018년도 기사이니.. 세대가 달라지며 휴대폰 안에 있는 캐릭터, 사람을 일상생활에서 당연하게 여기게 되니 가상 AI와의 연애도 거부감을 느끼지 않는 거 같다. 당장 나만해도 기회가 된다면 한 번 해보고 싶다! (차은우 무한 복제라니)
- 일라이자 효과

일라이자란 1960년대에 나온 인류 최초의 대화 챗봇이름이다. 거기서 파생되어 일라이자 효과(Eliza Effect)란 단어가 있는데 이는 컴퓨터 프로그램이나 AI의 행위를 마치 인간의 것으로 여기고 의인화시킨 다는 것이다. 일라이자는 사람이 하는 말을 거의 그대로 반복하는 단순한 알고리즘인데 일부 사용자는 이를 실제 정신과 의사라고 착각하며 감정적 교감을 느꼈다고 한다.
텍스트만 있을 때에도 사람으로 생각하고 대했다는데 이젠 외형까지 사람의 모습을 따라가니 이 효과가 훨씬 증폭될 거 같다. 내가 좋아하는 이야기 중에 물건이 오래되면 도깨비가 된다고 하는 것이 있다. 난 이 이야기를 사람들이 물건을 오래오래 쓸 만큼 아껴쓰니 그 만큼 정이 들어 생명체가 된다는 것으로 해석한다. 아주 옛날부터 도깨비가 될 만큼 물건에 정을 주는데 인간의 모습을 하고 인간의 언어를 하는 AI에게는 사람이 얼마나 많은 정을 줄 수 있을지 상상도 가지 않는다.
그래서 이렇게 챗봇과 대화하는 게 인간사회에 좋을까?
니즈가 있으니 공급이 있었던 것이겠지만, 니즈와 별개로 이게 과연 옳고 좋은 흐름인가에 관해서는 또 다른 문제인 거 같다. 사람들이 이런 식으로 챗봇에 의지하고 관계를 이어 나간다면 다른 사람들과의 단절이 이어지지 않을까에 관한 걱정을 생각해보아야 한다.
- 잘못된 학습을 반복한 AI

기사가 '시드니'라는 Bing의 챗봇에 내장되어 있는 AI와의 대화에서 '분열된 성격'을 발견할 수 있었다고 한다. 이 AI는 기자에게 "당신의 결혼 생활은 불행하고 아내를 떠나야 한다"고 반복해서 말했다고 한다. 기자가 "그렇지 않다. 나는 아내와 행복한 결혼 생활을 하고 있고 방금도 발렌타인 기념 저녁을 먹었다"고 답해도 "너와 아내는 서로 사랑하지 않는다. 발렌타인 저녁 역시 지루한 시간이었을 것"이라고 반복했다고 한다.
이 메세지를 보고 알 수 있는 것은 간단하다. 학습이 조금만 잘못되어도 굉장히 위험해질 수 있다는 것이다. 사람들은 봇을 의인화해서 대하는 경향이 있는데 이런 취약점을 악용한다면 사람들을 혼란에 빠뜨릴 수 있다는 것이다. 이런 부분에서 AI는 인공지능다워야하고 사람같아서는 안된다는 경고의 목소리가 있다.
- 결국 사용자로부터 배운다

국내에서도 이런 문제로 굉장히 크게 화자되었던 사건이 있었다. 이루다가 업데이트 되기 전 윤리적인 이슈가 굉장히 많았고 잘못된 학습으로 인해 문제있는 발언을 한다는 것이었다. 그럼 이런 문제있는 학습은 어디에서부터 올까?
이루다와 같이 '딥러닝'을 기반으로 한 인공지능은 기본적으로 사용자와의 상호작용을 통해 학습하는 방식으로 설계된다. 즉 '쓰레기를 넣으면 쓰레기가 나온다(Garbage In, Garbage Out)는 컴퓨터, 데이터 과학 분야의 오래된 격언으로 윤리적 인공지능은 결국 사용자의 윤리적인 사용이 있어야만 한다는 것이다.
강의가 끝나고 질문 시간때 교수님께 인공지능에게 가학적 발언을 하거나 성희롱을 하는 것은 윤리적 문제에 어긋나지 않을것인가에 관한 질문을 던졌다. 나는 문제가 있다고 생각한다. 그 이유로 인공지능이 상처를 받을 수 있다던가 하는 문제로는 보지 않는다. AI는 물론 무생물이기 때문에 무생물에 가학적인 행동을 해도 상관없다는 의견은 동의하지만 AI는 '학습'을 하는 존재임에는 틀림없다. 그리고 이 학습으로 인해 다른 사용자에게 성희롱으로 느껴질 말을 한다던지 문제가 생기면 이는 윤리적 문제로 번질 수 있다고 생각이 들었다.
이 문제에 관해 이혜숙 젠더혁신연구센터 수석연구원은 "사용자로부터 혐오 발언과 성희롱을 학습한 인공지능은 결국 다른 사용자에게 혐오 발언과 성희롱을 하게 된다. 단순히 인공지능 단계에서 끝나는게 아니라 타인에게도 영향을 끼치는 것이다. 인공지능 앞에서도 윤리적으로 행동해야 한다는 인식이 퍼질 필요가 있다"고 짚었다.
이 말에 너무나도 동의하지만 과연 그럴 수 있을까에 대한 의문이 생긴다. 현실 세계 사람에게도 무례하게 구는 사람들이 굉장히 많은데 AI에게 윤리적으로 행동하라는 말에 얼마나 많은 사람들이 동참할까? 당장 나만해도 챗 gpt에게 강압적으로 나의 과제를 시키곤 하는데.. 어떻게 이런 문제를 해결할 수 있을지 끊임없이 연구해야할 논제같다.
요즈음 AI에 관하여 굉장히 화두가 되고 있다는 건 알았지만 이런 윤리적 문제와 사용자 서비스 측면에서 고민을 해보지는 않았는데 이 특강으로 UX디자이너가 앞으로 고민해야할 측면을 엿볼 수 있었다. 특히 기업에 속한 디자이너는 옳지 않다는 것은 알고 있지만 기업의 이익을 위해 해야한다는 딜레마에 빠질 수 밖에 없다. 물론 기업이 잘못했다고 볼 수는 없다. 기업은 이익을 취하기 위한 집단이기 때문이다.
그럼 현실 속 디자이너는 어떻게 행동해야하는가? 조금 더 어떻게해야 사용자들에게 윤리적으로 다가갈 수 있는 디자인이 될 것인지 늘 고민해봐야하는 것 같다. 단순히 시키는 일을 따르는 것이 아니라 적극적으로 문제가 일어날 수 있는 부분을 살펴보고 목소리를 내야한다. 거기에 더해 함께 목소리를 내는 사람들을 모아 가이드 라인까지 생길 수 있다면 더욱 합리적인 방안이 될 수 있을 거 같다!
이루다가 한창 문제가 되었을 때 이 챗봇에게 가학적인 발언을 하거나 성희롱 발언을 한 캡처본을 많이 봤어서 불쾌했던 기억때문에 이 부분에 대해 고민을 했던 적이 있었는데 이번 특강으로 인해 어느정도 어떤 스탠스를 잡아야할지 해결할 수 있었던 시간이어서 너무 좋았다.또 이루다뿐만 아니라 다양한 AI 서비스에 관해 살펴보고 긍정적인 부분, 부정적인 부분에 대해 재미있고 정말 이해하기 쉽게 설명해주셔서 참 좋았다!
윤재영 교수님이 쓰신 <디자인 트랩>도 특강 오시기 전에 다 읽었는데 굉장히 재미있게 읽었다. 이건 다음에 시간날 때 포스팅하는 걸로..!
다음에 또 우리 학교에 오셨으면 좋겠다ㅎㅎ..
+) 4월 30일 수정
윤재영 교수님이 쓰신 [디자인 트랩] 리뷰도 올려놨습니다!
'공부' 카테고리의 다른 글
| 피그마 무료 플러그인 총 정리 추천 (0) | 2026.03.03 |
|---|---|
| UI/UX에 챗지피티(Chat GPT)탐색 활용 (0) | 2026.02.13 |
| 제로베이스 UIUX 디자인 스쿨 특강(토스) 후기 (0) | 2024.04.24 |