우리는 자율주행 자동차와 관련해 트롤리 딜레마를 종종 언급한다. 윤리적인 가치 판단이 요구되고 사람들조차 선택에 애를 먹는 이 난제를 AI에 답하도록 요구하는 이유는 무엇일까? 그것은 우리가 AI에 거는 기대감이 높기 때문이다. 특히 코로나19 대응에 AI가 적극적으로 활용되고 일부 의미 있는 성과가 나타나면서 이 기술에 대한 기대감은 더욱 커지고 있다. 그러나 실제 업무 최전선에 있는 개발자들은 수많은 AI 프로토타입이 세상의 기대에 한참 미치지 못한다는 것 또한 알고 있다. 지금은 인간이 설계한 자율주행차에 윤리적인 판단을 강요하는 우문(愚問)을 던질 것이 아니라 과도한 기대를 거두고 책임감 있는 설계와 냉철한 검증에 몰입할 때다.
자율주행차는 트롤리 딜레마를 풀 수 있을까?
친구와 자율주행에 관한 주제로 얘기를 나누다 트롤리 딜레마11트롤리 딜레마(Trolley Problem)는 윤리적인 사고 실험이다. 트롤리는 광산에서 캐낸 광석 등 부산물들을 실어 나르는 선로 위의 수레, 즉 광차(鑛車)를 말한다. 대개는 광차가 선로를 따라서 달려오고 양 갈래의 선로에 각각 다른 수의 사람들이 작업하고 있는 상황을 가정하며, 멈출 수 없이 반드시 한쪽을 선택해야만 할 때 어떠한 선택을 할 것인지 묻는 형태를 띤다. 한쪽을 선택하면 다른 한쪽에서 인명 피해가 발생한다. 예를 들면, 1번 선로를 선택하면 5명의 사상자가 발생하고, 2번 선로를 선택하면 1명의 사상자가 발생하는 식이다. 이 이론은 극단적인 양자택일의 상황을 가정하고 사람의 윤리의식을 테스트한다.
닫기 이슈가 나왔다. 자율주행 중 탑승자의 목숨이 위험한 상황에서 이를 피하려고 핸들을 돌리면 그 방향에 있던 보행자 다수가 차에 치일 수 있다고 하자. 자율주행 시스템은 어느 쪽을 택해야 할까? 자율주행 자동차는 트롤리 딜레마를 해결할 수 없다는 친구의 말에 나는 역으로 질문했다. “네가 그 상황이라면 어떻게 할래?” 그 친구는 한참 고민하는 듯하더니 “잘 모르겠어”라고 답변했다.
우리는 지금껏 자율주행차 주제를 다룰 때마다 약방의 감초처럼 트롤리 딜레마가 거론되는 것을 봐왔다. 이 주제는 왜 계속 등장하는 것이며, 과연 질문을 던지는 사람들은 같은 상황에 처했을 때 어떤 결정을 내릴 것인가? 각자의 가치관과 이유에 따라 어느 한쪽의 답을 선택하는 사람들도 있을 것이고, 아무 답도 선택하지 못하는 사람도 있을 것이다. 어느 쪽을 선택하든 논란의 여지는 있다.
그동안 트롤리 딜레마에 대한 많은 실험이 이뤄졌고, 대개 사람들은 이런 상황에서 공리주의적인 해석에 입각한 결정을 내리는 것으로 알려져 있다. 실험 상황에 따라 약간씩 차이는 있지만 다수를 위해 소수를 희생할 수 있다는 의견의 비율이 약 73∼89% 수준으로 집계된다. 좀 더 다양한 상황을 가정한 파생 문제에서 행위의 주체가 소수를 희생하는 것이 직접 의도한 결과인지, 아니면 의도하지 않은 부차적인 결과인지에 따라서도 결과가 달라진다. 이 경우 약 85%의 행위자가 직접 소수를 희생해야 하는 상황을 거부하고, 아무런 조치를 취하지 않은 채 방관하는 쪽을 택한다. 즉, 1명의 희생양을 만들어 5명을 구하는 적극적인 행위를 하지 않고 방관한다는 것이다. 행위를 주관하지 않음으로 책임에서 보다 자유로워지기를 원하는 심리로 풀이된다.
사람이 아닌 AI가 관여하는 자율주행차에 대해서도 이러한 극단적인 상황을 가정하고 윤리적 책임 소재를 따지는 논쟁은 아직도 진행 중이다. 자율주행차가 주행 중 불가피하게 선택을 해야 한다면 운전자와 보행자, 또는 보행자들 간에 누굴 우선으로 살려야 하는가의 문제다. 실제로 자율주행차의 트롤리 딜레마 문제를 전 세계 230만 명 이상을 대상으로 조사한 MIT의 연구 결과가 지난 2018년 네이처(Nature)지에 소개되기도 했다.22Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., ... & Rahwan, I. (2018). The moral machine experiment. Nature, 563(7729), 59-64.
닫기
대체 왜 우리는 사람도 선택하기 어려워하는 상황을 기계에 주고 테스트하고 싶어 하는 걸까? 따지고 보면 이러한 질문을 한다는 것 자체가 억지스러운 면이 있다. 사람도 답을 내리지 못하는 윤리적 가치 판단의 문제를 기계라고 잘할 리 없기 때문이다.
필자는 고려대 전산학과를 졸업하고 동 대학원에서 전산이학 석사와 컴퓨터공학 박사 학위를 취득했다. 한국발명진흥회 지식재산평가센터 전문위원을 거쳐 2016년부터 소프트웨어정책연구소에서 근무 중이다. 현재는 AI정책연구팀에서 AI, 클라우드 등에 대한 연구 활동을 수행하고 있다.