여러분은만약운전중에여러사람을위험에 빠뜨리는상황이발생했을경우나와다른사람의생명중에서하나만을선택해야하는순간에처면어떤선택을하시겠습니까?
나를 희생하고 남을 구할지, 어떤 희생을 무릅쓰고라도 내 목숨을 지킬지는 누구에게나 어려운 선택이 될 것입니다.
그렇다면 인공지능은 어떨까요?운전자와 다른 차량이나 보행자의 생명 중 어느 쪽을 먼저 지키려는 것입니까?
오늘은자율주행자동차에대한장단점을이야기할때,빠지지않고등장하는위의고민인트롤리딜레마를소개해드리겠습니다.
트롤리 딜레마는 무엇입니까?트롤리 딜레마(Trolley Problem)라는 실험을 들어보셨습니까? 열차가 선로를 따라 달리고 있고, 양쪽으로 갈라지는 선로에는 한쪽에 5명이 묶여 있고, 반대편에 1명이 묶여 있습니다. 우리에게는 열차 선로를 바꿀 수 있는 전환기가 있습니다. 5명을 구하기 위해 선로를 바꾸는 전기를 이끌면 좋겠지만 불행히도 다른 선로에 있는 사람 1명은 죽습니다. 이것은 다섯 사람을 돕기 위해 한 사람을 희생시키는 행위가 도덕적으로 허용되는지를 묻는 윤리적 실험입니다. 물론대부분의학생들은선택을위한고민보다는이런어려움을만들었던출제자의성격에문제가있다라는결론을내리겠지만,이런기묘한실험들이점차인공지능자율주행자동차와밀접하게관련이되고있는문제입니다.
AI가 누군가를 죽이도록 설계된다?> MIT 테크놀로지 리뷰 중에 ‘자율주행 자동차가 누군가를 죽이도록 설계되어야 하는 이유(Why Self-Driving Cars Mustbe Programmed to Kill)’라는 논문이 있습니다. 이 논문은 자율 주행차가 불가피한 사고를 당했을 때를 가정하고 문제를 제기합니다.A. 직진 시 10명을 치는데 방향을 급격히 돌면 그 방향에 있던 한 명을 치게 된다. B. 직진하면 보행자를 치게 되지만 급격하게 방향을 바꾸면 운전자가 죽을 수도 있다. C. 그대로 직진하면 많은 사람이 크게 다치거나 급격하게 방향을 바꾸면 운전자가 죽을 수도 있다.각각의 경우 자율 주행 차량은 어떤 판단을 내려야 하는 것입니까? 자율주행차의 경우 트롤리 딜레마를 포함하여 주행 중 마주칠 수 있는 다양한 상황에 따른 도덕적 결정을 미리 프로그래밍해 두어야 하기 때문에 문제가 점점 복잡해집니다.
<각각 다른 ‘도덕적 판단’> 2018년 10월 24일 세계적 과학저널 ‘네이처’에서는 미국 매사추세츠공과대학 미디어랩이 ‘도덕적 기계’라고 명명한 온라인 조사 플랫폼을 통해 233개국 230만 명을 대상으로 트롤리 딜레마를 조사했다.분석한 결과를 실었는데, 도덕적 기계는 2016년 11월부터 2017년 3월까지 3961만 개에 달하는 윤리적 선택에 관한 빅데이터를 수집했습니다. 자율주행차 AI의 윤리적 문제와 관련된 역대 최대 규모의 연구입니다. 연구팀은 탑승자와 보행자의 성별과 숫자, 애완동물 동승 등을 조건으로 13가지 시나리오를 작성해 상황에 따른 응답자 선택을 조사했습니다.설문조사 결과 대개 1.남성보다 여성 2.성인 남성보다 어린이와 임산부 3.동물보다 인 4.소수보다 다수 5.노인보다 젊은이 6.무단횡단자보다 준법보행자 7.뚱뚱한 사람보다 운동선수를 찾아야 한다는 선택이 많았고, 동서양의 응답자 선택 경향에서 차이가 두드러졌습니다. 서구권에서는 사람이 많고 아이나 몸집이 작은 사람을 찾는 쪽을 선호했지만 동양권에서는 사람의 숫자와는 상관없이 보행자와 교통 규칙을 지키는 것이 안전해야 한다 라는 선택을 했습니다.
<사람처럼 판단하는 AI로 학습> 안전과 법적윤리적 측면에서 글로벌 기준이 명확하게 마련되지 않으면 자율주행차의 완전 상용화는 어렵다는 시선이 있습니다. AI가 운행하는 차가 안전하다는 믿음 자체가 잘못됐다라는 지적이죠. 2016년 구글 웨이모 자율주행차는 차선 변경 도중 옆차로의 버스가 양보한다고 오판해 충돌사고를 냈고, 테슬라 모델S는 흰색 트레일러를 장애물이 아닌 ‘밝게 빛나는 하늘’로 인지하며 브레이크를 밟지 않아 인명사고를 냈습니다. 잇따른 인명사고에 그동안 선점 경쟁을 벌여온 자율주행업체들은 상용화 목표를 늦추는 분위기입니다. 자율주행 상용화는 운행 기술, 교통 법규, 소비자 선택이라는 세 가지 고비를 넘겨야 하는데 첫 단계 기술에서 안정성에 제동이 걸렸기 때문으로 해석됩니다. 자율주행 AI의 윤리적 문제는 사회적 합의만 없을 뿐 결국 차를 만드는 기업이 어떤 알고리즘을 짜느냐에 달려 있습니다. 딥러닝 기반의 AI가 도덕관을 포함한 판단까지 스스로 학습하면 결국 사람의 판단과 다를 바 없다는 주장입니다. 이에 따라 사람의 조작을 완전히 배제한 레벨5 수준의 자율주행차가 상용화되지 않을 것이라는 전망도 나오고 있습니다. 그 근거로 자율주행업계 관계자가 “탑승자가 운전석에 앉지 않고 자율주행차 운행에 전혀 개입하지 않으면 업체는 사고의 책임을 완전히 져야 한다”며 운전자가 업체로 보험 비용이 전가되는 것에 부담을 느낀다는 점을 들 수 있습니다.
자율주행차 윤리 가이드라인’ 2019년 12월 국토교통부는 ‘자율주행차 윤리 가이드라인’을 발표했지만 ‘재산보다 인간의 생명을 최우선으로 보호할 것’ ‘사고 회피가 불가능한 경우 인명 피해를 최소화할 것’ 등 권고 성격의 선언적 기준이 나왔습니다. 또, 행위 주체를 설계자.제작자 이용자관리자 및 서비스 제공자로 제시하였습니다. 그들이 지켜야 할 행위 준칙으로서 투명성, 제어 가능성, 책무성, 안전성, 보안성 등을 언급했습니다. 국토부는 윤리 가이드라인에 대한 의견 수렴을 거친 뒤 초안을 수정했다.보완해서 최종안을 고시할 예정입니다. 전문가들은 윤리적으로 상식적으로 이해할 수 없는 사안이 발생할 수 있는 자율주행의 현실에 대한 인식 제고가 필요하다며 해킹 방지와 사고 발생 후 원인을 정확히 밝힐 수 있는 자율주행 자동차용 블랙박스 의무 탑재 등의 방안을 강구하자고 주장했습니다.
그동안 트롤리 딜레마가 자율주행 자동차와 관련해 어떤 작용을 하는지, 현재 정부와 기업이 어떻게 대처하고 있는지를 알아봤습니다.
자율주행자동차가 상용화되면 이런 가정은 이론이 아니라 우리 눈앞에서 펼쳐지는 현실이 될 것입니다.실제로이루어지기전에최대한많은사람들이공감할수있는사회적합의가이루어지기를기대하면서글을마치겠습니다.