ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 자율주행차와 윤리적 딜레마 정보
    카테고리 없음 2020. 2. 17. 07:27

    >


    >


    도덕적 견해를 묻는 아주 유명한 질문을 해보자. "당신은 브레이크가 마을로 떨어진 기차 기관사다. 기차는 선로에서 작업 중인 인부 5명을 향해서 맹렬히 달리고 있다. 너로 달리면 인부 5명을 해치게 된다. 방금 당신 앞에는 선로 변경 스위치가 있지만 그 스위치를 누르면 인부 5명을 살릴 수 있지만 또 다른 선로에 있는 노동자 한 사람을 해칠 수밖에 없다. 그럼 당신은 스위치를 누르는 건가?이 질문을 묻는 설문의 연구에서 89퍼.세인트 인들은 스위치를 누르겠다고 대답했다. 이번에는 질문을 바꿔보자. 당신은 운전사가 아니라 상황을 지켜보는 방관자이다. 마침 당신 앞에는 덩치가 큰 사람이 있는데, 이 사람을 선로에 놓으면 기차를 세울 수 있는데 그 사람이 죽게 된다. 대신에 인부 5명을 살릴 수 있다. 당신이라면 몸집이 큰 사람을 밀까?이 질문을 받은 사람들은 앞의 질문 때문에 감명을 느낀다. 다시 스토리화되어 윤리적 딜레마에 직면하게 된다. 두 질문은 <정의란 무엇인가>의 저자 '마이클 샌델'이 자주 인용해 널리 알려진 일명 '트롤리 딜레마'다. 결론적으로 스토리는 두번째 질문에 대다수의 사람들(78퍼.세인트)는 밀지 않겠다고 대답했다."최대 다수의 최대 행복"이라는 공리주의적 관점에서 보면 2개의 질문에 사람들의 반응은 모순이다.우리는 다수를 위해 소수가 희생해야 한다고 소견하지만 동시에 다수를 위한 명분이 소수를 희생해서는 안 된다고 소견하는 이율배반의 존재가 된다. 과연 그럴까.최근 뇌과학의 발달은 이런 윤리적 딜레마에 대한 인간의 반응이 모순되지 않는다는 물증을 제시합니다."뭐 음학자 조슈아 그린은 fMRI(기능성 자기 공명 영상)을 이용 칠로, 2가지 질문을 받은 사람들의 뇌의 활동을 비교할 검토를 했다.검토 결과를 보면 두 가지 질문에 반응하는 사람의 두뇌는 다른 것으로 나타났다. 첫 번째 질문처럼 스위치만 조작해 결정을 내릴 경우에는 이마엽(전두엽)이 활성화되는 사람이 많았는데, 이는 그 상황에 대해 이성적인 판단을 했다는 뜻이다. 그러나 2번째 질문처럼 누군가를 찍는 행동, 즉 적극적인 행위가 필요한 경우에는 편도체가 활성화하는 사람이 많았는데, 이는 그 상황에 대해서 정성적인 판단을 했다는 뜻이다.해석하자면 인간이 윤리적 결단을 내려야 하는 순간에는 이성적 판단과 정서적 판단 사이에서 적절한 쪽을 선택한다는 뜻이다. 고로 트롤리 딜레마에 대한 인간의 반응은 모순되지 않는다. 조슈아 그린의 표현을 빌리자면 인간의 이런 행동은 이중처리 방식의 도덕적 뇌를 갖고 있기 때문이다.다만 이는 인간의 반응에 대한 물증을 제시했을 뿐 트롤리 딜레마에 대해 어떤 판단이 옳은지 사회적 합의에 이른 것은 아니다. 만약 근로자 5명이 나의 가족이라면 어떻게 될까? 그래도 덩치 큰 사람을 밀지 않을까? 당시엔 누군가를 밀어 가족을 돕는 게 오히려 정서적 판단이 되지 않을까. 그렇다면 정서적 판단의 개입이 반드시 옳다고 할 수 있을까.지금까지 트롤리 딜레마는 대학의 정치 철학 강의나 시민을 위한 교양서적에서만 볼 수 있는 토론 주제였다. 이런 딜레마는 어디까지나 인간의 머릿속에서만 퍼져 있던 지적 유희였으며 현실에서 일어나는 하나는 다소 거의 없었다. 그런데 상황이 바뀌어 스토리가 됐다.어느새 우리는 4차 산업 혁명을 맞았다. 지금 트롤리 딜레마는 인간 머릿속의 지적 유희가 아니라 개발자가 확실히 알고리즘이 돼 스토리가 됐다. 즉 인간의 머릿속을 떠나 사물 또는 인공지능이 딜레마에 대한 판단을 내려야 하기 때문이다. 예를 들어 자율주행차를 떠올려보자.


    >


    갑자기 브레이크가 고장 난 자율주행차가 있다고 가족끼리 생각해보자. 당싱로 달릴 경우 보행자 5명을 치게 되고 핸들을 꺾으면 보행자 한 사람을 치게 된다. 이 경우 자율주행차는 어떤 알고리즘을 가지고 있어야 하는가? 물론 인간의 이성적 판단과 동등하게 핸들을 꺾는 판단을 하는 알고리즘을 가져야 대다수 공감을 얻을 수 있었다. 그런데 핸들을 꺾어서 다치는 사람이 보행자가 아니라 자동차 탑승자라면? 자율주행차는 보행자와 탑승자 사이에 누구를 보호해야 할까.이 질문은 20하나 6년 6월 과학 학술지'사이언스'에 실린 논문과 관계 있다. '자율주행의 사회적 딜레마(The social dilemma of automous vehicles)'라는 제목의 이 논문은 사람들에게 위와 같은 질문으로 설문 연구를 진행했습니다. 이 설문 조사 연구에서 대다수의 사람들(78%)이 다수 보행자를 보호하기가 점점 더 윤리적이라고 답하더라고요. 그런데 흥미로운 것은 그 2계의 질문이었다.그럼 자동차 탑승자보다 보행자의 안전을 우선으로 하는 자율주행차를 구입합니까?눈치챘는지 모르겠지만 대부분의 사람들은 그런 차를 구입하지 않는다고 대답했습니다. 이성적인 판단으로는 대다수 보행자가 우선이지만 그 차의 탑승자가 자신이 거인일 경우 반드시 딜레마에 빠져 예기했다.그렇다면 자동차 연구들의 판단은 어떨까. 얼마 전 메르세데스벤츠의 한 고위 이다원은 보행자보다 자동차 탑승자의 안전을 우선한다는 발언을 했는데 언론의 비판을 받았어야 했습니다. 나의 연구입장에서는 자연스러운 결론일지도 모른다는 발언은 사회적 논쟁을 불러일으키기 십상이었다.곧바로 당시 영국 신문 '데하나리 메하나(Daily Mail)'에서도 이런 기사를 내보냈다.메르세데스벤츠는 자율주행차가 방향을 바꿔 탑승자가 다칠 위험을 감수하기보다는 애기를 할 것이라고 인정했습니다. 그런 비판은 있어도 대책이 없는 게 현실이었다. 독일 연방교통부는 사건을 피할 수 없는 귀취에서 자율주행차가 어떤 선택을 해야 옳은지 표결할 수 없다는 공식 입장을 밝힌 상태다.자, 그렇다면 역시 당신에게 질문을 해 보겠다. 이번에 당신은 자율주행차 개발자다. 위의 귀취에서 트롤리 딜레마가 발생한 경우, 당신은 어떤 판단을 내릴 것인가? 하지만 요즘 당신에게는 머릿속에서만 일어나는 지적 유희가 허용되지 않는다. 개발자들은 알고리즘을 가지고 실행하지 않으면 안 되기 때문에 투표를 하기 어려울 것이다 조슈아 그린이 증명한 이중 처리 방식의 도덕적 뇌를 자율주행차에 당신에게 이식한다고 해도 결론을 내릴 수 없을 것이다. 다시 예기하고 이성적 판단과 정서적 판단을 모두 동원해도 자율주행 알고리즘은 사회적 합의를 이끌어내기 어렵다. 다만 심증만 있을 뿐 자율주행차의 윤리적 딜레마를 연구하는 라황 MIT 교수가 말한 예기가 그 심증을 대변할 것이다.사람들은 자신을 희생하는 차를 사지는 않지만 다른 사람들이 그런 차를 사기를 원할 것이다.정의란 무엇인가.


    >


    정의는 개발자의 알고리즘에 의해 실장되지 않는다. 그렇게 간단한 문제라면, 영화처럼 배트맨이 슈퍼맨과 싸울 리는 없고, 아이언맨이 캡틴 아메리카의 胸살을 잡지 않았을 것이다. 이들은 정의의 편에 섰지만 각자의 신념에 따라 정의 대 정의는 얼마든지 충돌할 수 있다.트롤리 딜레마 자율주행 알고리즘 문제도 마찬가지다. 4차 산업 혁명은 인간의 철학적 딜레마를 세상 밖으로 끌어내네용앗다. 그러나 그 딜레마는 어느 쪽이 정의라고 쉽게 정의할 수는 없다. 정의할 수 없는 알고리즘은 1종의 버그인 버그를 탑재한 자율 주행 차는 도로 위를 달리는 것이 없다.이런 자율주행차의 윤리적 딜레마를 해결하기 위해 라판 MIT 교수는 '모럴 머신(Moral Machine)'이라는 플랫폼을 개발했습니다. 이것은 여러가지 딜레마를 설정해, 각 딜레마에 대해서 사람들의 생각을 수렴하는 플랫폼이었다.이처럼 다양한 딜레마에 대해 정량화된 데이터를 도출함으로써 사회적 합의를 도출하기 위한 노력이었다. 그 플랫폼은 약 2,600만개의 트롤리 딜레마에 대한 판단을 정량화시켰다. 그 때문에 탑승자와 보행자의 연령, 성별, 인종 및 행동의 변천 등 여러 변수를 넣고 있어 하나 0개의 언어를 사용하여 다양한 정부의 400만명을 대상으로 설문 연구한 데이터를 입력했습니다.이렇게 만들어진 '모럴 머신'의 대략적인 결론은 다소 소리와 같았다. 우선 탑승자보다 보행자 안전이 우선했다. 그래서 성인보다 어린이를 보호한다는 판단이 많았다. 만약 핸들을 꺾어야 한다면, 교통 법규를 지키는 통행인보다 무단 횡단 보행자를 친다고 판단했습니다. 그러자 신이 모럴 머신의 판단에도 차이점이 있었다. 이를 특정정부로 제한할 경우 결과가 다르게 자신이 나타났다는 점이었다.예를 들어 보다 많은 생명을 구하는 방향으로 판단한다는 응답이 1반 적이라면 독 1 같은 경우에는 교통 법규를 지키는 사람 하나 사람들을 피하고 무단 횡단 보행자들을 찍는다는 판단이 높은 쟈싱타했다. 이런 양상은 여러 딜레마 속에서 다양하게 자신감이 드러났다. 결국 정부의 마지막 솥이며 가장 정의로운 판단의 기준은 달랐다.정의 혹은 도덕적 판단은 가치와 신념을 반영한다. 사람마다 다르며 좀 더 범위를 넓히려면 정부, 말, 가마, 이것도 문화에 따라 다를 수 있다. 심지어 지금도 정부 가마솥처럼 적용되는 규제와 법이 존재한다. 예를 들어 차량 앞에 설치하는 보조 범퍼가 그렇다. 이 보조범퍼는 충돌로부터 탑승자를 보호하기 위해 만들어졌지만 반대로 보행자는 부상 위험이 높다는 연구결과도 있다. 이 보조 범퍼는 영국에서는 불법이지만, 미국에서는 합법이었다 자동차 LED의 전조등도 마찬가지로, 이것은 매우 밝아서 night 운전시에 좋지만, 반대편 운전자는 눈부심이 생겨 위험할 수 있다. 이 LED 조명은 우리 회사 신라에서는 불법이지만, 재팬에서는 합법이었다 그래서 도덕 머신이 지구적인 자율 주행 차의 알고리즘을 개발했다 하더라도 모든 정부에 동 1 하게 적용하는 것은 사실상 불가능할지 모른다. 아마도 각 정부 모두 자율주행차의 도덕적 판단 기준을 달리할 것이고, 그에 따라 정부 간에 다른 규제와 법안이 탄 생활의 현실성이 크게 높다. 사실 정부 간 차이도 문제지만 더 심각한 것은 어느 정부 내에서도 사회적 합의를 이끌어내기 어렵다는 점이다.자율주행차의 가장 궁극적인 모습은 무인자동차다. 어쩌면 가까운 장래에는 인간의 운전이 위험하다는 이유로 전면 금지하는 법안이 허용될 가능성도 있다. 세계 보건 기구(WHO)에 따르면 매년 세계에는 하나 25만명이 교통사 그리고 사망한다. 만약 자율 주행 차가 상용화되면 사망자가 하나 0분의 한개 이하로 줄어들 것이라고 전문의들은 예상하고 있다. 이처럼 이상적인 자율주행 교통체계를 구축해 교통사고가 없는 세상을 꿈꾸겠지만 그 과정에서 택시운전사, 버스운전사, 트럭운전사 등은 일자리를 잃을 터였다, 아마도 많은 사람들이 파업과 시위를 통해 자율주행차에 반대할지도 모른다.


    >


    자전거의 발전은 자가용에도 제약을 가하는 것이었다 이렇게 되면 도로 위 차량이 줄어 교통체증이 사라지고 주차장 부족 문제도 해결될 텐데 줄어든 차량일수록 누군가 역시 손해를 보게 된다. 주차장, 통행요금업체, 카센터, 운전기사, 식품점에 이르기까지 많은 업자나 사람들은 이런 변화에 저항할 것이다 뿐만 아니라 자율주행차가 문재를 하나로 뭉쳤을 때 발생하는 법적 문재도 골치 아픈 하나였다. 그것은 탑승자의 잘못인가, 아니면 제조사의 잘못인가? 고소를 해야 한다면, 어떤 고소를 해야하는지 그리고 보험처리는 어떻게 해야하는지? 지금까지 보아온 수많은 문재들에 대해 해결의 의도를 모색하고 있지만, 버거운 것이 현실이었다 어쩌면 이런 문재가 자율주행차의 기술혁신에 발목을 잡고 있다고 봐야 한다.지금까지 테슬라 구글 우버 벤츠 도요타 등이 자율주행 기술에 이미 앞서 있다. 그러나 이들 작은 기업이 속한 정부를 보자. 미국, 독일, Japan이 자율주행차 상용화에 이미 앞설 것 같지만 현실은 여러 가지 딜레마 속에서 사회적 합의를 도출하기까지 어려움을 겪고 있다.어쩌면 중앙집권적인 정부일수록 자율주행차의 딜레마를 해결하는 것이 가장 쉬울 수도 있다. 예컨대 아이덤 스미스가 이야기한 보이지 않는 손보다 정부의 시장개입이 더 많은 정부라면, 역시 택시기사가 시위를 벌일 수도 없고 트럭기사가 파업을 하기 어려운 정부라면 모든 법적 제도적 난제를 최고 권력자의 의사자결 한 방에 조용히 잠재울 수 있는 그런 정부.공리주의가 옳은가


    >


    서기 20일 8년 7월 하루 낮, 구 와잉눙스마ー토폰 속에 그 다음의 긴 인공 지능 빅스비(Bixby)에 너무 어려운 철학적 난제를 물어보기로 결심했습니다. 그것은 모든 인류에게 있어 한번쯤은 생각해 본 적이 있을 것이고, 트롤리 딜레마만큼 말도 안 되는 질문이었다."빅스비, 엄마가 좋아?""아빠가 좋아?""그러자 빅스비가 대답했습니다.음 부모라는 좋은 단어가 있네요.맥이 빠진 엉뚱한 대답이다. 물론"후"라고 하는 아키타조도 넣어, 꽤 상념하고 있는 흔적이 엿보이고 있습니다. 어쩌면 인공지능에 인간의 감수성이 다음의 긴 정서적 판단을 기대하는 것은 불가능할지도 모른다.아마 인공지능은 공리주의를 표방할 터였다."최대 최대의 행복"이라는 공리주의는 모든 판단에 있어서 계산의 전망을 전제로 하고 있다. 계산은 손해보다 이익이 더 많은지 측정하는 것이었다 이런 이유로 공리주의는 도덕철학이라기보다는 도덕과학이라고 주장한다.윤리적 판단·인적 증거를 비용-편익 분석만으로 이해하면 쉬워진다. 뿐만 아니라 4차 산업 혁명의 당초의 첨단 기술에 심어야 한다 도덕적 알고리즘을 적용하기에도 용이하다. 모든 사물을 통해 광범위한 데이터를 수집할 수 있는 빅 데이터 기술은 이런 공리주의적 판단에 수치화된 인적 증거를 제시할 수 있기 때문이었다.보행자와 탑승자 중 어느 쪽을 활용하는 것이 이익인지를 판단하고, 어린 시기와 성인 중 어느 쪽을 활용하는 것이 이익인지를 판단할 것이다. 어쩌면 아랍인인지 미국인인지 인종을 구분하는 데이터 값이 있을지도 모르고, 유명인과 일반시민 중 어느 쪽을 활용하는 것이 이익이 높은지 수치화된 데이터를 제시할 수도 있을 것이다.20일 7년 8월 23일 세계 최초로 독일은 자율 주행 차에 대한 윤리 지침을 발표했습니다. 독일 연방 교통성 그리고 회사 4명의 과학자와 법률 전문가로 구성된 '디지털 인프라 그 다음 무당 윤리 위원회'은 자율 주행 기술이 지켜야 할 20가지 지침을 만들었다.이 지침에서 주목해야 하는 것은 인명에 대해 표준화된 지침은 불가능하다는 스토리이다. 그것은 나이, 성별, 인종, 장애기에 대해 우선순위를 판단해서는 안 된다는 것을 의미한다. 다시 이야기해서 아이를 살리기 위해 노인을 죽이는 것은 올바른 판단이 될 수 없다. 이런 독일의 가이드라인은 인간의 존엄성에 대해 공리주의적 판단을 차단했다는 점에서 의미가 있었다. 다만 법적인 강제성은 없었다.한 가지 아쉬운 점은 트롤리 딜레마에 대해서도 판단을 유보했습니다. 결국 이 위원회가 고민 끝에 내린 결론은 이강과 같다.차량 시스템은 인간의 결정에 따라야 한다.인간의 결정을 대신해야 할 자율주행차에 인간의 결정에 따르라고 말하는 다소 어이없는 결론이긴 하지만, 어쨌든 인간의 존엄성과 가치판단을 아직 기계로 양보할 수 없다는 의지의 표명으로 이해해야 할 것이다.공리주의는 쉽게 계산할 수 있다는 이점이 있다. 수치화된 데이터로 무장한 공리주의는 4차 산업 혁명에 깊이 관여할지도 모른다. 그러나 우리는 모든 가치가 비용-편익 분석만으로는 환원할 수 없다는 사실을 알고 있다. 알고는 있지만, 자율 운전 알고리즘에 들어갈 수 있을 정도로 증명되지 않았습니다. 철학과 하면 마치 일 9세기의 학과에 다니는 20세기 정도에 그치는 느낌을 받기도 한다. 그만큼 철학이 발전하지 못한 것은 아닐까. 자율주행, 인공지능, 빅데이터가 확산되는 세상인데 아직도 우리는 아리스토텔레스과의 벤구, 칸트, 롤스와 같은 고전 읽기 수준의 철학을 줄인다. 그런 철학자는 인공지능 빅스비와 대화한 경험도 없다.지금은 그들이 남긴 철학적 유산을 4차 산업 혁명에 맞추어 발전시켜야 한다. 가상현실과 증강현실이 인간사회에 미치는 영향을 탐구해야 하고, 사물인터넷과 빅데이터가 인권을 침해하는 것이 아니라 인권을 보호할 수 있도록 해야 하며, 로봇과 인공지능이 인간을 대신하는 것이 아니라 인간을 풍요롭게 해야 한다. 우리가 철학적 난제를 회피하면서 또는 윤리적 딜레마를 계산하기 쉬운 공리 주의에만 의존하면서 자율 주행 차와 4차 산업 혁명은 인간에게 재앙이 되는 것이었다 든 영감을 준 자료 BOOK호모 제우스(미래사)/유발 하라리/김영사/20일 7.05. 것 9BOOK, 선악/조슈아 그린/시공 회사/20일 7.02.20BOOK, 정의란 있는 사람?/마이클 샌델/와이즈 베리/20일 4. 하루.20SERICEO자율 주행 차가 바꾸는 한국의 도시/정 쿠민/20일 7.09. 것 8


    전편을 보다


    >



    댓글

Designed by Tistory.