>   미래연구   >   미래서평

미래서평

국내외 미래관련 서적 및 논문을 소개합니다

인공지능의 핵심은 인간의 선호를 예측하는 것 - Human Compatible: Artificial Intelligence and the Problem of Control 표지

인공지능의 핵심은 인간의 선호를 예측하는 것 - Human Compatible: Artificial Intelligence and the Problem of Control
  • 저자 : Stuart Russell
  • 출판사 : Viking
  • 발간일 : 2019



인공지능의 핵심은 인간의 선호를 예측하는 것 

- Human Compatible: Artificial Intelligence and the Problem of Control-




박성원 (국회미래연구원 혁신성장그룹장)



“인공지능이 매우 급진적으로 발달해 인간 수준의 지능을 갖추었을 때, 인류가 추구하려는 가치에 동의하지 않는다면 인류는 어떤 선택을 해야 하는가?”


이는 미국 U.C. 버클리대학의 컴퓨터학과 교수 스튜어트 러셀이 2019년 펴낸 Human Compatible(인간과 인공지능의 양립)에서 제기한 매우 도전적인 문제다. 그는 한국인 독자에게도 친숙한데, 구글 엔지니어 피터 노빅과 공저한 인공지능: 현대적 접근방식이라는 책 덕분이다. 600페이지가 넘는 두툼한 책 2권으로 구성되어 있으며 110여 개국, 1,300개의 대학에서 인공지능 교과서로 읽히고 있다.


지난해 가을 출간된 이 책을 알게 된 것은 최근 유럽의 인공지능 연구자들과 회의를 하면서였다. ‘인공지능과 사회변화’라는 주제를 놓고 한국을 포함한 15개국 전문가 모임이 결성되었고, OECD의 도움을 받아 Global Partnership on Artificial Intelligence(약어로 GPAI)가 출범해 나도 이 모임의 ‘미래의 일자리’ 분과에 참여하고 있다. 분과 모임에서 프랑스 출신의 인공지능 연구자가 인간과 인공지능의 협업을 언급하면서 레셀의 휴먼 컴페터블이라는 책을 추천했다. 읽어보니 미래학 관점에서도 매우 흥미로운 책이었다.


다시 첫 질문으로 돌아가 보자. 러셀은 이 책에서 인공지능 연구가 당면한 복잡한 기술적 난제를 설명하면서도, 사회적 가치의 문제에 상당한 분량을 할애한다. 한 사회가 선호하고 추구하는 가치는 그 사회가 어디를 향하는지 가늠하게 한다. 그래서 공자는 한 사회의 예법을 알면 그 사회의 3,000년 뒤까지도 예측할 수 있다고 말했다(논어, 자장과 대화 중에서). 예법은 사회가 추구하는 가치의 총체다. 만약, 사회 구성원들이 지배적인 가치에 대해 동의하지 않으면 갈등이 발생하고, 이를 풀지 못하면 사회는 분열되고 붕괴된다. 앞으로 인공지능과 함께 살아갈 것으로 예측되는 미래에 인공지능과의 가치 대립 문제는 중요하지 않을 수 없다.


가치에는 필연적으로 선호가 부여된다. 한 사회는 모든 가치를 같은 무게로 담지 않기 때문이다. 어느 특정 가치는 다른 가치보다 우선한다. 경제개발의 목표가 중심이었을 때, 한국 사회는 전문성, 효율성을 최우선의 가치로 삼았다. 그러나 이 목표가 어느 정도 달성되고 사회가 다원화, 다변화되면서 공존, 공감, 포용이라는 가치가 중요해졌다. 세계적 감염병이 창궐한 올해처럼 급변의 시기에는 회복성(resilience) 같은 가치가 부각된다. 이처럼 시대에 따라 주요 가치는 변한다. 가치는 한 사회가 유지되고 발전하는데 방향타 역할을 하기에 거스르기 힘들다. 때론 가치 간에 경쟁이 일어나고 살아남은 가치가 사회의 지배적 가치로 등극하기도 한다.


러셀은 인공지능을 설계할 때 우리가 물어야 하는 중요한 질문은 “어떤 사회적 가치가 더 선호되어야 하며, 그 가치의 실현을 최적화하는 방법은 무엇인가”라고 밝힌다. 왜 가치의 문제가 중요할까. 러셀은 인공지능의 정의를 “인간이 정한 목표를 이루도록 능력을 발휘해 인류에게 도움이 되는 존재”로 본다. 인간의 목표는 매우 다양하다. 작게는 오늘 저녁 무엇을 먹을까를 정하는 것, 또는 어떤 주식과 부동산을 사야 하는지를 정하는 것, 크게는 어떤 정책을 펴야 경제적 양극화나 기후변화에 대응할 수 있는지 등 일 수도 있다.


그런데, 이런 문제들을 결정할 때 도움을 받기 위해 인공지능을 개발하다 보면 딜레마에 빠진다. 누구의 유익을 위해 인공지능을 개발해야 하는지에 관한 문제다. 난감한 상황을 예로 들어보자.


나는 오늘 아침에 인공지능 비서로부터 아내와 함께할 저녁 만찬 장소를 예약했다는 얘기를 듣는다. 나는 “앗! 왜지?”라고 깜짝 놀라 묻는다. 인공지능 비서는 오늘이 결혼기념일이고 이미 내 아내에게도 저녁 약속 장소를 알려줬다고 답한다. “이런! 오늘 영국에서 오는 외국 바이어와 저녁 먹기로 했는데. 이분과의 약속은 깰 수 없는데, 어쩌지?”라고 나는 되묻는다. 인공지능은 그럴 줄 알고 그 외국 바이어가 예약한 비행기를 취소하고, 다음날 오도록 조정했다고 (자랑스럽게!) 이야기한다. “그래? 이거 그분께 미안한데...”


인공지능의 결정(외국 바이어의 약속을 미루고 아내와 약속을 먼저 챙긴)은 사실 나의 결정(아내보다는 외국 바이어와 비즈니스가 더 중요)과 배치된다. 그러나 인공지능은 아내와의 약속이 더 중요하다고 판단했다. 이 인공지능의 의사결정 알고리듬은 누구의 선호가 반영된 것인가. 나인가, 내 아내인가. 아니면, 가족우선주의라는 사회적 분위기인가.


모든 의사결정에는 상충의 지점이 존재한다. A를 선택하는 순간, 또 다른 선택지 B는 버리게 된다. 아내와 약속을 지키면서 바이어와 약속을 어긴 것처럼. 좀 더 논의를 확장하면, 누군가의 이득은 또 다른 누군가에게 해가 된다. 한정된 자원 환경에서 나의 이득은 남에게 손해가 된다. 나의 즐거움이 누군가의 고통이 되기도 한다. 이런 상황에서 인공지능은 누구의 선호를 반영해야 하는가. 러셀은 이럴 경우 인공지능에게 원칙을 정해주고 최적의 해를 찾아내라고 하면 된다고 주장한다.


예컨대, “나의 선택으로 상대가 고통을 받는다면 나도 그렇게 즐겁지는 않을 테니, 서로 이익과 고통을 분담하는 선에서 결정”한다는 원칙을 세울 수 있다. 러셀은 여기서 이 원칙을 실행하기 전에 각자가 어떤 미래가 오면 좋을지를 생각해놓는 것이 더 중요하다고 말한다. 내가 선호하는 미래가 없다면 이 원칙을 지킴으로써 얻을 것이 없다. 바라는 것이 없거나 애매하다면 인공지능을 개발해 얻는 결과도 애매해진다.


러셀은 인공지능을 통해 인류가 얻어야 할 것은 인간의 선호 예측이고 선호의 실현이라고 주장한다. 아마존은 독자들의 선호를 예측해 읽고 싶은 책을 미리 추천하는 인공지능 서비스로 급성장했다. 그는 선호의 예측이란 선호가치의 예측이고, 선호가치는 현세대는 물론 미래세대의 선호도 반영되어야 한다고 강조한다. 이 때문에 인공지능은 중장기적 시계에서 인류의 선호를 예측하도록 프로그래밍 되어야 한다. 그래야 미래세대의 선호까지 반영된다.


결론적으로, 러셀은 인공지능이 인간의 가치를 따르도록 개발되어야 한다고 주장한다. 이를 위해 3가지 원칙을 제시한다. 첫째는 이타적 인공지능의 개발이다. 이타적인 인공지능은 인간의 선호를 실현하는 인공지능을 말한다. 인공지능의 선호가 추구되어서는 안 된다.


둘째는 겸손한 인공지능의 개발이다. 사실, 인간의 선호는 시대와 장소에 따라 다를 수 있다. 한 인간의 선호도 바뀔 수 있다. 그렇다면 인공지능은 어느 특정 선호가치를 맹목적으로 추구해서는 안 된다. 인간의 선호가 확고하게 정해져 있지 않다는 점을 받아들여야 한다. 여기서 겸손한 인공지능이란 인간이 인공지능의 행동에 위험을 느껴 전원을 꺼버렸을 때, 이런 인간의 행동을 자신에게 부정적인 것으로 받아들이지 않고, 인간의 달라진 선호를 받아들이는 신호로 해석한다는 의미를 담고 있다.


마지막으로 인간의 선호를 더 정확하게 예측하도록 끊임없이 배우는 인공지능의 개발이다. 인간은 때로 비합리적, 비이성적으로 행동할 때가 있다. 인공지능이 보기에 선호가치의 추구에서 일관성을 발견하지 못할 수도 있다. 이럴 때 인공지능은 인간의 행동을 지속 관찰하면서 행동에서 나타나는 선호의 패턴을 발견하도록 노력해야 한다.


저자는 인공지능이 인간의 선호에 반하는 행동을 해서는 안 된다고 누차 강조하지만, 한편으로 인간의 어리석음을 경계하고 고쳐나갈 수 있는 방법으로 인공지능의 도움을 받아야 한다고 역설한다. 이것이 인간보다 훨씬 합리적인 선택을 할 가능성이 높은 인공지능과 긴밀하게 협업해야 하는 이유다.