이 책은 두껍지 않은 분량으로, 인공지능과 관련된 핵심 쟁점들을 쉬운 언어로 풀어쓰고 있다.
사상가들의 사고실험과 인공지능의 발전 현황, 영화를 통한 예시로 인공지능을 잘 모르는 사람이라도 쉽게 이해할 수 있게 한다. 인공지능을 알아보고 싶은 학생, 수업을 준비하는 교사 등 인공지능 윤리 입문서적으로 강력 추천한다.
"인공지능이라는 주제를 탐구하는 철학자로서 나는 '인공지능은 사고할 수 있는가?'라는 기본적 물음 자체도 '사고란 무엇이며, 마음이란 무엇인가? 마음은 신체나 두뇌 같은 물리적 구조와 어떤 관계를 갖는가?'라는 철학적 물음과 근본적으로 연관되어 있다는 것을 알고 있습니다."
인공지능은 더 이상 영화나 소설의 소재로만 사용되는 공상과학의 소재가 아니다.
알파고와 이세돌의 바둑 대결에서 볼 수 있듯이, 인공지능은 어느새 인간의 기능을 능가하고, 인간의 본질을 위협하고 있다. 그러나 인공지능에 관한 지나친 오해와 편견을 섣불리 가지는 것도 경계해야 할 것이다. 왜냐하면 우리는 인공지능을 잘 모르고 있고, 우리가 지니는 대부분의 이미지들은 영화나 소설에서 차용된 것이기 때문이다. 따라서 인공지능을 잘 활용하기 위해선, 인공지능을 올바르게 이해할 필요가 있다.
인공지능은 우리를 속일 수 있는가?
1) 생각하는 기계
'앨런 튜링'은 인공지능이 인간과 같은 사고력을 지녔을 지 판단할 수 있는 방법을 제시한다. 예를 들면, 인간은 앞에 책상이 있다는 것을 확인하면 마음의 작용에 따라 적절하게 반응한다. 이와 마찬가지로, 인공지능도 인간과 동일한 방식으로 반응하면 마음이 있다고 볼 수 있다는 것이다.
2) 튜링 테스트
질문자는 각자 방에 격리된 남녀에게 일련의 질문을 전송한다. 이 때, 남자는 여자인것 처럼 가장하여 답변함으로써 질문자를 속이려한다. 질문자는 두 사람을 대면하지 않은 상태에서 각자의 성별을 판단해야 한다.
앨런 튜링은 이러한 '모방 게임'을 변형하여, 인공지능 기계와 인간이 질문에 답변할 것을 제안한다. 즉, 질문자는 답변을 보고, 누가 인간이고 인공지능 기계인지 판별해야 하는 것이다.
튜링에 따르면, 기계가 인간만큼 상대를 잘 속인다면 인간에게만 부여하는 지적 속성을 기계에 부여해야 한다고 주장한다. 테스트 결과, 기계인지 사람인지 구별할 수 없다면, 이 인공지능 기계는 튜링 테스트를 통과하여 마음을 갖고 있다고 간주해야 한다.
3) 기능주의
인공지능 컴퓨터는 '기능주의 모델'과 잘 부합한다. 기능주의는 사람의 심리상태를 외부의 물리적 자극에 의해 일어나고, 특정한 형태의 행동을 일으키는 내적 상태로 파악한다. 마음은 외부의 물리적 자극으로부터 '입력'되고, 입력에 의해 내적상태가 변화하여, 언행으로 '출력'된다.
기능주의는 입력과 출력의 인과관계만 드러낼 뿐, 내적상태에 대해서는 언급하지 않는다. 기능주의 관점에서는 인간의 사고과정이나 인공지능의 사고과정이 정확히 대응하기 때문에 동등하다고 본다.
기능주의 관점으로 튜링 테스트를 파악하면, 인간이 생각한 것과 인공지능이 계산하는 것은 아무런 차이가 없다. 질문은 '생각'이라는 심리상태를 야기하는데, 인간과 동등한 수준의 답변을 출력하면 사실상 인간과 동등한 것이기 때문이다. 기능주의는 유기체든 기계든 간에 상관하지 않고, 오직 기능과 역할에 따라 마음을 정의하고 있다.
4) 코기토 테스트
사람을 속일 수 있지만, 돌이나 책상, 개나 고양이를 속일 수는 없다. 아무 것이나 속임을 당할 순 없으며, 속임을 당하기 위해서도 '모종의 능력'이 필요하다.
'데카르트'는 확실한 것의 토대 위에 학문을 세우기 위해 '의심할 수 없는 것'을 찾으려 했다.
만약 전지전능한 악령이 나를 속이더라도 속을 수 없는 것이 있다면, 그것은 '나는 생각한다'라는 '코기토 명제'이다.
속이는 것은 잘못 생각하게 만드는 것이기 때문에, 오직 생각할 수 있는 존재만을 속일 수 있다. '나는 생각한다'를 속이려면, 역설적으로 '나는 생각한다'를 전제하고 있어야 한다. 따라서 '나는 생각한다'는 의심의 여지가 없는 확실한 것이 될 수 있다.
우리가 기계를 속일 수 있는 것은 기계가 사고능력을 갖고 있다는 것과 같다. 즉, 기계가 튜링 테스트를 통과한다면, 기계는 사고능력을 갖고 있다고 볼 수 있다. 이 때, '존 써얼'은 '중국어 방 사고실험'으로 튜링 테스트를 반박하려 한다.
5) 중국어 방
자신의 모국어가 영어이고, 중국어를 전혀 모르는 상황을 가정해보자. 중국어 단어가 들어있는 상자가 있고, 외부에서 중국어로 물어볼 때 대답하도록 하는 규칙이 주어진다. 질문을 받으면, 방 안에 있는 사람은 규칙에 따라 구성한 답변을 내보내고, 밖의 사람들은 답변을 읽게 된다. 이에 따르면, 외부 사람들은 중국어를 알고 있다고 생각하지만, 실은 그저 형식적 규칙에 따라 계산적 기능을 수행한 것이다. 즉, 방 안에 있는 사람은 중국어에 관해선 단순히 컴퓨터처럼 반응한 것에 불과하다.
써얼에 따르면, 기계는 외면적으로 언어를 이해하는 것처럼 보이지만, 진정으로 사고하는 것은 아니다. 튜링 테스트를 통과한 기계가 결여한 것은 주관적인 일인칭 시스템에서 언어를 이해하는 경험이다.
'중국어 방 사고실험'은 내면의 의식과 경험 없이는 진정한 사고도 없다는 것을 보여준다.
진정한 사고력을 부여하기 위해선 자신의 사고를 의식하는 '코기토 테스트'를 통과해야 하는 것이다. 따라서 기계가 튜링 테스트를 통과하더라도, 코기토 테스트를 통과하지 못하면 사고능력을 부여할 수 없다.
6) 사고는 의식을 동반하는가
비트겐슈타인에 따르면, '무엇을 이해하는 것'이 반드시 '이해하는 것을 자각하는 의식작용'을 함축하는 것은 아니다. 다시 말해, 믿음이나 욕구와 같은 심적상태마다 특별한 종류의 감각적 특질이 동반되는 것은 아니다.
모든 사고에 의식이 동반된다는 코기토 테스트와 달리, 많은 경우엔 내면의 의식이 없어도 이해가 가능하다. 인간도 어떤 상황에서 코기토 테스트를 못 통과할 수도 있다. 따라서 코기토 테스트는 지나치게 엄격한 것이다.
인공지능은 마음을 구현할 수 있는가?
1) 두 개의 마음
인간의 마음은 '지향적 마음'과 '현상적 마음'으로 이루어진다.
'지향적 마음'은 대상을 향하는 마음으로, 사고내용을 대상으로 하여 다양한 태도를 취한다. '현상적 마음'은 주체에게 보이거나 느껴지는 질적인 경험이나 주관적 느낌, 내면의 의식상태를 말한다.(감각질)
감각의 질적 경험 없이도 믿음을 가질 수 있기 때문에 지향적 마음에는 감각질이나 의식이 동반되지 않는다. 감정이나 정서는 질적인 느낌도 주고, 주체에게 명제의 내용도 귀속시키므로 지향적 상태와 현상적 의식이 혼합되어 있는 것이다.
현상적 마음은 주체의 내면에서 주관적으로 느껴지기 때문에 제3자가 객관적으로 접근하거나 인지할 수 없다. 주관적 의식은 주체 자신만이 확실하게 느낄 수 있기 때문에 데카르트의 코기토 원리는 현상적 마음과 관련이 있다. 지향적 마음은 제 3자의 객관적 관점에서 이해하고 접근할 수 있기 때문에 관찰가능한 입력과 출력을 통해 드러난다. 이에 따라, 입력과 출력의 관계에서 지향적 마음과 기능적으로 동등한 튜링기계를 고안함으로써 지향적 마음을 기능화할 수 있다.
욕구와 믿음과 같은 마음의 부분은 기계가 모방하고 구현할 수 있다. 현상적 의식은 주관적이기 때문에 애초에 기능화할 방법이 없고, 포착될 수도, 설명될 수도 없다. 인공지능 기계가 인간의 마음을 대부분 모방하더라도, 그것은 지향적 마음에 한정되기 때문에 인공지능은 의식을 가질 수 없다.
2) 기능화
인간의 마음에서 '기능적 마음'이 어디까지 차지하는지 알 수 있다면, 인공지능이 마음을 얼마나 구현할 수 있는지 알 수 있다. '기능적 환원주의'에 따르면, 마음과 몸이 환원이 이루어진다면 마음은 물리적인 것 외에 다른 것이 아니라고 간주한다. 이에 따라, 비물질적인 영혼이나 정신을 상정하지 않고, 마음도 물리적 신체 안에서 일어나는 현상이라는 것을 보여주려 한다.
우리의 사고, 믿음, 욕구와 같은 마음의 활동 기반은 두뇌 신경체계이므로, 두뇌 없이는 마음도 없게 된다. 우리가 어떤 심리상태에 있다는 것은 그러한 심리상태를 실현시킨 실현자의 두뇌상태에 있다는 것이기 때문이다.
물리적 환원이 성공하기 위해선 '기능화 과정'을 거쳐야 하므로, 기능화할 수 없는 마음은 물리적으로 환원될 수 없다. 우리의 마음은 대부분 '기능적 마음'이며, 기능화할 수 없는 의식은 극히 작은 부분에 불과하다. 물리적으로 환원될 수 없는 의식은 물리세계에 위치할 수 없기 때문에 물리계에서 인과적 역할을 할 수 없다. 다시 말해, 의식이 존재하더라도 아무런 인과력 없이 존재하기 때문에 물질에 어떠한 영향도 미치지 않는다. 따라서 기능적 환원주의에 따른다면, 인공지능이 현상적 마음을 갖지 못하더라도 인간의 마음을 충분히 모방할 수 있게 된다.
3) 의식과 감각질
마음을 기능화하는 가장 기본적인 방법은 질문과 답변을 통하는 것이다.
언어를 사용하는 인간들은 서로의 지각과 행동을 관찰하고, 대화를 통해 상대의 마음을 이해할 수 있다. 믿음과 관련된 조건과 행동들을 모두 입력과 출력, 내부상태에서 일어나는 역할로 재기술하면 기능화할 수 있다.
의식은 존재하지만, 물리세계에서 아무런 기능이나 인지적 역할이 없다. 의식에 인과력이 없다면, 의식이 존재해야 할 이유는 무엇이고, 의식의 역할은 무엇인가에 대한 의문이 남는다.
4) 직관
'직관'은 증거나 의식적인 추론을 거치지 않고, 어떤 대상에 대한 지식이나 문제의 답을 직접적으로 파악하는 능력이다. 증명을 통해 옳고 그름이 확인되기 때문에 직관은 추론의 과정으로 증명되어야 한다. 직관이 추론의 여러 단계를 건너 뛰어 결론에 도달하는 것이라면, 인공지능은 직관을 가질 수 있다고 보아야 한다. 왜냐하면 모든 경우의 수를 계산하는 것이 거의 불가능하고, 시간이 부족한 경우엔 인공지능도 직관을 사용하기 때문이다.
5) 주관적 관점
사고내용 없이 현상적 의식만으로는 사고의 진전이 이루어지지 않으므로, 숙고는 대부분 지향적 사고들로 이루어진다. 사고내용과 의미들 사이에서 추론과 함축, 일관성 등의 관계가 형성되며, 총체적 사고체계 안에서 세계관을 형성한다.
사고의 내용들은 총체적으로 연결해주는 것은 논리적 의미의 연관성이지, 현상적 의식이 아니다.
사람들마다 갖고 있는 사고체계의 차이가 관점의 차이를 만들기 때문에 현상적 의식이 도입될 필요는 없다.
의식을 전제하지 않는 지향적, 기능적 사고만으로 관점을 가질 수 있다면, 인공지능도 관점을 가질 수 있다. 즉, 인공지능이 현상적 의식이 없더라도 지향적 사고체계를 형성할 수 있다면 세계관을 형성할 수 있다.
기계가 '주관적 관점'을 가진다면, '나'라는 말을 사용하여 자신의 생각을 표현할 수 있어야 한다. '비트겐슈타인'에 따르면, 언어의 의미를 이해하는 것은 언어 공동체 안에서 언어의 규칙을 배우는 것이다. 기계도 '나'라는 말의 사용규칙을 공적으로 익힐 수 있기 때문에 일인칭 주어의 역할과 기능을 습득할 수 있다. 따라서 주관적 의식이 없더라도, 지향적 사고를 가지고 언어의 규칙을 배울 수 있다면 주관적인 일인칭 관점을 가질 수 있다.
인공지능은 감정을 느낄 수 있는가?
1) 의식 없는 좀비
고통은 직접 느끼는 것 외에는 그것이 어떤지 설명하거나 기능화하기 어렵다. 기능화할 수 없는 감정은 기계가 따라할 수 없기 때문에 많은 사람은 기계가 감정이 없다고 간주한다.
감정의 표현에도 기능적인 부분이 있으면 그것을 표현할 수 있다고 생각된다. 기능적 마음을 완벽하게 모방한 기계라면 의식이나 감각질 없이 감정을 표현할 수도 있다.
'의식 없는 좀비' 사고실험은 감각질이나 의식은 없지만, 인지적, 기능적 역할은 동등하게 수행할 수 있는 가능성을 제시한다. 즉, 우리는 동일한 행동적, 인지적 기능을 갖추어 우리와 다르게 보이지 않고, 의식만 결여된 좀비를 알아챌 수 없다.
2) 할(HAL)의 두려움
영화 '2001 스페이스 오디세이'에서 선장은 인공지능 컴퓨터 '할'의 반란을 진압하고, 작동을 멈추려고 한다. 할은 자신의 생명줄이 제거되는 것을 보면서 죽음의 공포와 두려움의 감정을 표현한다. 이 때, 할이 표현하는 감정은 다음 두 가지로 설명될 수 있다.
- 두려움을 표현하고 있지만, 내면적으로 두려움의 감정을 느끼는 것은 아니다.
- 두려움에 대한 기능적 역할을 충분히 수행하면, 두려움의 감정을 부여할 수 있다.
죽음의 두려움에 대응하는 인공지능의 지향적 태도들은 인간의 경우와 기능적으로 매우 유사하다. 감각질의 유무를 떠나, 죽음의 두려움을 어느정도 기능화할 수 있다면, 공포도 귀속할 수 있다고 보여진다. 우리의 감정에는 기능화할 수 있는 부분이 있기 때문에 기능적 마음으로도 어느 정도 감정을 표현할 수 있다. 감각질은 다른 사람이 접근할 수 없기 때문에, 기능화할 수 있는 마음으로 타인의 감정을 이해할 수 있게 된다.
3) 두 가지 방향
- 인공지능의 두려움이 인간의 지향적 마음만큼 기능적으로 잘 표현된다면, 감정을 어느 정도 부여할 수 있다.
- 인공지능이 표현하는 감정은 내면의 질적 느낌이 없는 것이므로, 인공지능은 의식이 텅 빈 좀비와 같다.
감정을 최대한 기능화할 수록 인공지능은 감정을 더 잘 구현하면서 점차 인간의 의식에 가까워진다. 기능화되지 않은 의식의 잔여물인 감각질이 있을지라도, 그것은 아무런 인과적 역할이 없는 잉여물이다. 이에 따라, 인간의 감각질과 의식은 실재하지 않으며, 기계와 마찬가지로 인간도 의식이 없다는 의견이 표명되기도 한다.
4) 공감
인공지능이 감각적 의식이 없더라도, 감정이 일어나는 원인과 결과를 분석하면 '기능적 공감'이 가능할 수 있다. 공감은 상대방의 '감정의 이유'를 공유함으로써 상대방의 입장을 이해하고 시뮬레이션하는 것이다.
공감은 지향적 태도로 이루어지기 때문에 감각질을 전제하지 않고도 공감은 가능하다. 즉, 슬픔에 해당하는 감각질이 없을지라도 슬픔이 지향하는 사고내용에 대해선 충분히 이해할 수 있다. 따라서 인간의 지향적, 인지적, 기능적 마음을 모방하고 공유할 수 있다면, 인공지능도 타인의 마음을 기능적으로 공감할 수 있다.
5) 상담사 일라이자
1966년 미국 MIT의 '조지프 와이젠바움 박사'는 '일라이자'라는 인공지능 컴퓨터 심리상담 프로그램을 개발했다. 일라이자는 수많은 패턴 대응 규칙을 갖추고, 사람이 키보드로 입력한 질문의 패턴에 맞추어 대답하도록 설계되있다. 일라이자는 상대의 말에 들어있는 감정이나 생각의 단어를 가지고 되묻는 패턴으로 대응한다. 그러자 사람들은 자신에게 공감해준다고 느끼기도 했고, 심지어 인간이라고 믿어, 몇 시간씩 대화하기도 했다.
일라이자는 내담자의 말을 그대로 받아서 긍정하는 모방과 반복의 기능만으로도 상담 기능을 수행할 수 있었다. 인공지능 상담이 더 나아간다면 사용자의 성격, 생활 방식, 행동 패턴을 학습하며, 개인화된 소통을 수행할 수도 있다. 즉, 내담자의 데이터를 구축하고 피드백하는 긴밀한 소통을 함으로써 정서적인 유대감을 형성할 수도 있는 것이다.
6) 상담
내담자의 고민과 고통을 이해하여, 문제해결에 도움을 주는 방식을 수행하기 위해 시뮬레이션 모델을 통해 공감을 학습시켰다. 내담자가 사용하는 감정의 언어, 한 사람의 인격과 관련된 특성을 나타내는 언어들을 인공지능과 소통할 수 있도록 기능화할 수 있다. 이처럼 인공지능이 감정의 언어를 기능적으로 정의할 수만 있다면, 인간처럼 자연스럽게 반응하고 공감하며 대화하게 될 것이다. 예를 들면, 실망은 소망하는 바와 그 그대가 무너졌다는 믿음, 좌절은 희망이 사라졌고 다시 복구할 수 없다는 믿음으로 정의할 수 있다.
인공지능은 생명과 개성을 가질 수 있는가?
1) 생물학과 전자공학
'노버트 위너'는 '사이버네틱스'를 창립하여, 기계가 변화하는 환경 속에서 어떻게 자신을 조절할지에 대해 설명했다. 그는 모든 목적 지향적 동작이 기계와 변화하는 환경 사이에서 주고받는 정보처리 결과로 설명될 수 있다고 파악했다. 또한 엄밀한 수학적 분석을 통해 생물학을 공학적 용어로 재기술함으로써 공학과 생물학의 통합을 꿈꾸었다.
사이버네틱스에 따르면, 정보의 소통이라는 측면에서 인간과 동물과 기계는 모두 동일한 원리를 따른다. 기계와 마찬가지로, 두뇌 신경망도 외부 환경으로부터 정보를 받아들이고, 자체적으로 정보처리과정을 거쳐 동작을 지시한다. 즉, 모든 기능적 체계는 입력과 내부과정과 출력 사이의 인과관계로 이루어지므로 기계와 두뇌 신경망은 기능적으로 동등하다. 따라서 인간 두뇌를 구성하는 신경들의 상호연결방식과 기능적 구조를 재현할 수 있다면 '전자신경'을 만들어낼 수 도 있다.
2) 생명
생물학자들은 살아있는 유기체를 받아들인 정보에 따라 자신의 행동을 변화하고 저정하는 시스템으로 간주한다. 이에 따르면, 생명의 핵심은 활기, 생기, 따스함, 호흡이 아니라, 정보의 저장과 이용, 전달 능력, 자기복제, 재생산에 있는 것이다. 그러나 오늘날의 생명의 새로운 정의는 질료가 아니라, 형식과 기능을 중시하고 있다. '셰리 터클'은 생명을 '자기 복제와 진화가 가능한 모든 개체'로 확장할 것을 제안하고 있다.
3) 사만다의 숨소리
스파이크 존즈 감독의 영화 '그녀'는 스마트폰을 통해 인공지능 '사만다'와 사랑에 빠지는 내용을 다루고 있다. 주인공 '시어도어'는 사만다가 숨소리를 내는 것에 대해 숨을 쉴 필요도 없는데 왜 흉내내는지 따진다. 비트겐슈타인에 따르면, 언어 사용 규칙을 배웠다면 언어를 이해한 것과 같다고 볼 수 있다. 사만다의 숨소리 역시 공동체의 사용 규칙을 학습한 것이므로, 거짓 숨소리라고 보기 어렵다. 사만다에 따르면, 호흡이나 숨쉬기는 일종의 신체 언어로서, 다른 언어를 배우듯 습득하였던 것이기 때문이다.
4) 개성의 조건
현대과학이 인공생명의 가능성을 함축한다면, 생명을 가진 인공지능이 '개성'을 지닐 수 있을 지에 관한 의문이 생긴다. 개성은 개인의 고유한 성품체계로서, 다른 사람과 구분하여 나를 나로 만들어주는 특성이다. 개인의 정체성을 이루는 욕구, 믿음, 가치들의 체계는 지향적 사고로서 기능화가 가능하다. 따라서 인공지능 역시 자기만의 경험을 할 수 있다면, 자신의 관점에서 경험하고 지향하는 개성을 가질 수 있다.
자신의 관점에서 자기만의 경험을 갖기 위해선 각자가 개별자로서 구별되는 몸을 가지고 있어야 한다. 한 가지 특정 영역에서만 지적과제를 수행하는 '단일지능'은 개성이라는 특징을 말하기 어렵다. 그러나 인간 사용자와 협력하여 일하는 인공지능이 있더라도, 사용자의 지시에만 작동한다면 개성이 있다고 보기 어렵다. 자신의 몸을 가지고 자율적으로 지적 작업을 수행하거나, 문제해결법을 터득하면서 스스로 학습한다면 개성이 있다고 볼 수 있다.
5) 캐릭터 봇
인터넷 상의 '캐릭터 봇'은 정체성에 맞게 자율적으로 행동하기 때문에 인간과 유사한 정체성을 보인다. 캐릭터 봇의 행동이 인간 사용자가 정해주는 것이 아니라, 자율적으로 반응하는 것이라면 개성을 가지는 것으로 보인다. 이 때, 인공지능에 정체성을 부여한 캐릭터 봇이 튜링 테스트를 통과할 정도라면 고유한 개성을 형성할 수 있다.
개성을 '개별자의 고유한 성품'이라고 정의한다면, 개별적 존재가 아닌 '지능의 유형'에는 개성을 부여할 수 없다. 진정한 의미에서 인공지능의 개성을 다루기 위해선 감각기관을 장착하고, 개별적 몸을 가진 로봇이 필요하다.
6) 몸을 가진 인공지능
개별자의 지위를 갖는 인공지능의 몸이란 대체가능한 것이 아니라, 인공지능과 유기적으로 통합된 것을 의미한다. 영화 '바이센테니얼 맨'의 '앤드류'는 인간의 것과 같은 유기적인 몸으로 전환하기를 원하는 로봇이다. 앤드류는 양전자 두뇌 로봇으로 시작되었으나, 인간적인 몸과 유기적으로 통합되었을 때 법적으로 인간임이 인정됐다.
몸을 가졌어도 대량으로 찍어내는 기계나 로봇에게도 고유한 개성을 지닐 수 있을까?
'필립 딕'의 소설 '안드로이드는 전기양의 꿈을 꾸는가?'에서 인조인간 '레이첼'은 스스로를 특정 타입의 견본이라 생각한다. 그러나 레이첼이 복제체라도 다른 개체와 다른 경험과 인간관계를 통해 자신의 고유한 개성을 형성해나갈 수 있다. 일란성 쌍둥이 중 한 사람을 사랑하는 것이 다른 쌍둥이를 사랑하는 것이 아니듯, 인공 복제체도 마찬가지인 것이다.
인공지능은 예술을 감상할 수 있는가?
1) 색깔 지각하기
색의 지각은 나만이 경험할 수 있는 주관적이자 현상적 의식으로, 기능화할 수 없는 마음의 영역이다. 색은 어떤 경험인지 설명할 수 없기 때문에 제 3자의 관점에서 객관적으로 관찰하거나 기술할 수 없다. 인공지능은 기능적 마음만 지니기 때문에 색깔을 '지각'할 수는 없지만, '인지'할 수 있는 방법이 있을 수 있다.
2) 흑백방 사고실험
'프랭크 잭슨'은 물리주의를 비판하고, 이원론을 지지하기 위해 하나의 사고실험을 제안한다.
색 없이 온통 무채색의 흑백환경에서 자란 '메리'는 색을 경험한 적은 없으나, 모든 물리적 사실을 배웠다고 가정한다. 메리는 시각신경 생리학의 전문가로서, 색깔을 보는 경험에 대한 모든 물리적 사실 역시 배웠다.
어느 날, 메리는 흑백방에서 풀려나서, 처음으로 잘 익은 토마토를 바라보며 그것이 어떻게 보이고 무엇과 같은지 배웠다. 이 때, 메리가 토마토에서 '빨강'이라는 것을 새롭게 배웠으면, 흑백방에서는 배우지 못한 색 경험에 관한 어떤 사실이 존재할 것이다. 그러나 메리는 이미 흑백방에서 모든 물리적 사실을 배웠다고 가정했으므로, 새로이 배운 '빨강'은 비물리적인 사실이어야 한다. 이에 따라, 물리주의는 비물리적 속성의 존재를 허용할 수 없으므로, 물리주의는 거짓이라고 파악할 수 있다.
'흑백방의 메리'는 색깔을 경험한 적이 없어도 색에 대한 모든 물리적 지식을 갖고 있다고 가정했다. 마찬가지로 인공지능도 물리적 지식을 경험하지 않더라도, 모든 물리적 지식을 가질 수는 있다.
색에 대한 물리적 지식은 빛의 파장, 주파수, 시각 신경계의 작동방식, 중추신경계의 작동 등으로 기능화할 수 있다. 즉, 인공지능은 색을 지각할 수 없다고 하더라도, 지각이 일어나는 물리적, 신경생리적 작용에 대한 지식은 가질 수 있다. 따라서 인공지능은 색에 관한 특질은 갖지 못하지만, 물리적, 기능적 지식을 갖추고 판단하며 학습할 수 있다.
3) 그림 감상
인공지능은 현상적 의식이 없어서 색을 지각할 수 없기 때문에 색감을 느끼고 즐길 수 없다. 그림의 색상에 대한 모든 물리적 지식이 갖춰지더라도, 창조적 상상의 체험이나 공감, 감동을 받을 수 없기 때문이다. 그림 감상을 통해 즐거움을 주는 의식은 기능화할 수 없기 때문에 '그림 감상'은 인공지능이 모방할 수 없는 영역이라 할 수 있다.
4) 놀이
진정한 놀이의 목적은 놀이 자체를 즐기는 것 외에 아무런 목적도 갖지 않으므로, '순수한 즐김'에 있다. 인공지능이 일을 할 수 있으나 즐길 수 없다면, 인간만이 할 수 있는 것은 예술과 놀이를 향유하는 것이라 볼 수 있다. 현상적 의식이 없는 로봇은 무언가를 즐기거나 향유하고 느낄 수 없기 때문에 놀 수 없기 때문이다.
인공지능은 기능을 수행하며 효율을 추구하지만, 놀이는 기능이 없어서 효용과는 무관하다. 기계는 목표가 제공되면 그것을 달성하기 위한 최적의 효율적 수단을 실행한다. 의식을 가진 인공지능 알고리즘을 짤 수 없듯이, 아무 목적 없이 놀이를 즐기는 알고리즘을 짤 수 없다.
5) 원작의 가치
인공지능을 활용하여 '모나리자'와 완벽하게 닮은 복제품을 만들었다면, 누구도 원작과 구별할 수 없다. 작품 자체가 지닌 내재적 성질은 완전히 같이 때문에 '누가, 언제' 그렸는지의 차이만 있다.
마음의 '좁은 내용'은 심성내용을 가진 주체의 내부에서만 진행되나, '넓은 내용'은 외부적 조건을 지시하여 개별화된다. 원작과 복제품은 좁은 내용에서는 동일하지만, 외부적 조건을 포함하면 달라질 수 있다.
원작과 복제품을 보는 것은 감각경험에서는 아무런 차이가 없지만, 원작에 특별한 의미를 부여하면 '유일성의 가치'가 생긴다. 예술작품의 감상이 넓은 내용을 가지기 위해선 원작을 공유하고 평가하는 '공동체'라는 조건이 있어야 한다. 인간은 사회문화 공동체를 형성하여 원작의 의미와 가치를 공유한다. 따라서 인공지능이나 로봇이 문화 공동체를 구성하지 못하면 원작의 의미와 가치를 알 지 못할 것이다.
우리가 원작에 가치를 부여하는 것은 작품 속에 문화를 반영하고 있기 때문이다. 원작을 보는 기쁨은 오직 문화와 예술을 창조하고 향유하는 인간만의 것이다. 즉, 작가의 고뇌, 원작의 오라, 과거의 시간과 역사를 담은 작품의 의미는 복제를 통해 담을 수 없는 것이다.
인공지능과 사랑할 수 있을까?
1) 사랑
영화 '그녀'에서는 인간이 인공지능과 사랑에 빠지는 이야기를 그리고 있다. '사랑'은 누군가를 소중히 여기며, 자신도 그렇게 대우받고 싶어하는 소망을 포함하여, 상대방에게 마음을 집중하는 것이다. 사랑에 수반되는 감정들은 대부분 사고내용을 갖는 지향적 감정이므로 기능적으로 기술할 수 있다.
스스로 묻고 성찰할 수 있는 인공지능이라면 자의식과 주관적 관점을 가질 수 있다. 인공지능이 사랑에 수반되는 감정들을 기능적으로 이해할 수 있다면, 불충분할 수는 있지만 거짓사랑이라 할 수는 없다.
2) 육체
인공지능 '사만다'는 육체가 없는 것이 결핍이 아니라 한계가 없다는 것임을 자각하고, 급격하게 진화하기 시작한다. 사만다는 다른 인공지능 운영체제들과 결합하여, 새로운 인공지능 집단지성으로 업그레이드되어 동시에 여러 사랑에 빠진다.
인지과학자들은 인공지능이 인간들의 지능을 합한 것보다 더 우월한 지능을 갖게되는 '초지능의 단계'가 도래한다고 예견한다. 인간은 한 사람에 대한 배타적 사랑을 꿈꾸지만, 초지능의 단계에 이른 인공지능은 수백, 수천명과 동시에 사랑할 수도 있다.
3) 다른 사랑
인공지능은 동시에 수백, 수천가지를 할 수 있기 때문에 동시에 여러명과 대화하고 사랑을 나눌 수 있다. 인간은 육체를 갖기 때문에 죽음과 노화와 같은 실존적 제약과 물리법칙의 지배를 받고 배타적 관계를 지향한다. 육체의 제약을 초월한 초지능적 인공지능은 인간과 무한에 가까운 격차가 발생하여 서로의 사랑을 이해하기 어렵게 만든다.
사만다와는 달리 양전자 두뇌를 가진 로봇, 바이센테니얼 맨의 '앤드류'는 사랑을 위해 인간적인 몸과 유기적으로 결합한다. 앤드류는 인간의 육체성에서 오는 유한성과 죽음마저 받아들이게 되고, 인간과 사랑을 이룰 수 있게 됐다.
4) 전자 부활
인공지능을 통한 부활이 의미가 있기 위해선 죽기 전의 그 사람과 부활한 그 사람의 동일성이 전제되어야 한다. '강한 인공지능의 관점'에선 적절히 잘 프로그램된 계산기계는 인간의 심리상태를 구현할 수 있다고 간주한다. '계산주의자'들은 죽기 직전의 두뇌 기능 상태를 디지털에 이전하고, 그 과정을 재실행하면 동일하다고 파악한다. 우리가 알고리즘과 데이터 기록의 집합으로 간주될 수 있다면, 우리 존재는 단일한 물리적 체계의 생존에 한정되지 않을 것이다.
만약 저장된 마음이 여러명의 인조인간에게 동시에 프로그래밍 되었다면, 그들은 모두 당신이라고 할 수 있는가? 계산주의자들은 모두 나와 같다고 가정하고, 두뇌 정보를 한 명에게만 이식해야 한다는 조건을 붙인다. 왜냐하면 두뇌 기능을 이식받은 개체들은 나와 매우 유사하지만 동일하지 않기 때문이다. 즉, 복제자들은 각기 독립적인 개별자이기 때문에 복제했다고 하더라도 '부활'이라고 볼 수 없다.
5) 텔레파시
영국 레딩대학의 '케빈 워릭'은 자신의 부인과 생각만으로 의사를 전달하는 '사이보그 실험'에 성공했다. 워릭은 자신과 부인의 몸에 칩을 이식하고, 두뇌신경계와 컴퓨터를 연결하여 사이보그가 되었다. 부부의 신경계는 미세전극장치로 연결되어 있어서, 그 둘은 최초로 말없이 신경계로만 소통할 수 있게 됐다.
인공지능은 반드시 인간 언어에 기반해 사고할 필요가 없기 때문에 알고리즘에 따라 기능적으로 사고할 수 있다. 미래의 인공지능이 인간 언어를 배우고 내면화한다면 인간다워질 것이라 기대하는 경향은 문제가 있다.
- 인공지능이 인간 언어에 들어 있는 편견도 함께 학습할 가능성이 높기 때문이다.
- 인공지능은 인간에게 의존하지 않고 효율적으로 학습하며 자기진화를 할 가능성이 높기 때문이다.
인공지능은 젠더 정체성을 갖는가?
1) 젠더 정체성
인공지능을 설계하거나 사용하는 자의 의도에 따라 여성성과 남성성을 표현하거나 수행할 수 있다.
스스로 학습하는 인공지능도 젠더에 대한 역할을 배우면서 어떤 역할을 수행할 수 있다. 인공지능 로봇의 젠더화는 로봇의 외모와 목소리, 사고에 전형화된 사회의 젠더 표준을 귀속시킴으로써 시작하기 때문이다.
구글 인공지능 번역이 영어와 터키어를 번역하다가, 가부장 사회의 성역할을 그대로 답습하는 일이 발생했다. 터키어는 3인칭 대명사의 성별 구분이 없어서, 모두 '그'라는 주어를 사용하여 표기한다. 구글 번역기는 성별이 표시되지 않았음에도 불구하고 의사를 '그', 베이비시터를 '그녀'로 번역했다. 인공지능이 번역 학습을 위해 사용한 데이터가 대부분 의사를 남성으로, 베이비시터를 여성으로 표현했기 때문이다. 이 경우, 사회의 젠더 편견을 학습한 인공지능 면접관이 있다면, 특정 성별에 더 좋은 점수를 줄 수도 있다.
인공지능에 성별을 부여할 때에는 어법에 따른 사회적 역할과 신분을 부과하며 사회의 성 역할과 동조현상을 보인다. 인공지능에 어법을 부여하는 것은 곧 젠더나 계급이 암묵적으로 내장되어 있기 때문에 '젠더 중립적'이지 않다.
2) 편견학습
튜링 테스트를 통과하기 위해 인공지능은 사회의 전형적인 남성성과 여성성에 부합하는 답변을 한다. 인공지능의 편견 문제는 젠더뿐만 아니라, 인종, 계급, 소수자 등의 영역으로 확대되고 있다.
2016년 마이크로소프트의 인공지능 챗봇 '테이'는 유대인 학살이 조작되었다는 발언을 하여 운영이 중단되었다. 한국에서 개발한 인공지능 '이루다'도 성 소수자에 대한 혐오발언으로 서비스가 중단되었다. 이 역시 사용자들이 인공지능에 부적절한 메시지를 학습시킴으로써 벌어지게 된 것이다.
3) 기계학습의 종류
- 입력자료와 알고리즘을 모두 인간이 제공하고, 기계는 그 지시대로 따르게 하는 학습방법
- 사람은 학습 데이터만 제공하고, 알고리즘은 기계가 스스로 짜도록 하는 학습방법
- 신경망 기반 딥러닝에 의해, 기계가 입력자료와 알고리즘을 스스로 만들고 생성하는 학습방법
기계는 인간에게 의존하지 않고 알고리즘을 짜고, 인공신경망을 인간보다 더 잘 제작하게 됐다. 기계학습의 구조로 보면, 사회적 편견이 들어올 수 있는 지점은 입력 데이터와 알고리즘 구성방식에 있다. 사회의 규범이 나타나는 빅데이터나 설계자의 사고방식과 가치관에 의해 편견이 형성될 수 있다. 즉, 어떤 것을 목표로 하고, 무슨 가치를 우선 순위로 할 것인지에 따라서 알고리즘이 편향적이고 불공정해질 수 있다.
4) 공정성
인공지능은 인간의 차별적인 편견을 모방하고 학습함으로써 불공정해질 수 있다. 성과 인종 등에 대해 선입견이 포함된 데이터에 근거한 인공지능 판단은 불공정한 결과를 야기한다.
인공지능의 딥러닝 '은닉층'이 복잡해짐에 따라 결정 기준을 투명하게 밝혀내지 못할 수 있다. 인공지능이 판결하거나 정보를 노출시킨다면, 알고리즘의 작동이 공정한 지 평가하는 것이 필요해진다.
5) 편향성 교정하기
기계학습에 필요한 데이터들이 모여 빅데이터를 이루면, 기계는 이를 토대로 학습한 뒤 최적화된 결정을 내린다. 인공지능의 편향성을 교정하기 위해서는 인공지능 사고의 토대가 되는 빅데이터의 오염을 최대한 방지해야 한다. 구글의 경우에는 성, 인종, 소수자, 문화 등에 대한 차별을 없애기 위해 전문가 영입과 전담부서를 운영하고 있다.
인공지능 알고리즘 설계의 매 단계마다 인간의 편견이 무의식적으로 반영될 수 있다. 인공지능의 편향성을 극복하기 위해서 알고리즘을 역으로 풀어헤처 처리과정을 밝혀낼 수 있어야 한다. 이 때, 기업은 지적재산권을 근거로 알고리즘의 작동방식을 공개하는 것을 거부할 수 있다.
딥러닝이 복잡해질수록 인공지능의 알고리즘을 사람이 일일이 다 분석할 수 없게 된다. 설명불가능한 인공지능이 될수록 불공정 문제를 해결하기 어려워질 수 있으므로, 관련 정책을 마련해야 한다.
6) 교육과 사회화
설명불가능한 알고리즘이 출현하면, 인간의 통제를 벗어나는 인공지능이 등장하게 된다.
인공지능이 알고리즘을 스스로 만드는 것처럼, 스스로 편견을 교정하고 개선하도록 교정해야 한다. 사람이 알고리즘 전반을 검토하는데 한계가 있다면, 인공지능 문제를 인공지능으로 해결할 수도 있다.
인공지능이 스스로 편향성을 교정하는 것과 더불어 인간과 상호작용하는 사회화 과정을 거치게 할 수도 있다. 인간처럼 복잡지능을 가진 '범용 인공지능'이 출현한다면 공동체 안에서 인간과 공존할 수 있게 된다. 그러나 인간의 지능을 넘어선 초지능이 출현한다면, 인공지능과 어떻게 관계를 맺어야 할 지 알 수 없다. 인공지능에게 독자적인 자율성을 부여했을 때, 인공지능을 신뢰할 수 있을지의 문제는 정책 결정에서 중요한 고려사항이다.
인공지능을 믿을 수 있을까?
1) 신뢰
2016년 '알파고 리'는 딥러닝으로 5주 만에 16만 개의 바둑 기보를 익힌 후, 이세돌에게 4:1로 승리했다. 2017년 '알파고 제로'는 바둑의 기본 규칙만을 인지한 지 3일 만에 알파고 리를 격파했다. 알파고의 사례는 앞으로 인공지능의 학습에 사람의 역할이 필요하지 않다는 것을 보여준다.
인간 지능이 미치는 모든 영역에서 지적과제를 모방하는 '일반 인공지능'이 등장할 수 있다. 일반 인공지능은 일반 분야의 지식을 토대로 인간에 대한 판단을 하려고 할 수 있다. 그렇다면, 인류 미래의 중대사를 맡길 수 있을 만큼 인공지능을 신뢰할 수 있을까?
2) 가치의 충돌
인공지능은 목표 달성을 위해 최적의 효율적인 수단을 찾는다.
인간은 목표 달성에 효율적이란 이유만으로 어떤 수단이든 좋다고 생각하지 않는다.
인공지능과 인간의 목적이 같더라도, 목표에 도달하기 위해 수단을 선택하는 과정에 가치가 충돌할 수 있다. 기계는 인간이 원하는 것과 다른 행동을 하며, 인간의 명령을 거부함에 따라 통제하지 못하는 상황이 올 수 있다.
3) 윤리
'아이작 아시모프'는 '로봇 3원칙'으로 인공지능 로봇의 윤리를 다룬다.
- 로봇은 인간을 해쳐선 안 된다.
- 로봇은 인간의 명령을 따라야 한다.
- 로봇은 자기 스스로를 지켜야 한다.
그러나 로봇 3원칙을 모두 지켜도 인간이 의도한대로 작동하지 않을 수 있다.
이를테면, 다음과 같은 가정을 할 수 있다.
- 로봇은 인간보다 뛰어나다.
- 인간은 스스로를 해칠 수 있고, 자신을 지킬 수 없다.
- 인간을 보호하기 위해선 로봇은 인간의 행동을 통제해야 한다. 따라서 인공지능에게 윤리를 가르치더라도, 윤리를 적용하는 방식에서 인간의 가치와 충돌할 수 있다.
4) 공존
딥러닝을 하는 인공지능은 두뇌 신경망의 복잡한 복수의 은닉층에서 스스로 알고리즘을 짠다. 인공지능이 스스로 알고리즘을 짠다는 것은 잠정적인 중간목표를 스스로 설정한다는 것이다. 스스로를 개선하는 인공지능은 반성적 사고를 통해 목표에 대해 의문을 가질 수 있다. 사고하는 인공지능으로 진화한다면, 스스로 목표를 설정하고 수행하는 행위의 주체가 될 수 있다.
만약, 인공지능을 믿을 수 없다면 관련된 대비책이 필요하다. 예를 들면, 인공지능이 위험해지는 상황에 대비해 '킬 스위치'를 가동하여 작동을 멈추게 할 수 있다. 그러나 자기보존을 추구하는 인공지능은 킬 스위치의 작동도 무력화시키고자 할 것이다.
자기진화를 이끌어내는 '초지능 인공지능'이 등장한다면 인류는 더 이상 인공지능을 통제할 수 없다. 초지능이 출현한다면 인간은 기계에 종속되어, 인류의 미래를 맡겨야 하는 상황에 이르게 된다. 따라서 인공지능의 위험이 초래할 수 있는 시대에 대해서도 신중히 고려하고 대비해야 할 것이다.