영화 ‘트랜스포머(Transformers)’가 2007년 처음 나왔을 때 인상 깊었던 장면이 있다. 주인공 샤이아 라보프(Shia LaBeouf)가 메간 폭스(Megan Fox)와 함께 범블비(Bumblebee)에 타자자마 알아서 로맨틱한 음악이 흘러나오는 장면이다. 남녀의 분위기를 인식하고 자동으로 이에 걸맞는 무드를 조성해준다는 설정이다. 감탄을 하면서도 이런 생각을 해본다.

“어 그런데 틀렸는데…”

 

사실 이 장면에서 최첨단 변신로봇으로 나온 범블비이지만 두 사람의 관계를 잘못 파악한다. 두 사람이 연인이 아닌데도 연인에게나 어울릴법한 분위기를 만들어버린 것이다. 물론 결과적으로 그것이 연인이 아닌 사람들을 연인으로 만들어주는 효과를 가져올 수도 있다. 하지만 그건 영화니까 가능한 것이다. 실생활에서 그런 일이 생긴다면 대체로 무척 어색하지 않을까.

 

[임원기의 따뜻한 IT] 컴퓨터도 행복을 느낄 수 있을까

범블비 사진

인식의 진화

범블비의 이런 ‘로맨틱 뮤직 자동 재생 기능’은 고도로 진화하는 컴퓨터 인식 진화의 한 단면일 뿐이다. 아주 먼 이야기처럼 생각될 수도 있지만 컴퓨팅 발전의 놀라운 속도를 생각하면 그리 먼 미래의 이야기가 아니다.

인식을 기반으로 한 최근의 가장 대중적인 서비스로는 애플이 아이폰4S 출시부터 적용한 ‘시리(Siri)’와 LG전자 옵티머스 뷰와 LTE2에 적용 예정인 지능형 음성인식 서비스가 있다. 이 서비스는 음성인식이 기본이지만 어느 정도 문맥(context)을 감안한다. 즉 대화의 분위기나 앞에 했던 대화의 내용 등을 고려한 대답도 가능하다는 것이다. 시리가 보여준 것은 음성 인식이 이미 농담이나 놀리기, 말대꾸하기 등 다소 고차원적인 대화 또는 상황 인식도 가능하다는 것을 보여준다. LG전자의 지능형 음성 서비스는 음성으로 ‘독도는 누구땅’이냐고 물으면 ‘독도는 한국 땅이야’라는 개념있는 답을 내놓기도 한다.

어떻게 이런 게 가능할까. 네이버 음성검색을 만들었고 음성 인식과 음성 합성에 있어서 국내 최고 권위자 중 한 명으로 꼽히는 다이알로이드 이상호 대표는 “음성 인식은 결국 데이터 싸움”이라며 “기존의 수많은 대화 데이터와 언어에 대한 정보를 기반으로 상황이나 대화의 전개에 따른 방대한 조합을 만들어내고 그 중 가장 가능성이 높은 조합을 찾아내 대화가 전개되는 것”이라고 설명했다.

그렇다면 음성 인식과 대화라는 것도 수많은 가능성의 조합을 찾아서 하는 행위에 불과하다는 것이다. 컴퓨터 대신 인간은 뇌에서 그 작업이 일어날 뿐이다. 반어법이나 사회적 언어는 어떨까. “잘한다 잘해” 같은 빈정대기나 “밥 먹었어?”와 같은 실제 밥 먹었는지가 궁금해서 물어보는 게 아닌 인사치레의 말도 컴퓨터와 대화가 가능할까. 충분히 가능하다는 게 기술학자들의 논리다. 어차피 인간도 이런 종류의 대화는 경험을 통해서 습득한다. 기계도 충분히 그런 과정을 통해 습득할 수 있다는 것이다.

감동도 컴퓨팅에 의한 조합의 결과일 뿐일까

이런 것이 가능해진 것은 컴퓨터 연산능력의 급속한 발전 때문이다. 2010년 소프트뱅크 30주년 간담회에서 손정의 회장의 발표문 중에 이런 흥미로운 내용이 있었다. 컴퓨터 칩 하나에 들어가는 트랜지스터의 수가 인간의 뇌세포 300억개를 넘는 때는 언제일까 계산을 해 봤더니 2018년이라는 결론이 나왔다는 거였다. 그 뒤로 불과 몇십년만 지나면 지금 인간과 아메바의 뇌세포의 차이(아메바는 1개, 인간은 300억개)보다 더 큰 차이가 인간과 컴퓨터 사이에 생긴다는 계산도 가능하다.

‘특이점이 온다(Singularity is near)’의 저자인 레이 커즈와일(Ray Kurzweil)은 빠른 시일 내 컴퓨팅이 인간의 뇌의 연산 능력을 넘어서는 시기가 오고, 그 이후엔 로봇도 감정을 표현하고 인간과 감정을 나눌 수 있는 수준까지 갈 수 있다고 주장한다. 감정 역시 인간의 뇌세포에서 일어나는 코드의 조합에 불과하기 때문이란 게 그의 주장이다.

그래프 이미지

그가 자신의 책에서 인용한 위의 그림은 이미 컴퓨터의 연산능력이 인간의 뇌에 근접했음을 보여준다. 무어의 법칙만 떠올려도 그의 주장이 터무니없지는 않을 것이란 추론이 가능하다.

하지만 이것은 어디까지나 기술결정론자들의 주장이다. 컴퓨터에는 뇌는 있을지 몰라도 ‘마음’이 없기 떄문이다. 감정의 인식은 가능하겠지만 그것을 공유하는게 프로그래밍될 수 있을지에 대해선 여전히 논란이 많다. 단순 인식이 아닌 공감이나 공유를 위해선 표정을 포착해야 하고, 주변의 미묘한 기류를 파악해야 하며, 그동안의 여러 관계에 대한 고찰도 필요하다. 무엇보다 수많은 기억과 그 기억에서 비롯된 여러 관계에 대한 미묘한 감정의 데이터가 축적되야 특정 사물이나 특정인물, 관계에 대한 감정이 완성될 것이다. 만족감을 느끼는 것은 얼마든지 프로그래밍으로도 가능하겠지만 행복하다는 감정은 아직까지는 그렇게 쉽게 프로그래밍으로 만들어질 수 있는 것이 아니라는 생각이 든다.

왜? 인간도 행복의 조건을 모르기 때문이다. 컴퓨팅이란 결국 인간이 연산식을 만들고 그것을 대입해 나온 결과물의 조합으로 얻어지는 것. 하지만 모든 조건이 갖춰져도 행복하지 않을 수 있고, 아무것 없이도 행복할 수 있다. 뇌세포의 숫자보다 더 다양한 행복의 조건을 따질 수가 없기에 아직은 컴퓨팅이 아무리 발전해도 행복하다고 느끼기는 쉽지 않을 거란 생각을 해본다. 아니, 그렇게 믿고 싶다.