아직도 서랍 속엔 오래 전 사용했던 휴대폰이 고스란히 잠들어 있다. 폴더형이고, 숫자키 버튼과 방향키가 아래에 배치되어 있다. 이제 나는 '저걸 어떻게 썼더라?' 하고 궁금해한다. 전화 하고, 문자를 보내고, 사진을 찍었다. 그게 다 였다. 특히 내가 갖고 있던 폰은 사진 기능이 탁월해서 종종 사진을 찍곤 했는데, 지금 생각하면 의아할 정도로 단 한 번도 컴퓨터로 사진을 내려받은 적이 없다. 아예 PC에 연결해 볼 생각조차 하지 않았던 것 같다.

아이폰은 새로운 패러다임을 제시한, 내게 있어서 굉장히 충격적인 사건이었다. 터치에 의해 반응하는 기기가 그리 새로운 것은 아니었다. 하지만 그렇게 자연스러운 터치감을 제시한 휴대용 기기는 그 전까지 본 적이 없었다. (터치만 따지면 당시 갖고 있던 와콤 태블릿 정도를 떠올릴 수도 있겠지만, 그건 오로지 입력장치일 뿐 그 이상의 무엇도 아니다) 생각한 대로 움직여주는 이 작은 기기가 그저 신기할 따름. 마치 종이를 밀어 넘기듯 스크롤 할 수 있고, 숫자키에 연연할 필요도 없다. 이 기기는 전화기가 아니다. 전화는 덤일 뿐. 화면에 무엇을 표시하느냐에 따라 무엇이든 되는, 그런 카멜레온 같은 존재다. 입력 장치의 한계를 벗어나는 것 하나만으로 이처럼 다양한 가능성을 제시할 수 있다니!

그리고 아이폰을 계기로 나는 휴대폰 -단순히 전화기가 아님에도, 이걸 부를 마땅한 표현이 없다. 모바일 기기라고 하기엔 너무 딱딱하고 공대생스럽다 - 으로 인터넷을 사용하게 되었다. 분명 이전 휴대폰에도 인터넷 기능이 있었다. 네이트라고 불리우는 그것 말이다. 이 당시 나는 휴대폰에서 네이트 접속 버튼을 뽑아버리고 싶었다. 혹시나 실수로라도 접속하면 종료 버튼을 미친 듯이 눌러댔고, 괴짜같은 친구들이 네이트 버튼을 누르지 못하게 하기 위해 잠금 설정을 걸기도 했다. 그런데 지금은 상황이 완전히 바뀌었다. 인터넷 접속이 안되는 폰은 더 이상 폰으로서의 가치가 없다고 생각할 지경에 이르렀다.

처음부터 아이폰에 앱스토어가 있는 건 아니었다고 한다. 내장 앱으로 제한된 모델이 출시된 이후 수 많은 해커들에 의해 분해되고 다시 조립되면서 모자란 부분을 채워나갈 방법을 찾아내었고, 이러한 움직임을 애플이 반영해서 개발자 SDK를 공개하고 앱스토어를 개설했다. 아이폰은 더 이상 휴대폰이 아니다. 무엇이든 가능한 내 손 안의 컴퓨터다. 게다가 일반 PC에서는 상상하기 힘든 가속도 센서와 GPS 등을 통해 PC 이상의 작업이 가능하게 되었다. 기기가 사용자의 상황을 인식하기 시작한 것이다. 이 사용자는 지금 어디에 있고, 주변에서 어떤 소리가 나며, 주변 색은 이러이러하다 - 따위의 정보를 수집할 수 있고, 개발자는 이 정보를 활용할 수 있다. 한 때 (지금도 유행할지는 모르겠다. 국내 정서와는 조금 맞지 않은 듯 해서 국내에선 인기가 없었다) Color 라는 앱이 화제가 되었다. Color는 사진 공유 앱인데 별도의 친구 맺기 기능이 없는 대신 위치와 주변 분위기에 따라 자동으로 그룹을 맺어주는 서비스를 제공한다. (사진을 촬영한 위치 정보 외에도 주변 소음과 색상을 통해 분위기를 분석한다고 한다)

이제 사용자는 앱이 필요한 모든 정보를 입력할 필요가 없다. 부족한 정보는 내장된 모든 센서와 네트워크를 동원해 앱 스스로 채워 나간다. 기기가 스스로 상황을 이해하기 시작했다고 말할 수 있다. 이러한 움직임이 최근 갑자기 일어난 것은 아니다. 매우 오래 전부터 유비쿼터스 컴퓨팅 등의 학문을 연구하는 사람들에 의해 '상황에 기반한 행동' 이 연구되어 왔다. 하지만 이를 구현하기 위한 정보와 기기가 턱없이 부족했기 때문에 현실화 시키기 어려웠다. 그러나 아이폰을 시작으로 스마트폰이 대중화되면서 이 연구가 단순히 학문에 그치지 않고 현실이 되어가고 있다. 

그리고 아이폰 4S에 탑재될 Siri로 인해 또 한 번의 변화가 시작되려 한다.

아이폰 4S가 발표되는 날, Siri를 보고 많은 사람들이 그거 원래 되는거잖아- 라며 실망했단다. 사실 음성 인식 기능은 내가 갖고 있는 아이폰 3GS에서도 된다. Voice Control이라 불리우는 이 기능을 이용해 음악을 재생하는 등의 단순한 작업이 가능하다. 구글의 안드로이드도 오래 전부터 음성을 이용한 몇 가지 명령을 선보였다. 그렇다면 Siri가 갖는 차별성은 무엇일까?

그 동안 음성을 통한 기능 제어는 아주 기초적이고 단순한 작업만 가능했다. 기기가 인식할 수 있는 명령어가 제한되어 있고, 한 번에 하나의 일을 수행한다. 대화 세션이라는게 존재하지 않는다. 한 번 기능을 수행하고 나면 음성 인식기는 처음 상태로 초기화된다. 그래서 '수지한테 7시까지 오라고 문자 보내줘' 라고 말한 뒤 '영민이 한테도' 라고 말하면 두 번째 대화는 처리할 수 없다. 한 번의 명령으로 대화가 끝났기 때문이다.

Siri는 단순한 음성 인식의 차원을 넘는다. 제한된 명령어 셋이 존재하지 않고, 문장의 뜻을 이해하는 고수준 인공지능 시스템이다. 비슷하게 말하거나, 조금 돌려 말해도 의미를 파악할 수 있기 때문에 기기가 이해하고 기능을 수행할 수 있다. 단지 이것 뿐만이 아니다. Siri는 대화 세션을 유지한다. 좀 전의 예에서처럼 '영민이 한테도' 라고 말하면 이전의 대화 내용으로부터 해야 할 작업을 추론한다. 그래서 Siri는 '영민이 한테도 (7시까지 오라고 문자 보내줘)' 라고 이해할 수 있는 것이다. 대화를 이해한다는 것. 이거 정말 놀랍지 않은가?

Siri는 처음에 아이폰용 앱으로 존재했다가 이제는 서비스를 종료할 예정에 있다. 애플이 인수한 이후에도 서비스를 지속하다가 4S에 내장되면서 앱을 종료하는 것이다. 이는 사용자 경험에서의 혼란을 피하고, 또 4S를 이전 모델과 차별화 시키기 위한 전략으로 인한 당연한 결과라 생각한다. Siri가 아이폰에 내장되면서 생긴 변화는, 단순히 정보를 수집하고 정렬하는 기능을 뛰어 넘어 아이폰 내장 앱과 밀접하게 연계된다는 것이다. 아이폰에는 연락처, 일정, 할 일, 메시징, 메일, 지도, 인터넷 브라우저 등의 기본 앱이 내장되어 있는데 (심지어 삭제도 불가능하다) 이 기능들이 Siri와 밀접하게 연계된다. 기본 기능은 정말 기본 기능이다. 최소의 요구 사항이면서 필수 요구 사항을 만족시킨다. 덕분에 Siri는 필수적인 업무를 보조할 수 있다. 

누군가 이를 패러다임 시프트라고 말했다. Siri는 시각 장애인만을 위한 도구가 아니다. (애플의 모든 기기는 장애우를 위한 장치가 다른 업체의 기기에 비해 상당히 많이 준비되어 있고, 오랜 기간을 거쳐 매우 정재되어 있다. 음성으로 기기를 제어하는 Voice Control 뿐만 아니라 iOS5부터는 스티븐 호킹처럼 손가락 움직임에 제한을 받는 사용자마저 멀티 터치를 가능하게 하는 향상된 assistant 기능을 제공한다) Siri는 복잡한 (여러 앱을 왔다갔다 하면서 여러 번의 터치를 통해 수행할 수 있는) 작업을 단지 몇 마디의 음성으로 제어하며, 대화 문맥을 이해하는 고수준의 인공지능 시스템이다.

Siri는 아이폰을 앱을 구동시키는 터치 기반의 모바일 기기로부터 스타워즈의 R2D2와 같은 인공지능형 개인 비서로 확장시킨다. Siri는 아직 베타 서비스이다. 이게 정식 버전이 되고, 앞으로 몇 차례 개선을 통해 엄청난 파급효과를 이루어 낼 것이 분명하다. 기사를 통해 많이 들 접했겠지만, Siri는 스스로 학습을 통해 시간이 지남에 따라 영리해지는 인공지능 시스템이다. 따라서 시간이 지나면서 많은 경험을 축적하여 더 나은 시스템으로 개선될 것이 분명하다.

Siri가 대화를 유지하고 의미를 해석하며 아이폰 고유의 기능을 활용하는 시스템이라고 정의하면, 한 가지 부족한 것이 있는데 그건 바로 '상식' 이다. 개인 비서라면 좀 더 일반적인 질문에도 답할 수 있어야 하지 않겠는가? 애플은 이 문제에 대한 답을 울프램알파에서 찾았다.

울프램알파는 computational knowledge engine을 목표로 하는 지식 검색 엔진이다. 구구절절 설명하는 것보다 아래의 영상이 좀 더 이해가 쉬울 것 같다.





울프램알파는 1만대 이상의 CPU를 이용해서 웹 정보를 지식화하고, 울프램의 계산 능력(울프램은 메스메티카를 만든 회사) 을 최대한 활용하여 수학적 상식(사실 상식을 뛰어 넘는 고 수준 물음에도 답한다)을 더하여 질의에 답한다. Siri는 바로 이 울프램알파를 연계하여 부족한 상식을 채운다. (Siri의 한글 지원이 미흡한 이유 중 하나가 어쩌면 울프램알파 때문일지도 모르겠다는 생각이 들었다) 웹을 통해 울프램알파를 무료로 이용할 수 있으며, 아이폰/패드용으로는 유료 앱으로 출시되어 있는데 앱을 설치하면 보이는 질의어의 예는 수십가지가 넘는다.

누가 음성 인식 따위를 사용하겠는가? 

많은 사람들이 이미 제공되는 Voice Control도 사용하지 않고 있고, 안드로이드 사용자들 역시 음성으로 뭔가 하려는 시도를 하지 않는다. 그래서 많은 사람들이 Siri에 대해서도 회의적이다. 그게 아무리 멋진 기능을 제공하더라도 많은 사람들은 여전히 터치 인터페이스를 고수할 테니까. 

그러나 나는 음성으로 할 수 있는 일이 무엇인가에 따라 분명 달라질 것이라 생각한다. 단순히 음악을 재생하고 볼륨을 조절하는 등의 한두번의 터치로 가능한 단순한 작업이 아닌 여러 번의 터치를 요구하고, 여러 앱을 왔다갔다해야 하며, 그 때마다 무엇을 어떻게 해야 하는지 고민이 필요한 작업들은 Siri를 이용하는 편이 훨씬 편하리라. 지금은 아이폰 내장 앱에 응용 범위가 제한되어 있지만, 누가 알까? 외부 앱도 연계할 수 있도록 SDK를 열어준다면 상황은 급변할 것이다. 복잡한 생각은 Siri가 대신해 줄 것이다. 우리는 단지 최종적으로 무엇을 하고 싶은지 그 결과만 이야기하면 될 것이다. (아래 애플의 영상은 현 시점에서 가장 현실적인 활용 예를 보여준다)


이런 미래가 바로 지금 완벽하게 구현되지는 않을 것이다. Siri 자체도 아직 대중에게 공개되지 않았고, 몇몇 뉴스 업체에 사전 공개되었을 뿐, 그리고 그들의 평가가 긍정적이라고 할지라도 대중이 생각하는 기대치를 만족시키기는 아직 어려울 것이다. 하지만 시작을 했다는 사실 자체가 매우 중요하다고 본다. 아직까지 이러한 기능은 여러가지 이유로 인해 실생활에 적용되지 못했다. 그런 여러가지 이유들을 애플은 해결했고, 손바닥만한 기기에서 실행할 수 있게끔 구현했다. 지능형 대화 인식 및 작업 실행 기술(-굳이 이름을 붙이자면)은 대중 앞에서 비약적으로 발전할 것이 분명하다. 구글도 마이크로소프트도 트랜드를 놓치지 않기 위해 발악할 것이고, 관련된 연구에 과감한 투자가 이루어질 것이다. 그 동안 실용화에 어려움을 겪던 수 많은, 우수한 인공지능 기술들이 빛을 보기 시작할 것이고, 하나 둘 자연스러운 통합을 이룰 것이다. (특히 나는 구글보다 마이크로소프트에 더 높은 가능성이 있다고 본다. 이들은 키넥트를 이용해 인공지능 기술의 대중화에 이미 성공했으며, 조용히 로봇 제어 기술의 대중화를 힘쓰고 있다)

패러다임의 전환. 아이폰 4S가 보여줄 Siri는 이미 당신이 알고 있는 기술, 꿈꾸던 기술의 일부에 지나지 않을 수도 있다. 그러나 실생활에 밀접한 모바일 기기에 이런 기술이 탑재된다는 것만으로도 이는 엄청난 사건이며, 이 기술로 인해 그려질 앞으로의 미래를 상상하면 Siri의 아이폰 통합은 겁나게 대단한 시작점임이 분명하다.  Siri SDK가 개발자에게 공개되는 날, 그리고 애플 TV에 Siri가 통합되는 날에는 또 한 차례 세계가 들썩거릴 것이다. 



신고
Tistory Comments :: 트랙백 0 , 댓글 0

CATEGORIES