장윤옥 편집장|테크앤비욘드
2012년 어느 날, 미국 스탠퍼드대의 앤드루 응(Andrew Ng) 교수는 자신이 연구하던 컴퓨터의 화면을 보고 깜짝 놀랐다. 화면에 틀림없는 고양이의 모습이 떠 있었기 때문이다. 컴퓨터가 처음으로 수많은 데이터 속에서 사물을 인식해 스스로 이미지를 만들어낸 역사적인 순간이었다.

구글의 연구로 합성해 낸 고양이 이미지
응 교수는 그동안 ‘X프로젝트’란 구글의 비밀 연구중 하나로 인공지능을 연구하고 있었다. 16,000개의 컴퓨터 프로세스와 10억개 이상의 뉴럴 네트워크를 이용, 유튜브가 보유한 1000만여 동영상을 분석하는 것이었다. 그가 컴퓨터에게 요구한 것은 ‘가장 특징적인 것을 골라내라’는 것. 응 교수는 컴퓨터에게 사물에 대한 정의나 정보를 알려주지 않고 다양한 알고리즘만 제시해줬다. 고양이에 대한 정보를 주지 않은 것은 물론이다.
응 교수는 자신의 연구에서 컴퓨터가 고양이를 인식한 것은 유투브에 고양이가 나온 동영상이 많았기 때문일 것이라고 추측하고 있다. 사람들이 자신이 기르는 고양이를 자랑하기 위해 올린 동영상 데이터가 많았기 때문에 이를 기반으로 컴퓨터가 고양이의 이미지를 알아낼 수 있었다는 것.
이 연구는 발표되자마자 세간의 큰 관심을 끌었다. 컴퓨터가 아무도 가르쳐주지 않았음에도 알아서 배우는 ‘비지도 학습(unsupervised)’을 해냈기 때문이다. 컴퓨터는 학습에 대한 구체적인 지시 없이 동영상의 점이 연결돼 있는 선의 특징을 찾아 이를 기반으로 형상을 구분해냈다. 또 이 형상을 추상적인 이미지로 인지해 분류하는 단계까지 발전한 것이다. 아직 초보 단계이기는 하지만 컴퓨터의 학습능력을 다양한 분야에 적용한다면 비즈니스는 물론 일상생활에도 큰 변화가 예상된다.

로봇체스 인공지능
아기가 엄마의 뱃속에서 나와 처음 보는 세상은 혼돈 그 자체다. 모든 것이 낯설고 혼란스럽다. 하지만 젖을 물리고 기저귀를 갈아주는 엄마를 보면서 엄마라는 존재를 알게 되고 점점 다양한 사물을 구별할 수 있게 된다. 아기에게 특별히 알려주거나 학습시키는 것은 아니지만 아기는 반복노출을 통해 규칙을 찾고 대상을 인지하는 것이다. 특별히 이상이 있는 경우를 제외하면 세상의 모든 아기는 크면서 자연스럽게 사물을 인지하는 능력을 갖게 된다. 생후 6개월만 돼도 가족들을 알아보는 것은 물론 집안의 가구나 함께 사는 동물쯤은 쉽게 구분한다.
사람에게 이렇게 간단한 일이지만 아이러니하게도 컴퓨터에게는 대상을 구분해 인지하는 일이 좀처럼 풀기 어려운 난제였다. 천문학적 단위의 수가 들어간 복잡한 수식은 척척 풀어내면서도, 사람이라면 너무도 쉽게 하는 일상적인 판단이나 인지는 좀처럼 잘 해낼 수 없었던 것이다. 이 같은 컴퓨터의 한계를 잘 나타낸 말이 바로 ‘어려운 일은 쉽고, 쉬운 일은 어렵다(Hard problems are easy and easy problems are hard)’는 모라벡의 역설(Moravec’s Paradox)이다. 연구자들은 사람이라면 너무도 쉽게 하는 일상적인 것, 즉 보고 듣고, 느끼고, 인식하는 것은 컴퓨터에게 너무 어려운 일이라는 점을 명확하게 이해하지 못했다. 이 때문에 컴퓨터를 가르칠 방법을 찾지 못하고 오랫동안 미궁을 헤맸던 것이다.
![3_[사진글]_영화_엑스마키나의_한장면1](https://www.scienceall.com/wp-content/uploads/2015/04/3_사진글_영화_엑스마키나의_한장면1.jpg)
영화_엑스마키나의 한장면
그럼에도 불구하고 사람들은 인공지능 기술의 진보에 환상이라고 해도 좋을 만한 큰 기대를 걸었다. 영화에서 흔히 보는 것처럼 사람의 말을 척척 알아듣고 판단해서 필요한 일을 먼저 해 놓는 기계가 곧 등장할 것이라고 생각한 것이다. 심지어는 사람의 지능을 능가하는 인공지능 로봇이 탄생해 인류의 미래를 위협할 수도 있다고 우려했다.
하지만 생각만큼 인공지능 기술의 진보는 쉽게 이뤄지지 않았다. 처음 연구자들은 많은 지식과 규칙을 컴퓨터에 넣어주면 될 것이라고 생각했다. 검색을 통한 추론, 자연어 분석, 마이크로 세계에 대한 모델링 등의 기법이 70년대 인공지능 기술연구의 주요 주제였다. 금방 성과를 낼 줄 알았던 연구들은 번번이 실패로 돌아가거나 들인 돈과 시간에 비해 너무 보잘 것 없는 성과를 내는 데 그쳤다.
80년대에 들어오면서 인간의 지식을 여러 방식으로 저장, 이를 기반으로 논리적 추론을 하는 새로운 접근이 이뤄졌지만 이 또한 의미 있는 성과를 내지는 못했다.

로봇퍼즐 인공지능
이처럼 거듭된 실패를 통해 연구자들은 인간의 지식과 추론 모델만으로 인공지능을 만들어내는 것은 엄청난 작업이라는 점을 깨닫기 시작했다. 컴퓨터에게 알려줘야 할 것이 너무나 많았기 때문이다.
친구들과 대화를 한다고 치자. 어떤 말에 반응해야 하는 지, 어떤 말을 무시해야 하는 지에 대해 사람들은 특별한 주의를 기울이지 않는다. 그것은 너무도 자연스러운 것이기 때문이다. 하지만 이 과정을 컴퓨터에게 가르쳐야 한다면 이야기가 달라진다. 여러 찬구들중 어떤 친구의 이야기를 들어야할까? 주목해야 할 대상을 찾는 데도 목소리의 크기, 속도, 높낮이, 시선, 제스처 등 고려해야 할 변수는 엄청나게 많고 이를 명확하게 수치화하는 것도 쉽지 않다.

페이스북에 합류한 인공지능 전문가 얀 레쿤 뉴욕 대 교수가 머신러닝에 대해 설명하고 있다
사람이 학습하는 방식을 접목해 이 같은 문제를 해결하려는 시도가 바로 머신러닝(machine learning)이다. 머신러닝은 결정 트리, 클러스터링, 연관 규칙, 귀납적 논리 계획법, 유전 알고리즘 등 다양한 방식이 개발돼 왔다.
이중 최근 각광을 받고 있는 머신러닝 방법이 앞서 소개한 앤드류 응 교수의 연구과제인 딥러닝(Deep Learning)이다. 딥러닝은 신경망 인공지능 기술을 한 단계 발전시킨 것으로 사람이 생각하지 못했던 특징을 발견해 이를 기반으로 학습을 한다. 예를 들어 대화에서 주목해야 할 사람이 말을 할 때는 묘한 떨림이 있다든가, 어떤 톤의 음성에는 주목할 만한 메시지가 있다든가 하는 식이다. 이 같은 특징을 사람이 발견하기는 어렵겠지만 컴퓨터는 데이터에만 기반해 규칙을 찾기 때문에 뭔가 새로운 규칙을 만들어 학습을 할 수 있게 된다. 딥러닝은 향후 우리 컴퓨팅 환경을 획기적으로 바꾸고 인공지능 기술을 한 단계 올릴 수 있는 잠재력을 갖고 있다는 점에서 주목을 받고 있다.
특히 최근 빅데이터와 클라우드 컴퓨팅 등 새로운 기술과 결합하면서 인공지능의 실현 가능성이 높아지고 있는 것이다. 앤드류 응 교수는 지난해 엠테크(EmTech)란 컨퍼런스에서 강연을 통해 “전통적인 알고리즘은 투입되는 데이터의 양이 많아지면 속도가 느려지고 작동을 멈추지만 딥러닝은 데이터를 많이 넣을수록 더 잘 동작한다는 것이 큰 매력”이라며 음성인식과 멀티미디어 검색에서 큰 발전이 있을 것이라고 내다봤다.
지금까지 방대한 정보와 연산을 처리해야 하는 것이 인공지능의 걸림돌이었는데 머신러닝은 데이터가 많을수록 더 잘 학습하게 되므로 오히려 좋은 성과를 낼 수 있다는 것이다. 인공지능을 통해 사용하기 편한 서비스를 제공하면 이용자가 늘고 그만큼 데이터를 많이 수집할 수 있다. 데이터가 쌓일수록 머신러닝을 통해 더 영리해지고, 이미지나 음성 등의 인식률은 더욱 향상되는 선순환이 가능해지는 것이다.
이미 구글과 마이크로소프트(MS), 애플 등 세계적인 IT 기업들은 차세대 사업의 흥망이 인공지능에 있다고 보고 선점경쟁을 벌이고 있다.
업계에서 가장 유리한 고지를 점령하고 있는 곳은 구글이다. 인공지능 관련 IT 기업과 전문가들이 구글 속으로 빨려 들어가고 있다고 해도 과언이 아닐 정도다. 이미 ‘인공지능 맨해튼 프로젝트’라는 이름 아래 수 억 달러 단위의 기업 합병을 진행했고, 최근 1년간 10여 개의 인공지능 관련 기업이 구글 프로젝트에 가담했다. 인공지능 관련한 기업인수에도 적극적으로 나서고 있다. 구글은 머신러닝 기술을 개인 비서 서비스인 ‘구글 나우’의 음성 인식 정확도를 높이고 유튜브 상의 영상을 추천하는 알고리즘에 활용하고 있다.
마이크로소프트는 지난해 음성인식 기능을 장착한 개인비서 ‘코타나’를 출시했다. 규칙을 기반으로 만들어진 애플의 ‘시리’보다 한 단계 발전된 서비스 형태라는 평가다. 또 지난해 7월에는 컴퓨터가 학습을 통해 개의 품종을 분류하는 기술을 공개하기도 했다. ‘아담’이라 불리는 이 프로젝트에서는 1400만 장 이상의 개 사진을 분석하는데, 구글보다 약 50배 빠른 분석속도를 자랑했다.

페이스북 딥페이스를 이용해 배우 실베스타 스탤론의 얼굴을 인식하는 과정
페이스북은 머신러닝 기술을 얼굴 인식에 사용하고 있다. 2013년 9월 ‘인공지능 연구그룹’을 출범시키면서 얼굴 인식 프로그램 ‘딥 페이스’를 발표했다. 사람의 눈에 가까울 만큼 정확성을 보이는 것으로 평가받는 이 기술은 이용자의 얼굴을 인식, 어떤 각도에서 보더라도 해당 이용자를 파악해낸다. 페이스북은 또 사진에서 정확하게 인물의 성별, 헤어스타일, 옷 스타일, 얼굴 표정을 식별하는 방법도 연구하고 있다.

IBM의_왓슨이 제퍼디 퀴즈쇼에서 우승하는 장면
IBM은 머신러닝과는 다른 방법으로 인공지능 연구를 추진해 성과를 내고 있다. 지식처리 기반 인공지능 컴퓨터인 ‘왓슨’을 싱가포르 DBS은행, 호주 뉴질랜드은행, 캐나다 로열은행 등에 적용해 은행의 상품목록과 고객정보를 분석, 투자자에게 적합한 종목을 제안하는 일을 하고 있다. 또 최근에는 의료 분야에 진출, 2000만 페이지 분량의 암 정보와 임상결과 등 최신논문을 기반으로 진료기록을 분석, 최적의 치료법을 의사들에게 제안하고 있다.
중국기업들의 움직임도 활발하다. 중국의 구글이라 불리는 바이두는 미국 실리콘밸리에 인공지능연구소를 설립하고, 앤드류 응 교수를 총책임자로 영입했다. 바이두는 이미 식물, 옷, 책 등을 스마트폰 카메라로 구별할 수 있는 이미지 인식기술 ‘바이두 아이’를 갖고 있다. 이 이미지 인식기술의 에러율은 5.98%로 사람의 에러율(5.1%)에 근접했다. 이 기술은 온라인 쇼핑 시 상품을 쉽게 찾을 수 있게 해준다. 바이두는 음성으로 물품을 찾을 수 있도록 지원하기 위해 음성인식 기술도 연구 중이다. 마윈 알리바바 회장도 최근 인공지능 산업에 상당한 투자를 할 계획이라고 밝혔다.
관련업계는 10년 뒤 인공지능 시장 규모가 70조 달러를 넘어설 것으로 예상하고 있다. 컨설팅 기업 맥킨지는 2025년 인공지능을 통한 ‘지식노동 자동화’의 파급효과가 연간 5조2000억~6조7000억 달러가 될 것으로 전망했다.

Artificial-Intelligence-AI
인공지능 기술의 발전함에 따라 이를 경계하는 목소리도 나오고 있다. 세계적 전기차 기업인 테슬라의 엘론 머스크 회장은 “인공지능의 악용을 방지하고 인류에게 해를 끼칠 수 없도록 하기 위해 국제적인 법 정비가 필요하다”며 인공 지능은 ‘악마를 소환하는 것’이라고까지 비판해 화제를 낳았다. 물리학자 스티븐 호킹과 마이크로소프트 창업자 빌게이츠 역시 인공지능 기술이 인류에게 악영향을 줄 수 있다고 경고하고 나섰다.
이들의 경고가 어느 정도 현실성이 있는 것인지, 아직 기술개발 초기인 지금으로서는 선뜻 단언하기 어렵다. 전문가들은 적어도 몇 십년 내에 사람들이 기대하는 정도의 ‘ 인공지능’을 만들어내는 것은 불가능하다고 진단한다. 인공지능을 구현하려면 인간에 대한 연구나 데이터가 지금보다 훨씬 더 많이 축적돼야 한다는 것.
하지만 앞으로 다양한 분야에서 인공지능 기술의 활용이 이뤄질 것은 분명하다. 또한 얼마나 인공지능을 잘 활용하고 데이터를 활용하느냐가 기업은 물론 산업과 국가경쟁력을 좌우할 전망이다. 인공지능을 활용할 경우 일하는 방식이나 생산, 생활 등 다양한 분야에서 많은 개선이 이뤄질 것이다.
고용방식이나 업무의 내용도 달라진다. 영화에 나오는 것 같은 인공지능의 구현은 불가능할지 몰라도 인공지능 기술의 발전은 어떤 직업이나 일에는 치명적인 것이 될 것이다. 규칙적으로 반복하는 일, 단순하면서도 정교함이 필요한 일이 그 대상이 될 가능성이 높다. 이 경우 일자리를 뺏기게 될 사람들을 어떻게 도와주고 재교육할 것인지, 새로운 일자리를 어떻게 마련할 것인지에 대한 고민과 대비가 필요한 시점이다.
![]() |
장윤옥 (머니투데이 편집국 부국장) |
---|---|
테크앤비욘드 편집장(현) | |
디지털타임스 생활과학부장, 컴퓨팅부 부장 | |
전자신문 정보통신산업부 정보생활부 기자 |