NEWSLETTER

노블레스 매거진의 뉴스레터를 신청해보세요.
트렌드 뉴스와 이벤트 소식을 가장 빠르게 확인할 수 있습니다.

닫기

컴퓨터 패러다임이 바뀐다

MEN

일반 컴퓨터에 비해 1억 배 이상 빠른 처리 속도를 구현하는 양자 컴퓨터가 바꿀 미래를 예견해본다.

Courtesy of D-Wave Systems, Inc.

미국항공우주국(NASA)과 구글 콴툼 인공지능 연구소는 지난 2015년 12월 8일 양자 컴퓨터 ‘D웨이브 2X’의 실물을 공개했다. 구글과 NASA가 양자 컴퓨터 개발을 위해 협력하기 시작한 것은 지난 2013년 5월. 구글은 기계 학습 분야에 양자 컴퓨팅을 도입해 성과를 내는 것을 목표로 연구해왔다. 이를 위해 캐나다의 양자 컴퓨터 전문 기업 D웨이브에서 양자 컴퓨터를 구매했는데, 기대보다 성능이 떨어져 실망을 안겨주기도 했다. NASA와 협력을 통해 탄생시킨 D웨이브 2X는 D웨이브 아키텍처의 장점은 살리고 새로운 연구 성과를 접목해 일반 컴퓨터의 1억 배 이상 속도를 낸다. 이는 지금까지의 양자 컴퓨터 중 가장 빠른 속도다. 그렇다면 양자 컴퓨터가 무엇이길래 이렇게 많은 이들이 주목하는 것일까?
양자 컴퓨터의 원리를 처음 구상한 사람은 양자역학의 거장 리처드 파인먼이며, 작동 원리는 옥스퍼드 대학교의 데이비드 도이치 박사가 고안했다. 일반 컴퓨터가 트랜지스터로 만든 게이트를 로직으로 사용하며 이들의 조합으로 연산을 하는 반면, 양자 컴퓨터는 연산 법칙에 양자 원리를 이용한다. 양자 컴퓨터의 원리를 알기 위해서는 양자역학의 기본적 특징을 이해해야 한다. 양자역학에서 유명한 이중 슬릿 실험을 예로 들어보자. 일반 상식에 비춰볼 때 빛이 1번 슬릿 또는 2번 슬릿을 통과한 뒤 스크린에 떨어질 확률 분포는 빛이 1번 슬릿을 통과한 뒤와 2번 슬릿을 통과한 뒤 스크린에 떨어질 확률 분포를 더한 형태가 되어야 한다. 하지만 실제로 실험해보면 어떤 위치에서는 2개의 슬릿을 다 열어둘 때 오히려 확률이 떨어진다. 모두 0 이상인 확률로 계산하면 이런 결과가 나올 수 없지만 복소수나 음수값의 진폭으로 계산하면 이런 결과가 도출된다. 기본적으로 일반 컴퓨터는 확률적 알고리즘으로 연산을 수행하지만 양자 컴퓨터는 이런 양자 알고리즘으로 연산을 수행할 수 있다는 것이 가장 큰 차이다. 양자 컴퓨터가 일반 컴퓨터보다 빠른 것은 잘못된 솔루션을 서로 상쇄해 사라지게 할 수 있기 때문이다. 앞으로 양자 컴퓨터가 많이 도입된다면 어떤 일이 벌어질까? 현재 상당수의 암호화 기술은 소인수분해의 계산상 난점을 활용한다. 대표적인 것이 공개 키 암호화 기술. 많은 메신저에서 이용하는 표준암호화 기법으로, 암호 해독이 불가능한 것이 아니라 일반 컴퓨터가 연산으로 푸는 시간이 너무 오래 걸리는 것을 이용한다. 실제로1994년 ‘RSA129’로 알려진 129자리 숫자(426비트)를 소인수분해할 때, 전 세계 1600여 대의 워크스테이션을 병렬로 연결해 계산했음에도 8개월이 걸렸다. 250자리 숫자(829비트)라면 80만 년이 걸리고, 1000자리 숫자라면 1025억 년이 걸린다. 반면 양자 컴퓨터는 연산 속도를 획기적으로 높여 보통 컴퓨터로 수백 년이 걸리는 소인수분해 연산을 몇 분에서 몇 시간 만에 끝낸다.
이렇게 암호 해독이 가능한 양자 컴퓨터가 저렴하게 상용화된다면기존 암호 체계를 완전히 새로 만들어야 한다. 예를 들어 세계 각국의 정부가 양자 컴퓨팅 기술을 개발할 경우, 메신저 등에 대한 감청을 위해 업체의 협조를 구할 필요 없이, 인터넷에서 암호화된 메시지를 가로채기만 하면 그 메시지의 개인 키를 해독할 수 있다. 마찬가지로 금융 시스템에도 큰 파장을 일으킬 가능성이 높다. 그러므로 양자 컴퓨터가 상용화될 경우에 대비한 새로운 암호 체계와 보안 체계가 구축되어야 한다. 격자 기반 암호 체계는 아직 양자 컴퓨터로 해결할 만한 알고리즘이 없고, AES 같은 블록 암호 역시 양자 컴퓨터로는 깨뜨리지 못한다. 물론 이를 해독하는 새로운 알고리즘이 등장할 가능성 역시 배제할 수는 없지만 말이다.
또 한 가지 양자 컴퓨터의 활용 영역으로 주목받는 것은 인공지능 분야다. 최근 연구에서 양자 컴퓨팅을 활용한 양자 학습이 기계 학습의 성능을 향상시키는 데 중요한 역할을 한다고 밝혀졌다. 지금처럼 방대한 데이터가 지속적으로 늘어나고 이를 활용해 학습하는 방식이 더욱 빨라진다면 외부 환경에 효율적으로 대응하는 인공지능이 탄생할 수 있다. 일부 전문가들은 양자 컴퓨터가 현재까진 불가능하다고 보는 강인공지능을 탄생시키는 초석이 되리라 믿는다. 실용적인 약인공지능 분야에서도 활용 가능성이 높다. 예를 들어 무인 자동차 기술을 개발할 경우, 도로 위 모든 차량의 움직임을 기계 학습을 통해 분석하고 향후 교통 흐름까지 예측할 수 있다면 자율 주행의 성능이 훨씬 좋아질 것이다. 사실 이런 작업은 거의 실시간으로 이루어져야 의미가 있는데, 현재의 컴퓨터는 수많은 개별 차량의 움직임을 학습한 뒤 예측하기 때문에 많은 시간이 필요하다. 양자 컴퓨터가 이런 작업을 거의 실시간으로 해낸다면 무인 자동차 기술에서도 획기적 개선이 이루어질 것이다.
그렇지만 양자 컴퓨터가 실용화되기까지는 여전히 많은 시간이 걸릴 것으로 예상된다. 기본적으로 양자를 통제하는 것은 쉽게 상용화할 수 있는 기술이 아니고, 현재 기술로는 양자 컴퓨터를 위한‘큐비트(qubit)’를 충분히 유지시키기 어려우며 외부 환경이 조금만 변해도 변형이 일어난다. 현재 큐비트의 유지를 위해 초전도체를 이용하기 때문에 제조 단가가 높고 제대로 유지하는 데에도 어마어마한 비용이 들어간다. 또 완전히 다른 방식의 연산을 해야 하기 때문에 소프트웨어도 문제인데, 구글의 의도대로 인공지능 기계 학습에 양자 컴퓨터를 활용하기 위해서는 양자 원리를 활용한 양자 학습 알고리즘이 개발돼야 한다. 이런 알고리즘이 없다면 원리에 충실한 양자 컴퓨터가 있다 해도 빛 좋은 개살구에 불과하다.
지난 12월 구글과 NASA의 발표는 양자 컴퓨터의 실용화 가능성을 알렸다는 점에서 중대한 진전이다. 하지만 아직 풀어야 할 문제가 많기 때문에 지나친 낙관은 금물이다. 확실한 것은 양자 컴퓨터가 가져올 큰 변화에 대해 이해하고 대비를 해야 한다는 사실이다.

에디터 안미영 (myahn@noblesse.com)
정지훈(미래학자, 경희사이버대학교 교수)