[차세대리더포럼] 제18회, 채은미 고려대학교 교수, “양자컴퓨팅의 현재와 미래” 강연 요약
“양자 컴퓨팅 어디까지 왔나”
채은미 고려대학교 물리학과 교수 ‘양자 컴퓨팅의 현재와 미래’ 주제 강연

”양자 컴퓨팅은 더 이상 이론 속 미래가 아니다. ‘중첩’과 ‘얽힘’이라는 양자 원리는 기존 컴퓨터의 한계를 넘어 산업과 기술의 판을 바꾸고 있다.“
<처음 만나는 양자의 세계>의 저자인 채은미 고려대학교 물리학과 교수가 27일 열여덟 번째 영림원차세대리더포럼에서 ‘양자 컴퓨팅의 현재와 미래’를 주제로 강연했다. 일본 도쿄대학교에서 학사·석사 학위를, 미국 하버드대학교에서 물리학 박사 학위를 받은 채은미 교수는 이번 강연에서 양자 컴퓨팅의 현재 기술 수준과 다가올 변화의 방향을 쉽게 이해할 수 있도록 풀어냈다. 다음은 강연 내용.
◆ 양자 역학의 핵심 개념 ‘모든 물질은 파동이면서 동시에 입자다’
요즘 양자 기술, 양자 정보 과학이라는 단어를 많이 들었을 것이다. 양자 역학을 이용해 그동안에 불가능했던 새로운 기술을 실현하려는 시도가 양자 기술, 양자 정보 과학이다. 양자 역학을 접목해서 그동안 잴 수 없었던 것을 재는 게 양자 센싱이고, 보안이 완벽한 통신 체계를 구축하는 게 양자 통신이며, 그동안 고전 컴퓨터로는 엄두도 못 낼 계산을 순식간에 처리해 내는 것이 양자 컴퓨팅이다.
이 가운데 특히 대중의 관심이 집중되고, 여러 기관의 미래 산업 전망 보고서에서도 가장 큰 영향력을 가질 것이라고 예측되는 기술이 바로 양자 컴퓨팅이다. 양자 컴퓨팅의 기술 개발 혹은 연구는 1980년대부터 꾸준히 되어 왔다. 관련 기술 지식을 축적해 나가다가 2010년쯤부터 급속도로 발전하기 시작했다. 양자 컴퓨터가 세상 사람들의 관심을 끈 것은 2019년 구글이 처음으로 양자 컴퓨터를 개발했다고 발표했을 때이다. 구글은 이 양자 컴퓨터를 공개하면서 슈퍼 컴퓨터로 만 년 걸리는 계산을 자신들의 양자 컴퓨터를 통해 3분 만에 풀었다고 했다. 이를 통해 모든 사람들이 양자 컴퓨터라는 게 존재하고 심지어 어떤 계산을 슈퍼 컴퓨터보다 어마어마하게 잘한다는 것을 알게 됐다.
구글의 이 발표를 계기로 전 세계적인 양자 컴퓨터 개발 경쟁이 더욱 가속화됐다. 2020년 중국이 전혀 다른 방식의 양자 컴퓨터를 개발해 25억 년 걸릴 계산을 몇 분 만에 풀었다며 한 발 더 나갔다. 그러자 구글이 2024년에 두 번째 양자 컴퓨터를 공개했는데 슈퍼 컴퓨터로 14년이 걸리는 계산을 5분 만에 풀었다고 했다. 이렇게 양자 컴퓨터는 급속하게 성장했는데 사실은 저 계산 자체는 ‘퀀텀 랜덤 서킷’이라고 불리우는 어떤 특정 계산으로, 실생활에는 아무짝에도 쓸모없는 테스트용 계산이다. 양자 컴퓨터는 아직 개발 단계고 대부분의 계산은 스마트폰이 훨씬 빠르고 정확하다. 그럼에도 양자 컴퓨터가 기존 컴퓨터를 압도하는 성능을 보여줬다는 점에서 큰 의미가 있다.
그렇다면 양자 컴퓨터는 어떻게 계산을 압도적으로 빨리하는가? 이 질문에 답하려면 양자 기술의 핵심에 있는 양자 역학 얘기를 해야 한다. 우선 ‘양자’라는 단어의 의미를 알아보면 양은 양이 많다 적다 할 때 그 양이며, 자는 덩어리라는 뜻이다. 그래서 양자는 양의 기본 단위, 양의 덩어리이다. 영어로는 ‘퀀텀(Quantum)인데 ’퀀티티(Quantity)’라는 단어랑 그 뿌리가 같다. 퀀티티는 하나, 둘, 셋하고 셀 수 있는 양이라는 뜻을 가지고 있다. 이는 양자 역학이 기존의 고전 역학과는 전혀 다른 방식으로 양을 세고 이해하는 학문이라는 것을 암시한다. 양자 역학이라는 학문의 역사는 대략 100년 정도 되는데 고전 역학에서는 셀 수 없었던 어떤 양이 양자 역학에서는 셀 수 있게 됐다는 뜻을 내포하고 있다. 그 대표적인 예가 빛이다.
고전 역학에서 빛은 파동이었다. 물결을 생각하면 된다. 파동이라고 확신했던 이유는 파동의 가장 핵심적인 증거인 간섭 현상 때문이다. 똑같은 파동이 더해지면 큰 파동이 되고 서로 어긋나는 파동이 더해지면 상쇄해서 사라지는 현상을 간섭이라 부르는데, 빛에서는 이 간섭 현상을 예전부터 관측해 왔다. 그래서 다들 빛은 파동이라고 받아들이고 있었는데 100여 년 전부터 빛이 파동이라고 했을 때 설명할 수 없는 현상들이 발견되기 시작했다. 예를 들어 적외선 카메라의 원리는 물체가 어떤 온도를 가지고 있으면 빛을 내뿜는 것이다. 보통 섭씨 25도면 적외선을 많이 내뿜는데 그렇다면 온도에 따라서 내뿜는 빛의 양의 어떤 함수나 경향성이 있을 것이다. 그래서 빛이 파동이라는 걸 알고 식을 세웠는데 그 식이랑 현실이 전혀 맞지 않았다. 아예 경향성이 달랐다. 빛을 다 이해했다고 생각했는데 왜 이런 간단한 현상조차 설명할 수 없을까에 대해 사람들이 고민을 하다가 발상을 전환해서 빛이 입자라면, 빛의 알갱이(입자)의 기본 단위가 있다고 가정하면 어떨까 해서 식을 세워서 풀어봤더니 현실하고 딱 맞아 떨어졌다. 그래서 사람들이 빛이 입자라는 증거를 찾아 여러 실험들을 했고 그 결과 빛이 입자의 성질을 가지고 있다는 것도 발견했다. 그동안 파동이라고 생각했던 빛이 입자의 성질을 가지고 있다는 게 밝혀진 것이다.
물리학자들은 대칭을 좋아한다. 그동안 입자라고 생각했던 전자나 원자도 파동의 성질을 가지고 있어야지 공평하지 않을까라고 생각해서 열심히 실험을 해서 전자나 원자가 입자지만 파동의 성질을 가지고 있다는 것도 밝혀낸다. 결론적으로 모든 물질은 파동이면서 동시에 입자다, 두 가지 성질을 다 가지고 있다라는 게 양자 역학의 핵심 개념으로 자리를 잡게 됐다.
◆ 양자 역학이 녹아져 있는 기술들 ‘레이저, 반도체, GPS…’
요즘 양자 컴퓨터를 비롯한 양자 기술들이 핫하다 보니 이제 써먹을 만해졌나라고 생각하는 사람들이 많다. 사실 우리가 쓰는 많은 기술에 이미 양자 역학은 녹아 있다. 보통 1970년대 전후를 제1차 양자 혁명 시기라고 부르는데 산업화 시기랑 맞물린다. 이때는 모든 물질이 파동이면서 입자다라고 했을 때 입자성을 부각시킨, 그런 성질들을 많이 활용한 기술들이 개발됐다.
입자성의 대표적인 예로 에너지가 띄엄띄엄 존재한다라는 게 있다. 사실 빛 같은 경우도 그 빛의 밝기는 결국 빛의 에너지다. 빛의 에너지가 파동일 때는 파동의 높이에 연관되기 때문에 높이가 연속적으로 변했었는데 광자의 개념이 나오면서 빛의 에너지가 이제 광자 1개, 광자 2개 광자 3개 이렇게 띄엄띄엄 에너지가 계단식으로 존재한다는 게 밝혀졌다.
그것처럼 원자 안에 전자가 있고 원자핵이 있는데 그 전자들의 에너지도 아무 에너지나 가질 수 있는 게 아니고 1번 에너지 2번 에너지 3번 에너지처럼 이렇게 같은 높이의 계단은 아니지만 어쨌든 계단식으로 에너지가 존재한다라는 성질을 발견했다.
입자성을 활용한 기술의 대표적인 예가 레이저다. 레이저는 요즘 바코드를 읽을 때나 산업용 레이저 절단, 의료용 레이저 등으로 쓰이는데 이 레이저는 양자 역학이 없으면 절대 만들 수 없는 기술이다. 형광등이나 전구의 빛은 여러 색깔의 빛이 섞여 있고 퍼지는 성질을 가지고 있다. 그런데 레이저는 하나의 색깔만 가지고 있고 거의 퍼지지 않고 앞으로 직진하는 성질을 가지고 있는데 이게 양자 역학에서 에너지 레벨이 띄엄띄엄 존재한다라는 것을 활용한 기술이다.
또 반도체는 조건에 따라서 어떻게 엔지니어링 하느냐에 따라서 전기가 흐르기도 하고 안 흐르기도 하고, 전기가 흐르는 양도 컨트롤을 할 수 있는데 그런 반도체의 성질도 양자 역학을 도입하지 않으면 제대로 설명을 할 수 없다.
그리고 또 하나의 예로 GPS가 있다. 내 스마트폰이 GPS를 이용해 나의 위치를 파악하는 원리는 다음과 같다. 하늘에 떠다니는 수많은 GPS 위성들은 빛을 쏘고 있다. 그 위성에서 날아온 빛이 나한테까지 오는데 몇 초 걸렸나를 측정하고 그 시간에다가 빛의 속도를 곱하면 위성과 내가 몇 킬로미터 떨어져 있지를 알 수 있다. 이것을 이제 4대의 위성이랑 동시에 진행하면 지구 위에 있는 내가 어디에 있는지를 측정할 수 있게 된다. 그런데 이때 시간을 정말 정확하게 측정해야 한다. 빛이 정말 빠르고 속도가 어마어마하기 때문에 시간을 조금만 잘못 측정해도 거리 오차가 어마어마하게 커지게 된다. 지금 GPS의 정확도가 대략 1m 정도 된다고 할 때 이렇게 하려면 시간을 유효 숫자 14개 정도로 정확하게 측정해야 한다. 이를테면 100m 달리기의 기록이 9.345초라고 할 때 이는 유효 숫자 4개로 표시한 것인데 이게 숫자 14개로 표시할 만큼 정확하게 시간을 측정해야지 GPS로서 쓸 수 있다. 그렇다면 어마어마하게 좋은 시계가 필요하다. 그런 시계는 양자 역학을 이용해 만든다. 지금 인류가 가지고 있는 가장 좋은 시계는 원자시계고 이 원자시계가 지금 1초를 정의하고 있다. 이미 하늘의 GPS 위성에 이런 원자로 만든 시계가 한두 대씩 탑재되어 있다. 이미 양자 역학을 이용한 기술이 우주에 나가서 활약하고 있는 시대에 우리는 살고 있다.
◆ 양자 역학의 핵심 개념 ‘양자 중첩’과 ‘양자 얽힘’
이렇게까지 양자 역학이 지금 많이 쓰이고 있고 심지어 하나하나의 기술의 파급 효과가 엄청 큰데 왜 이제 와서 다시 주목을 받고 있느냐가 궁금할 것이다.
지금 개발하고 있는 많은 양자 과학 기술들은 물질의 파동에 집중하고 있다. 파동을 활용해 기술을 개발하는 것이 요즘 대세다. 그러면 왜 이제와서 파동을 이용한 기술 개발을 하느냐고 의문을 가질 수 있다. 그 이유는 지금까지는 할 수 없었고 이제서야 가능하게 됐기 때문이다. 과학에서 어떤 현상을 관측하는 거랑 관측한 현상을 제어해서 기술로 만드는 데는 큰 간극이 존재한다. 물질의 파동성은 지금까지 빛을 제외하고는 겨우 관측만 했다. 관측을 해서 알아는 냈지만 제어하지는 못했다. 그런데 그동안 기반 기술이 많이 진화했다. 진공 기술, 레이저 기술, 전자 장비가 좋아지고 또 냉각기 기술이 좋아지면서 물질의 파동성을 제어할 수 있게 됐다. 제어할 수 있게 된 파동성을 어디에 써먹어 볼까 해서 개발하고 있는 많은 기술들이 현재 양자 과학 기술이다.
파동성이라고 뭉뚱그려 표현을 했는데 구체적으로 들어가면 양자 중첩과 양자 얽힘이 양자 역학에서 가장 핵심 개념이다. 먼저 양자 중첩은 말 그대로 여러 상태가 동시에 겹쳐 있는 상태를 뜻한다. 기존 컴퓨터에 빗대어 얘기해보면 기존 컴퓨터는 고전 컴퓨터라고 부르는데 고전 컴퓨터에서 정보의 가장 기본 단위는 비트다. 비트는 0 또는 1, 단 2가지 상태 중 하나만 가질 수 있다. 그런데 양자 컴퓨터의 기본 단위는 양자 비트 즉 퀀텀 비트이며 줄여서 큐비트이다. 큐비트는 고전 컴퓨터의 비트처럼 0 또는 1일 될 수 있을 뿐만 아니라 0이면서 동시에 1인 상태를 가질 수 있다. 그래서 중첩이라고 부른다. 이때 중첩 상태가 0.5 같은 중간값은 아니다. 단순히 0과 1이 반반 섞인 혼합 상태가 아니라는 얘기다.
이 개념을 좀더 쉽게 이해하기 위해 동전에 비유해 보겠다. 0은 동전의 앞면, 1은 뒷면이라고 하자. 양자 중첩 상태는 동전을 탁 쳐서 동전이 빙글빙글 돌고 있는 상황과 비슷하다. 회전 중일 때는 앞면인지 뒷면인지 명확히 구분할 수 없고, 앞면이면서 동시에 뒷면이라고도 할 수 있는 상태이다. 이때 빙글빙글 돌고 있는 동전을 손바닥으로 탁 멈추는 행위가 측정이다. 멈춰서 넘어진 동전은 앞면이나 뒷면이 무작위로 나올 것이다. 한 번 넘어진 동전은 다시 스스로 일어나서 돌지 않는다. 즉 비가역적이다.
중첩 상태를 한 번 측정하면 어떤 값이 나올지 예측할 수 없다. 하지만 여러 번 반복해서 측정하면 각각의 결과가 나올 확률 분포를 얻을 수 있다. 이처럼 양자 역학은 결과를 확률적으로 예측하는 과학이라고 할 수 있다.
양자 얽힘은 2개 이상의 시스템이 서로 밀접하게 연결되어, 각각의 상태를 따로따로 기술할 수 없는 상태를 의미한다. 이는 마치 보이지 않는 실로 두 시스템이 강하게 묶여 있는 것처럼, 하나의 상태가 다른 하나의 상태에 직접적으로 영향을 미친다. 이 개념을 이해하기 위해 2개의 동전이 돌고 있는데 하나의 동전은 지구에, 또하나의 동전은 달에 있다고 가정해보자. 지구에 있는 동전을 탁 때리는 순간 동전은 앞면이 나오거나 뒷면이 나올 것이다. 앞면이 나오는 그 순간 달에 있는 동전도 넘어지면서 앞면이 나온다. 이게 양자 얽힘 현상이다.
이 양자 중첩이나 얽힘은 우리의 직관이랑 좀 어긋난다. 그게 말이 되느냐고 묻는게 자연스럽다. 아인슈타인도 양자 중첩과 얽힘을 끝까지 인정하지 않았다. ”신은 주사위를 던지지 않는다“는 유명한 말을 남기며 자연이 무작위로 움직인다는 양자 역학의 주장을 받아들이지 않았다.
그런데 과학은 실험의 학문이다. 물리학은 우리가 사는 세계를 설명하는 학문이기 때문에 식이 완벽하다고 해도 실험적으로 검증을 할 수 없으면 가설에 불과하다. 그래서 많은 사람들이 이 양자 중첩과 얽힘을 증명하기 위해서 실험을 했다.
아일랜드 물리학자 존 스튜어트 벨이 어떤 하나의 식을 만들었다. ‘벨 부등식’이라고 하는데 이 식을 증명하면 양자 역학 중첩, 얽힘이 맞는 것이 아니라 반대로 틀린 것이라는 거였다. 사람들이 실험을 했는데 벨이 만든 부등식이 틀린 걸 발견했다. 중첩, 얽힘이 실제로 존재한다라는 걸 실험적으로 구현한 것이다. 이는 양자 역학이 과학적 논쟁에서 승리할 뿐만 아니라 양자 정보 과학과 같은 새로운 분야의 탄생으로 이어졌다. 1970년대부터 각자 이 실험을 했던 존 클라우저, 알랭 아스페, 안톤 차일링거 세 사람은 양자 얽힘 현상과 벨 부등식의 위배를 입증하고 이를 기반으로 양자 정보 과학을 개척한 공로를 인정받아 2022년 노벨 물리학상을 받았다. 이로써 양자 역학은 실험적인 증명과 기술적 응용에서 모두 성공하며 현대 물리학의 토대로 자리를 잡았으며, 우리를 더 새롭고 낯선 세계로 이끄는 출발점이 됐다. 양자 역학의 중첩, 얽힘은 우리가 사는 세계를 설명하는 타당한 방법이다.
◆ 양자 컴퓨터와 고전 컴퓨터의 차이
지금의 양자 기술은 이 중첩과 얽힘을 활용해 그동안 재지 못했던 것을 재고, 그동안 할 수 없었던 통신을 만들고, 그동안 할 수 없었던 컴퓨터를 만들고 있다. 이 중첩, 얽힘을 어떻게 잘 만들고 유지하고 제어하는지가 가장 핵심이다.
아까 동전 도는 것으로 중첩, 얽힘을 설명했는데 동전도 가만히 두면 혼자 넘어진다. 중첩, 얽힘도 가만히 두면 사라진다. 상당히 연약한 아이들이다. 중첩 상태가 진공의 홀로 가만히 있다면 계속 가겠지만 실제 세계에서는 여러 노이즈들이 있기 때문에 금방 죽는다. 그래서 얼마나 잘 유지하고 제어하는가가 핵심이다.
중첩, 얽힘을 이용해 양자 컴퓨터가 어떻게 계산을 하는가를 살펴보자. 먼저 중첩은 궁극의 병렬 연산이다. 여러 경우의 수를 동시에 탐색할 수 있게 해준다. 고전 컴퓨터의 경우 비트가 3개 있다고 하면 가능한 경우의 수는 2의 3승으로 8가지다. 이제 A라는 문제가 있고 이 8가지 경우의 수 중 하나가 정답이라고 가정해보자. 고전 컴퓨터는 이 문제의 정답을 찾기 위해 각 경우의 비트 조합과 A의 차이를 계산해 본다. 예를 들어 정답이 101이라면 A-101=0이 되는 조합을 찾는 식이다. 이렇게 모든 경우를 하나하나 계산해서 결과가 0이 되는 조합이 있는지를 확인하는 방식이다. 다시 말해 비트가 3개일 때 8번의 계산이 필요하다. 그렇다면 양자 컴퓨터는 이 문제를 어떻게 풀까? 양자 컴퓨터는 중첩을 이용해 문제에 접근한다. 예를 들어 3개의 큐비트가 모두 중첩 상태에 있다고 보자. 이 세 큐비트는 동시에 000이면서 001이고 또 010이면서 011…결국 8가지 모든 조합을 한꺼번에 포함하게 된다. 고전 컴퓨터가 8번의 계산을 해야하는 문제를, 양자 컴퓨터는 이 중첩된 하나의 상태만 계산함으로써 8가지 모두를 한 번에 처리할 수 있는 셈이다. 이것이 바로 양아 컴퓨터의 병렬 계산 능력이다.
그런데 앞서 중첩 개념을 설명하면서 측정에 대해 얘기했다. 0과 1이 동시에 존재하는 중접 상태에서도 측정을 하면 결과는 0아니면 1, 둘 중 하나가 무작위로 나온다고 했다. 그렇다면 ”A-xxx의 값을 알아내는 계산 과정에서 우리가 결과를 알려면 측정이 필요한데, 측정했을 때 그 값이 랜덤하게 나온다면 어떻게 정답을 알 수 있을까“라는 의문을 품을 것이다. 중첩 상태를 한 번 측정하면 어떤 값이 나올지 예측할 수 없다. 이것을 여러 번 반복해 측정하면 각각의 결과가 나올 확률 분포를 얻을 수 있다. 양자 컴퓨터는 이 점을 활용한다. 한 번의 측정으로 원하는 정답을 얻을 수 없지만 같은 계산을 반복해서 여러 번 수행함으로써 그 계산 결과들의 분포를 얻고 이 분포 안에서 정답을 얻는다.
예를 들어 세 개의 큐비트로 10번 측정을 반복해 99%의 확률 분포를 얻고 정답을 추론했다고 가정해보자. 그러면 고전 컴퓨터보다 더 낫다고 할 수 없다.왜냐하면 고전 컴퓨터에서는 8번만 계산하는 문제였는데 양자 컴퓨터는 복잡한 중첩 상태를 만들고도 10번이나 계산을 반복해야 했으니 오히려 비효율적이다. 하지만 큐비트의 수가 늘어날수록 얘기는 달라진다.
예를 들어 10개의 큐비트를 사용하는 경우를 생각해보자. 고전 컴퓨터에서는 10개의 비트를 사용하면 경우의 수는 2의 10승 1,024개다. 1,024번의 계산을 해야만 답을 알 수 있다. 그런데 양자 컴퓨터는 10개의 큐비트를 다 중첩으로 만들 수 있다. 그렇게 하면 이 큐비트들은 1,024개의 경우를 동시에 포함하게 되고 양자 컴퓨터는 그 전체를 한꺼번에 계산할 수 있게 된다. 물론 앞서 말했듯이, 측정 결과는 랜덤하게 나오기 때문에 한 번만 계산해서는 정답을 알 수 없다. 예를 들어 100번 정도 반복해서 계산하고 측정해야 확률 분포를 얻고 정답에 가까운 값을 찾을 수 있다고 가정해보자. 그럼 고전 컴퓨터는 1,024번이나 계산해야 했던 작업을 양자 컴퓨터는 100번의 반복만으로 해결한다. 단 10개의 큐비트만 가지고도 이미 차이가 나타나기 시작한다. 더 많은 큐비트를 가질수록 이 차이는 기하급수적으로 커진다. 300개의 큐비트를 가진 양자 컴퓨터는 2의 300승 즉 10의 90승의 경우를 동시에 계산할 수 있게 되는데 이는 우주에 존재하는 모든 원자의 개수의 추정치인 10의 80승보다 약 10억배 더 큰 수이다. 양자 컴퓨터는 큐비트의 개수가 많으면 많을수록 더욱 강력한 연산 능력을 가질 수 있게 된다.
양자 컴퓨터의 또 하나의 무기는 바로 얽힘이다. 얽힘은 2개 이상의 큐비트가 서로 강하게 연결되어 하나의 큐비트에 가해진 연산이 다른 큐비트에도 즉각적인 영향을 미치는 현상이다. 예를 들어보자. 고전 컴퓨터에서 비트들은 완전히 독립적으로 작동한다. 하나의 비트값을 바꾸더라도 다른 비트에는 아무런 영향을 주지 않는다. 반면 양자 컴퓨터에서는 큐비트들이 얽힘 상태에 있을 경우, 하나의 연산이 여러 큐비트에 동시에 영향을 주는 일이 가능하다. 이로 인해 연산 속도가 획기적으로 향상될 수 있다.
◆ 양자 컴퓨터의 대표 알고리즘 ‘쇼어 알고리즘’
양자 컴퓨터의 활용 분야를 얘기할 때 가장 먼저 떠올리는 것이 암호이다. 만약 양자 컴퓨터가 기존 암호를 손쉽게 해독하게 된다면 그 여파는 실로 막대할 것이다.
양자 컴퓨터가 특히 뛰어난 성능을 발휘하는 분야가 소인수분해이다. 소인수분해는 숫자를 쪼개는 것인데 예를 들어 15라는 숫자가 있으면 3 곱하기 5로 쪼개는 것이다. 곱하기의 반대라고 봐도 된다. 곱하기는 쉬운 계산이지만 거꾸로 소인수분해는 수학적으로 아주 어려운 계산이고 시간이 많이 소요된다. 숫자가 커질수록 그 난도는 폭발적으로 증가해 슈퍼컴퓨터로도 수십억 년이 걸릴 정도이다. 이처럼 풀기 어려운 성질을 이용해 암호를 만들면 현실적으로 해독이 불가능한 강력한 암호 체계를 구축할 수 있다.
양자 컴퓨터가 문제를 해결하는 방식을 양자 알고리즘이라고 부르며 그 중에 가장 유명한 것이 1994년 MIT의 피터 쇼어 교수가 제안한 쇼어 알고리즘이다. 이 알고리즘은 큰 수의 소인수분해를 기존 방식보다 훨씬 빠르게 처리할 수 있는 혁신적인 방법이다. 예를 들어 소인수분해 기반의 RSA 암호를 고전 컴퓨터로 풀려면 수백만~수십억 년이 걸리지만 충분한 큐비트와 안정성을 갖춘 양자 컴퓨터라면 단 몇 시간 만에 계산을 끝낼 수 있다.
◆ 양자 컴퓨터의 대표 시스템 네 가지 ‘초전도 큐비트·원자 이온·중성 원자·광자’
현재 양자 컴퓨터는 어디까지 개발되고 있는지를 살펴보자. 양자 컴퓨터의 대표적인 시스템은 모두 네 가지로 초전도 큐비트, 원자이온(이온 트랩), 중성 원자, 광자가 그것이다.
이 네 가지 시스템은 큐비트 하나를 어떻게 만드는가에 차이가 있다. 초전도 큐비트는 초전도 물질로 회로를 작게 그려서 큐비트를 그리는 시스템이며, 원자 이온 또는 중성 원자는 원자 하나를 큐비트로 쓰는 시스템이고, 광자는 말 그대로 빛을 큐비트로 쓰는 시스템이다.
이 네가지 시스템의 대략적인 장단점을 살펴보면 초전도 큐비트와 원자 이온은 양자 컴퓨터 개발의 제일 선배로서, 제어 능력이 뛰어난 것이 강점이다. 초전도 큐비트는 반도체 칩을 만드는 공정과 유사하게 초전도체 금속으로 칩 위에 미세한 회로를 그려 만든다. 반도체 칩과 비슷한 외형을 가지고 있다. 기업들이 공개한 초전도 큐비트 칩들은 3~4센티미터 크기에 수십에서 수백 개의 큐비트가 구현되어 있다. 각 큐비트는 전선으로 연결되어 전기 신호를 통해 제어된다. 원자 이온은 양자 컴퓨터 모든 시스템에서 제어 면에서 기록을 보유하고 있다. 하나의 큐비티를 제어할 때 99.999985%의 정확도로 제어를 할 수 있는 시스템이다.
초전도 큐비트와 원자 이온, 이 둘의 단점은 큐비트의 개수를 늘리는 게 어렵다. 확장성에 한계가 있다는 얘기다. 예를 들어 초전도 큐비트의 칩은 일반적인 반도체와 달리 극저온(섭씨 –273도) 환경에서만 양자 컴퓨터로서 제대로 작동한다. 이 극저온은 초전도 현상이 일어나기 위한 필수 조건인 동시에 큐비트의 양자 상태를 안정적으로 유지하는 데 매우 중요한 역할을 한다. 그래서 어마어마하게 비싼 냉각 장치와 복잡한 인프라가 필수적이다. 냉각기는 직경 1m, 키 1~2m 정도로, 가운데 가장 온도가 낮은 부분에 초전도 큐비트 칩이 탑재되어 있다. 큐비트 칩은 몇 센티미터에 불과하다. 황금색으로 보이는 수많은 선들은 큐비트를 제어하기 위한 전선들이다. 이 초전도 큐비트를 제어하는 전기 신호는 통신에서 많이 쓰는 5기가헤르츠의 신호인데 그 신호용 전선은 굵다. 굵은 전선은 결국 더 많은 구리가 소요된다는 뜻이다. 이를테면 1,000개의 큐비트가 있다면 1,000개의 전선이 필요하고, 이 전선들을 모두 냉각기에 넣는 데는 물리적인 한계가 있다. 현재 기술로는 하나의 냉각기에 약 1,000개 정도의 규비트만 연결할 수 있는 것으로 알려져 있다.
업계에서는 아무 계산이나 다 잘하는 양자 컴퓨터를 만들려면 100만 큐비트가 있어야 된다고 얘기한다. 한 대에 1,000개의 큐비트가 있다면 그게 1,000대 있어야만 100만 큐비트가 된다. 여기에다 냉각기 1,000대를 모으는 것도 쉽지 않을 뿐만 아니라 어떻게 잘 연결할지도 문제다.
원자 이온은 양전하를 띤 원자를 전기장으로 만든 트랩에 포획해 그 하나하나를 양자 정보의 기본 단위인 큐비트로 사용하는 방식이다. 이 방식은 원자 자체를 100만 개 모으는 건 어렵지가 않은데 그 100만 개의 원자 이온을 담아두는 그릇을 만들기가 어렵다. 원자 같은 경우는 진공에 떠 있고 진공에 떠 있는 원자를 전기장으로 잡아주는데 그 전기장 컨트롤이 점점 어려워진다. 그만큼 확장성에 문제가 있다.
반대로 중성 원자와 광자는 앞의 시스템에 비해 후배들인데, 확장성이 뛰어나다는 장점이 있다. 중성 원자의 경우 2024년 캘리포니아 공과대학교에서 6100큐비트짜리 양자 컴퓨터를 공개했다. 가장 먼저 1만 큐비트를 달성할 시스템은 중성 원자일 것으로 전망된다.
광자의 경우 광자를 많이 만드는 것이 어렵지 않아서 확장성에서 유리한 점이 있지만 제어 능력 면에서 앞의 초전도 큐비트와 원자 이온 시스템을 따라가지 못하고 있다. 중성 원자는 제어 면에서 많이 따라잡았다.
◆ 양자 컴퓨터 연구개발 한창
현재 많은 회사들이 양자 컴퓨터에 관한 연구개발을 하고 있는데 초전도 큐비트 양자 컴퓨터의 경우 IBM, 구글 등 거대 기업들이 많이 하고 있어 가장 유명하다. IBM이 가장 먼저 이 분야에서 연구를 시작했으며 소프트웨어 플랫폼으로 클라우드 서비스를 처음 제공하면서 유저를 확보해 나가고 있다. IBM은 2023년에 1,121개의 큐비트를 가진 ‘콘도르’ 프로세서를 발표했다.
구글은 거의 연구용이다. 일반인들은 사용할 수가 없으며, 연구용도 거의 해외 석학급과 협업을 하고 있다. 구글은 2024년에 오류 수정 기술을 강화한 ‘윌로우’칩을 개발해 양자 알고리즘의 신뢰성을 높이고 있다.
이온 트랩 양자 컴퓨터의 개발은 최근 몇 년간 빠르게 진전되고 있다. 대표적인 회사가 아이온큐와 퀀티넘이다. 아이온큐는 32큐비트 시스템을 운영하고 있으며 2027년까지 10,000큐비트 이상의 시스템 개발을 목표로 하고 있다. 컨티넘은 56큐비트의 상용 시스템을 선보였으며 오류 수정 기술과 큐비트 확장 연구에 집중하고 있다.
중성 원자나 광자 양자 컴퓨터를 개발하는 회사는 위 회사들보다 상대적으로 규모가 작은 편이다. 대부분 100여 명 정도의 연구자들이 있는 회사들이다. 특히 중성 원자의 경우 대학에서 스핀오픈한 회사가 많다. 미국의 쿠에라, 프랑스의 파스칼, 미국의 아톰 컴퓨팅 등이 대표적이다. 쿠에라는 256개 이상의 큐비트를 가진 양자 시뮬레이터를 개발한 데 이어 최근에는 48개의 논리 큐비트를 가진 프로세서를 시연했다. 아톰 컴퓨팅은 1,180개의 큐비트를 갖춘 시스템을 공개했고, 파스칼은 200개 이상의 큐비트를 가진 장치를 선보였다.
지금까지 설명한 것은 컴퓨터로 치면 CPU이다. 양자 컴퓨터가 꼭 지금의 컴퓨터를 따라 할 필요는 없다. 전혀 다른 방식으로 발전해도 되지만 지금 컴퓨터라는 롤 모델이 있다 보니까 양자 컴퓨터 분야에서도 하드웨어 연구 그것도 QPU(Quantum Processing Unit), 양자 메모리, 그리고 양자 소프트웨어 등의 연구가 이뤄지고 있다.
양자 컴퓨터가 제대로 작동하려면 다양한 기반 기술이 필요하다. 전자 신호로 큐비트를 제어하는 레이저나 마이크로파 생성 장비 등은 양자 컴퓨터의 성능을 좌우한다. 만일 레이저를 쓴다면 당연히 거울이라든가 렌즈 등 광학 소자들도 필요하며, 그리고 모든 양자 컴퓨터는 진공에 있기 때문에 진공 기술도 중요하고, 냉각기 기술도 빼놓을 수 없다.
이런 다양한 기반 기술까지 어우러진 양자 생태계는 서로 협업해서 산업을 이끌어가고 있다. 그래서 지금이 매우 중요한 시기다. 대부분의 양자 컴퓨터가 몇백 개 정도의 큐비트는 가지고 있고, 한 번 계산할 때 에러가 0.01%에서 0.1% 정도 나온다. 아직은 모든 계산을 잘할 수 있는 만능도 아니고 그렇다고 바보도 아니다. 이제는 뭔가 재미있는 계산을 할 수 있는 능력을 가졌다. 구글이 보여줬듯이 몇몇 계산에서는 정말 현저하게 월등한 능력을 보여줄 수 있다.
◆ 양자 컴퓨티의 활용 분야⓵ ‘빅데이터, 보안’
현재 양자 컴퓨터를 어떻게 활용할 것인지에 대해 연구가 크게 네 가지 분야에서 진행되고 있다. 빅데이터, 보안, 신소재 및 분자 시뮬레이션 그리고 최적화 문제가 그것이다.
먼저 빅데이터와 보안은 양자 컴퓨터의 성능이 아주 좋아야만 써먹을 수 있다. 그래서 지금 빅데이터 연구의 대부분은 이론 연구에 머물러 있으며, 보안 연구도 양자 컴퓨터가 암호를 깨기 전에 대비하자는 연구들이 많다. 시뮬레이션과 최적화 문제는 양자 컴퓨터가 선천적으로 잘 하는 분야다. 에러가 좀 있어도 잘 풀 수 있는 문제들이어서 지금 산업계가 써보려고 활발하게 시도하고 있다.
각각을 구체적으로 살펴보면 빅데이터 하면 바로 AI를 떠오를 것이다. AI에서는 시간이 많이 소요되는 작업들이 있다. 처음에 큰 데이터를 학습할 때도 그렇지만 분류하는 작업이나 새로운 데이터가 들어왔을 때 이 새 데이터가 기존의 수많은 데이터 중에서 누구랑 가장 유사한지를 비교하는 작업들은 시간이 많이 소요된다. 그래서 양자 컴퓨터의 중첩을 활용하면 훨씬 더 효율적으로 계산을 할 수 있지 않을까 해서 ‘퀀텀 서치 알고리즘’ 등 이론적인 연구가 많이 진행되고 있다. 또 데이터가 늘어나면 이를 처리하는 GPU가 선형적으로 늘어나고 그만큼 소비하는 에너지도 늘어나게 되는데 양자 컴퓨터는 큐비트가 하나 늘어날 때마다 처리할 수 있는 데이터 양이 2배가 되고, 이게 지수함수적으로 늘어나기 때문에 상대적으로 데이터의 양이 무거워지면 무거워질수록 양자 컴퓨터가 소비하는 전력이 더 작아지게 된다는 특성을 갖고 있다. 그래서 양자 컴퓨터가 제공하는 이런 이점에 대해 연구하는 것도 이뤄지고 있다.
보안 분야의 경우 양자 컴퓨터가 개발되면 특히 암호 분야에 큰 지진이 올 것으로 전망된다. 그래서 다들 미리 대비를 해야 한다고 하는데 실제로 미국의 NIST(국립표준기술연구소)는 2035년까지 모든 암호 체계를 양자 컴퓨터에 대응할 수 있도록 바꿀 것을 권고하고 있다. 그러면 어떻게 대응을 하느냐? 새로운 보안 기술과 암호화 방식이 반드시 필요하다. 크게 두 가지 방향의 연구가 진행되고 있다. 하나는 ‘양자 암호’이며, 또다른 하나는 ‘양자 내성 암호’이다.
양자 컴퓨터가 기존 암호를 위협한다면 그 방패 역시 양자 역학을 이용해 만들 수 있지 않을까? 양자 암호는 복잡한 계산 문제를 푸는 대신 자연계의 물리 법칙에 기반해 정보를 보호하는 기술이다. 그 대표적인 예가 ‘양자 키 분배’이다. 양자 키 분배는 두 사람이 암호키를 절대적으로 안전하게 공유할 수 있도록 해주는 기술로, 양자 역학의 핵심 원리인 중첩, 얽힘, 그리고 관측의 효과가 결정적인 역할을 한다.
또 암호화할 때 난수를 많이 쓰는데 양자 역학적으로 난수를 만들면 보안에 도움이 될 것이라고 해서 이쪽 연구도 많이 진행되고 있다. 특히 금융 분야는 암호에 민감하다 보니까 예를 들어 JP모건 같은 경우는 양자 컴퓨터 회사와 손을 잡고 ‘양자 난수 생성’ 연구를 이미 진행하고 있다.
그런데 이 양자 암호의 경우 기존의 하드웨어를 양자 역학적 시스템으로 전부 갈아엎어야 한다. 그런데 10년 안에 모든 시스템을 양자 역학적 시스템으로 갈아엎는 건 불가능하다. 그래서 또다른 접근 방식으로 양자 내성 암호가 나왔다. 양자 내성 암호는 양자 암호와는 달리 고전적인 컴퓨터와 네트워크 환경에서 양자 컴퓨터의 공격에도 안전한 새로운 암호 알고리즘을 개발하는 분야이다. 이는 양자 컴퓨터로도 쉽게 풀 수 없는 수학적 문제를 바탕으로 암호를 만드는 방식이다. 기존 시스템이나 네트워크와의 호환성이 높아 양자 암호처럼 복잡한 하드웨어를 요구하지 않고, 소프트웨어나 시스템 업그레이드만으로 보안 체계를 전환할 수 있다는 점에서 현실적인 장점이 있다.
현재 대표적인 양자 내성 암호에는 격자 기반 암호, 해시 기반 서명, 다변수 다항식 기반 암호 등이 있다. 양자 내성 암호는 이미 금융, 의료, 스마트 제조, 클라우드 데이터 관리 등 다양한 산업에서 시범적으로 도입되고 있다. 국내 통신사와 보안 기업들은 VPN, 이메일 보안, 인증 시스템에 양자 내성 암호 알고리즘을 적용하는 프로젝트를 진행중이다.
국제적으로도 변화가 빠르게 진행되고 있다. NIST는 2016년부터 양자 내성 암호 알고리즘의 공모와 평가를 진행해 2024년 카이버와 딜리튬 등을 표준으로 채택했다. 또한 2022년부터 전 세계 기업, 연구소, 정부기관이 함께 양자 내성 암호 전환 프로젝트를 진행하고 있으며, 우리나라의 삼성SDS 보안연구팀도 초기 멤버로 참여하고 있다.
◆ 양자 컴퓨티의 활용 분야⓶ ‘신소재 및 분자 시뮬레이션, 최적화 문제’
신소재와 분자 시뮬레이션, 그리고 최적화 = 지금의 양자 컴퓨터도 접근하기 쉬운 문제들이 있다. 바로 신소재와 분자 시뮬레이션이다. 양자 컴퓨터의 활용 분야 중에서 개인적으로 가장 기대하는 영역이다.
어떤 분자의 구조나 화학 반응을 결정하는 것은 그 안에 있는 전자들이다. 이 전자들이 어떤 에너지를 가지고 있고, 어떤 상태에서 어떻게 움직이고 있는지가 곧 그 분자 혹은 소재의 특성을 좌우한다. 문제는 물질 안에 있는 전자들의 움직임을 정확하게 계산하는 것이 고전 컴퓨터로는 사실상 불가능하다는 점이다. 그래서 현재 고전 컴퓨터로 신소재의 특성을 시뮬레이션하려면 여러 근사치를 사용한다. 즉 지금의 컴퓨터로 풀 수 있도록 문제를 최대한 단순화하는 것이다.
하지만 양자 컴퓨터는 근본적으로 이 문제를 다른 방식으로 접근한다. 양자 컴퓨터의 큐비트 자체가 양자 역학적으로 작동하기 때문에 분자나 신소재에 있는 전자들의 움직임을 거의 근사없이 그대로 계산할 수 있다. 그래서 양자 컴퓨터가 이 분야에서 큰 공헌을 할 것으로 기대를 받고 있다.
양자 컴퓨터는 또한 복잡한 최적화 문제를 해결하는 데에도 혁신적인 변화를 가져올 것으로 기대를 모으고 있다. 최적화 문제는 여러 가지 선택지 중에서 가장 좋은 답을 찾는 것이다.
이런 시뮬레이션이나 최적화 문제는 금융, 물류, 제조, 에너지 등 다양한 산업군에서 매우 중요하게 다뤄지고 있다. 예를 들어 더 강하고 더 오래 지속되는 전기차의 배터리를 만들 경우 양자 시뮬레이션은 배터리의 수명, 충전 속도, 안전성, 에너지 밀도 등 핵심 성능을 사전에 예측하고, 소재 설계 단계에서의 최적의 조합을 찾는데 큰 도움을 준다. 또 제약 회사에서 신약 개발을 할 때 양자 시뮬레이션은 후보 물질을 빠르게 선별하고 임상 성공률을 높이는데 결정적인 역할을 할 수 있다.
양자 컴퓨터는 중첩과 얽힘 현상을 잘 활용해 최적화 문제를 효율적으로 풀어낸다. 최적화 문제를 잘 풀었을 때 가장 많은 이익을 받을 분야로 금융 분야가 꼽힌다. 금융 분야에서는 매일 같이 다양한 최적화 문제가 발생한다. 수많은 자산을 어떻게 배분할지, 어떤 주식을 얼마만큼 사고팔아야 리스크를 줄이면서 수익을 극대화할지를 등을 결정해야 한다. 양자 컴퓨터는 중첩과 얽힘이라는 특성을 활용해 여러 가능성을 동시에 탐색할 수 있어 훨씬 빠르고 정확하게 최적의 투자 조합을 찾을 수 있다.
이미 글로벌 금융기관들은 양자 컴퓨터와의 협업에 적극적이다. 골드만삭스, JP모건, HSBC 등은 양자 컴퓨터 기업들과 함께 포트폴리오 최적화 실험을 진행하고 있다.
물류 분야에서도 양자 컴퓨터의 잠재력은 크다. 배송지 수, 운송 수단, 교통 상황, 주문량 등 수많은 변수가 얽혀 있어, 전 세계 수천 대의 트럭과 비행기, 수백만 개의 소포를 동시에 관리하며 최적의 경로를 찾는 일은 슈퍼컴퓨터에게도 쉽지 않다. 양자 컴퓨터는 이러한 복잡한 문제를 효율적으로 풀 수 있는 강점을 지니고 있다. 한 예로 디웨이브라는 특수 양자 컴퓨터를 만드는 회사는 중국 베이징 시내에서 공항까지 가는 트래픽을 최적화해 택시 기사들이 훨씬 빠르게 공항을 갈 수 있도록 했다.
또 에너지를 최적화하는 데도 양자 컴퓨터가 필요할 수도 있다는 의견이 나오고 있다. 기존에는 에너지 생산이 단순했다. 큰 화력발전소, 큰 수력 발전소 큰 원자력 발전소가 어딘가에 있고 그것을 잘 분배만 하면 됐다. 그리고 큰 발전소들은 생산량도 일정해서 잘 컨트롤할 수 있었다. 그런데 요즘은 친환경 에너지를 생산하는 조그마한 발전소들이 곳곳에 많아졌다. 이런 친환경 에너지들은 시시각각 생산량이 다르고, 생산하는 장소와 시간, 그리고 소비하는 장소 와 시간도 복잡하다. 이것을 실시간으로 최적화하는 것이 매우 어려워서 태양열 같은 경우에는 날씨 좋은 날에는 버리는 에너지도 많다고 한다. 그래서 이런 모든 에너지의 최적화에도 양자 컴퓨터가 도움을 주지 않을까 기대를 받고 있다.
바이오 분야에서도 양자 컴퓨터에 관심을 보이고 있다. 병원에서는 영상의학이 매우 중요한 분야인데 AI가 이미 상당한 활약을 하고 있다. 어떤 병을 잡아내는 일에 AI가 많이 쓰이고 있는 것이다. 그런데 영상의학 데이터를 판독할 때 AI의 한계가 나올 수 있으니 양자 컴퓨터의 두뇌를 빌려서 진단 쪽에 활용할 수 있을 것이라는 의견도 나오고 있다.
모든 나라의 국방부가 양자 컴퓨터를 비롯한 양자 기술에 관심을 가지고 있다. 우리나라도 양자 컴퓨터를 주시하고, 양자 통신이나 영자 센싱에 적극적으로 투자를 하고 있다. 양자 센싱 기술의 활용 예를 간단히 살펴보면 잠수함이 수면에 떠올라야만 하는 순간들이 있다. 그 이유는 산소 공급, 연료 보급, 그리고 통신을 위해서다. 잠수함이 물에 내려가는 순간 GPS와 통신이 끊기고 나침반에 의존해야 한다. 나침반은 정확도에 제한이 있다. 그래서 정기적으로 중간중간에 해수면에 떠올라서 좌표를 보정하고 다시 내려간다.
중력은 높이에 따라 다른데 요즘 연구실 레벨에서 10cm만 높이가 달라도 중력의 차이를 감지할 수 있는 중력 센서가 나왔다. 이 중력 센서를 가지고 있으면 해저 면에 있는 산이나 계곡 등 중력 지도를 그릴 수 있다. 이 지도를 확보하고 있다면 그리고 잠수함에 중력 센서가 있다면 처음에 GPS로 여기 있구나라고 지도에 마크한 다음에 내려간 후에는 나침반과 중력 센서를 이용해 정확하게 해저 면에서 어디에 있는지를 파악할 수 있다.
이런 식으로 양자 역학을 이용해 정밀한 센서를 만들면 군용으로도 활용할 곳이 아주 무궁무진하다. 실제로 미국에서는 군 활용 목적의 연구와 우주 항공 연구를 총괄하는 ‘DARPA’라는 기관이 있는데, 이 기관에서는 ‘퀀텀 벤치마킹 이니셔티브’라는 대규모 프로그램을 추진하고 있다. 양자 컴퓨터를 비롯해 양자 기술을 이용한 군 혹은 우주 연구에 활용할 수 있는 기술 제안을 받고 있다. 이 프로그램에 아이온큐, 퀀티넘, IBM 등 다양한 기업들이 참여하고 있다.
◆ 양자 컴퓨터 아직 갈 길 멀어
10년 전에 박사학위를 받을 때만 해도 양자 연구를 하고 있다고 하면 어려운 거 한다며 대화가 끊겼다. 요즘은 많은 사람들이 관심을 보이며 다양한 질문들을 한다. 지금은 양자가 기초 연구에서 산업으로 전환하고 있는 시기로, 어떻게 하느냐가 매우 중요하다는 것을 매일 실감한다.
양자 컴퓨터는 끝난 게 아니고 아직 갈 길이 멀다. 대략적으로 지금 양자 컴퓨터에는 몇백 개 정도의 큐비트가 있다. 예를 들어 암호를 깨려면 5,000개의 큐비트는 있어야 하며, 범용 양자 컴퓨터를 만들려면 10,000개의 큐비트가 필요하다. 그것도 큐비트에 에러가 없을 때이다. 그런데 지금 양자 컴퓨터에는 에러가 있다. 한 번 계산할 때마다 0.1%에서 0.01%다. 1,000번 계산하면 한 번 틀리는 꼴이다. 그래서 지금은 ‘양자 오류 정정’ 연구가 아주 활발하게 이뤄지고 있다.
2024년에 구글이 ‘윌로우’ 칩을 발표할 때 나왔던 내용 중의 하나가 100큐비트로 하나의 논리 큐비트를 만들었을 때 에러가 확실히 줄었다는 것이었다. 이 말은 양자 암호를 해독하려면 5,000개의 큐비트가 필요하다는 의미다. 이 5,000개의 큐비트는 100큐비트를 묶은 논리 큐비트이다. 그러면 5,000 곱하기 100 즉 50만큐비트가 필요하다. 그래서 요즘은 모든 계산을 잘하는 양자 컴퓨터를 만들기 위해선 100만 큐비트 정도는 있어야 되고, 양자 오류 정정 연구도 더 열심히 해야 된다라고 얘기를 하고 있다.
우리나라 정부는 2022년에 ‘12대 국가전략기술’의 하나로 양자 기술을 선정했다. 정부는 양자 기술이 우리 산업의 미래 먹거리 중 하나가 될 것이라며 전폭적으로 지원하고 있다. 그 일환으로 2025년에 ‘양자 플래그십’이라는 정부 주도의 사업을 시작했다. 이 사업은 약 8년 동안 6500억 정도를 투자해 양자 컴퓨팅, 통신, 센싱 골고루 우리나라의 양자 역량을 키우겠다는 것으로, 구체적으로 1000큐비트급 양자 컴퓨터를 우리 기술로 만들겠다는 내용도 포함돼 있다.
지금 이미 미국에는 1,000큐비트급 양자 컴퓨터를 만든 기업이 있는데 우리나라가 8년 뒤에 1,000큐비트급 양자 컴퓨터를 스스로 만든다는 게 얼마나 의미가 있는지에 의문을 가진 사람들도 있다. 그러나 두 가지 의미가 있다고 본다. 첫 번째는 양자 기술이 보안이랑 밀접한 분야이다 보니 너무 외국의 기술에만 의존하는 것은 문제가 있다. 우리가 미국을 따라가지 못할 수도 있으나 어느 정도 독자적인 기술을 확보해야 추후 누가 이것을 무기로 삼을 경우 대응할 수 있을 것이다.
두 번째는 우리나라는 소부장 강국이다. 우리나라의 먹거리는 소재, 부품, 장비 분야에서 제일 많이 나오고 있다. 양자 시대가 오더라도 결국 우리나라 산업을 이끌어가는 건 소부장일 것이다. 그래서 이 분야를 선도하는데 있어 우리가 자유자재로 쓸 수 있는 양자 컴퓨터가 있으면 훨씬 유리할 것이다. 테스트를 하고 싶은데 마음대로 사용할 수 있는 양자 컴퓨터가 있어야지 해볼 수 있는 것 아닌가. 그런 의미에서 소재, 부품, 장비 부분의 개발을 가속화를 위해서도 우리가 어느 정도 양자 컴퓨터 원천 기술을 개발해야 한다.
◆ 양자 컴퓨터는 아직 초기 단계, 무궁한 가능성 있어
강연을 마무리하면서 한 가지 질문을 하고 싶다. 미래의 양자 컴퓨터는 과연 우리가 지금 보고 있는 양자 컴퓨터의 모습을 하고 있을까? 1946년 세상에 처음 공개된 인류 첫 범용 전자식 컴퓨터 ‘애니악’은 17,468개의 진공관 등으로 이뤄졌는데 무게만 27톤에 이르고 건물 한구석을 가득 채울 정도의 거대한 기계였다. 이 애니악이 세상에 나왔을 때 많은 비판을 받았다. 엄청난 연산 속도를 자랑했지만 입출력 속도가 병목이 되어 제대로 활용되지 못한 적이 많았으며, 유지보수도 만만치 않았다. 진공관의 고장은 일상이었고 진공관 하나만 손상되어도 전체가 멈추는 일이 잦았다. 또 아무나 못 다루고 오직 숙련된 운영자들만이 전담하는 저 기계를 어디에 쓰냐는 의문도 많았다. 실제로 애니악의 활용도는 제한적이었고, 주로 연구 및 군사적 목적으로 쓰였다. 이러한 초기 컴퓨터의 모습은 지금 양자 컴퓨터와 유사하다. 현재의 양자 컴퓨터는 제한된 큐비트 수, 극도의 불안정성, 복잡한 프로그래밍과 운영 등 과거 애니악이 겪었던 시행착오와 닮아있다. 심지어 입출력의 병목, 오류와의 싸움, 실용화의 난제도 그대로 반복되고 있다.
하지만 초기 컴퓨터의 모습은 이후 반도체, 트랜지스터라는 다른 분야의 혁신과 저장 프로그램이라는 새로운 개념이 더해지면서 상상 이상의 기술 발전으로 이어졌다. 그렇게 불안정했던 진공관의 ‘최초의 불빛’이 오늘날 스마트폰과 노트북, 전 세계를 연결하는 정보화 사회의 시작점이 된 것이다. 애니악을 만들었던 이들은 오늘날의 이러한 모습을 상상조차 하지 못했을 것이다. 지금 양자 컴퓨터를 보는 우리도 1940년대 그 최초의 거대한 컴퓨터를 지켜보던 개발자들과 똑같은 시선을 갖고 있는 건 아닐까?
양자 컴퓨터가 지금은 덩치가 크고 큐비트를 만드는 게 어렵다고 얘기하지만 앞으로 인공지능, 나노기술, 생명공학 등 전혀 다른 분야와 융합하며 우리가 상상조차 못한 변화를 일으킬지도 모른다. 양자 컴퓨터는 아직 초기 단계고 무궁한 가능성이 있다는 말로 강연을 마치겠다.
출처 : 아이티비즈(https://www.it-b.co.kr)
<박시현 기자> shpark@it-b.co.kr
영림원 차세대리더포럼 강연 내용은 아이티비즈 에 연재되고 있습니다.
< 저작권자 © 아이티비즈 무단전재 및 재배포 금지 >