- 2025년 10월 8일 오후 12:13
- 조회수: 77
김성범 교수님
양자 머신러닝 (Quantum Machine Learning)
양자 머신러닝 (quantum machine learning)이라는
주제를 소개하기 위해서는 먼저 양자역학에서 나오는 몇 가지 핵심 개념을 살펴볼 필요가 있다. 중첩(superposition), 얽힘(entanglement), 간섭(interference), 터널링(tunneling)이 네 가지 중요
개념으로, 중첩은 여러 가능한 상태가 동시에 존재할 수 있다는 개념이고, 얽힘은 두 상태가 강하게 연결되어 있어서 하나의 상태를 측정하는 순간 다른 상태도 함께 정해진다는 개념이며, 간섭은 입자의 파동함수가 여러 경로를 따라 진동하면서 서로 겹칠 때 위상 차이에 따라 확률 진폭이 강화되거나
상쇄되는 현상을 뜻한다. 터널링은 고전 물리학적으로는 절대 통과할 수 없는 장벽을 양자역학적으로는 확률적으로
통과할 수 있는 현상이다. 특히 2025년 노벨 물리학상
수상자들인 John Clarke, Michel Devoret, John Martinis는 초전도 회로
기반에서 거시적 양자 터널링과 에너지 양자화 현상을 입증한 공로로 수상했으며, 이들은 조셉슨 접합(Josephson junction)이라는 초전도 소자를 이용하여 손으로 만질 수 있는 크기의 회로에서도 양자
현상이 나타날 수 있음을 실험적으로 확인했다.
이어서 또 다른 핵심 개념인 큐비트의 개념을 이해한 뒤에 양자 머신러닝을 본격적으로 설명해 보겠다. 고전 컴퓨터에서 사용하는 비트(bit)는 정보를 0 또는 1 중 하나의 상태로만 저장하지만, 큐비트(quantum bit)는 중첩 상태로 0과 1이 동시에 존재할 수 있다.
큐비트의 수가 증가할수록 양자컴퓨터가 한번에 표현하고 연산할 수 있는 상태 공간(state
space)의 크기는 지수적으로 커지며, 일반적으로 k
이제 양자 머신러닝을 살펴보자. 양자 머신러닝은 앞서 언급한 양자역학적
기법들을 머신러닝 문제 해결에 응용하여 효율성을 높이려는 연구 분야다. 예컨대 양자컴퓨터는 중첩과 얽힘
상태를 활용하여 데이터를 표현할 수 있고, k
종합적으로 보면, 최근 머신러닝의 흐름은 단순히 주어진 데이터를 모델에 넣는 것이 아니라 먼저 중요한 특징을 추출하고 인코딩(임베딩)한 뒤 그 표현을 이용해 모델링하는 것이다. 양자 머신러닝에서는 이 인코딩/임베딩 단계에 양자역학적 상태 표현을 활용하여 더 복잡한 패턴까지 효율적으로 추출할 수 있다. 이는 고전적 autoencoder 개념과 유사하지만, 양자 상태 표현을 쓰면 더 정교한 표현력을 기대할 수 있다. 다만 아직 양자 머신러닝은 초기 단계에 머물러 있다. 양자 하드웨어의 노이즈 제어와 큐비트 수의 제약을 극복하고, 기존 머신러닝 알고리즘을 양자 환경에 맞게 재설계하거나 양자 고유의 특성을 활용한 새로운 머신러닝 알고리즘을 개발하며, 기존 알고리즘과 양자 알고리즘의 결합에 대한 연구가 활발히 이루어져야 할 것이다.
To introduce the concept of quantum machine learning,
it is essential to begin with several foundational ideas from quantum
mechanics. Four key principles—superposition, entanglement, interference, and tunneling—form
the backbone of quantum theory. Superposition refers to the ability of a
quantum system to exist in multiple possible states simultaneously. Entanglement
describes a deep connection between two or more quantum states, where measuring
one instantly determines the state of the other, regardless of distance. Interference
occurs when the wave functions of particles overlap along different paths,
leading to the amplification or cancellation of probabilities depending on
their phase differences. Finally, tunneling refers to the phenomenon in which a
particle can pass through an energy barrier that would be insurmountable under
classical physics. Notably, the 2025 Nobel Prize in Physics was awarded to John
Clarke, Michel Devoret, and John Martinis for their groundbreaking work
demonstrating macroscopic quantum tunneling and energy quantization in
superconducting circuits. Using a special superconducting device known as the Josephson
junction, they provided experimental evidence that quantum phenomena can occur
in electrical circuits large enough to be seen and handled—bridging the gap
between the quantum and classical worlds.
Before delving into quantum machine learning itself, it is helpful to understand another essential concept: the qubit (quantum bit). In classical computing, a bit stores information as either a 0 or a 1. In contrast, a qubit can exist in a superposition of both 0 and 1 at the same time. As the number of qubits increases, the state space—the total number of possible combinations the system can represent—grows exponentially. Generally, a system with k qubits can represent 2k states simultaneously. For example, one qubit can represent two states (0 and 1), two qubits can represent four states, five qubits thirty-two states, and ten qubits 1,024 states. This exponential scaling is what gives quantum computing its immense potential power compared to classical systems.
Now, let’s go over quantum machine learning. Quantum machine learning is an emerging field that seeks to leverage quantum-mechanical phenomena to make machine learning algorithms faster and more efficient. Quantum computers can represent and manipulate data using the principles of superposition and entanglement, allowing them to encode and process information in fundamentally new ways. With k qubits, a quantum system can represent 2k states simultaneously, enabling far richer and more compact data representations than those achievable on classical computers. Several algorithms illustrate this potential. quantum principal component analysis (Quantum PCA), for instance, applies quantum computation to reduce the dimensionality of high-dimensional data, drastically lowering computational complexity compared to classical PCA. Similarly, quantum methods can accelerate the inner product computations used in support vector machines (SVMs). In the field of computer vision, quantum convolutional neural networks have been proposed to achieve comparable accuracy with significantly fewer parameters by exploiting quantum properties like superposition and entanglement. Beyond images, quantum computing techniques are also being explored for complex sequential data such as natural language and time series, where contextual and temporal relationships play a crucial role. Quantum embeddings and circuit-based representations can reduce computational costs while preserving important structural dependencies.
Taken together, the recent trend in machine learning emphasizes not simply feeding raw data into a model but first extracting meaningful features through encoding (or embedding) processes. Quantum machine learning fits naturally into this paradigm by using quantum states as an enhanced representational space for feature extraction. In a sense, it parallels the idea of an autoencoder, but with the added expressive power of quantum mechanics, allowing for more intricate and efficient pattern representation. That said, quantum machine learning is still in its infancy. To realize its full potential, future research must focus on overcoming the practical challenges of quantum hardware—including noise, limited qubit counts, and decoherence—while also redesigning classical algorithms to suit quantum architectures. Furthermore, developing entirely new algorithms that exploit uniquely quantum characteristics, and advancing hybrid quantum-classical approaches that blend the strengths of both computing paradigms, will be critical to the next stage of progress in this field.
Seoung Bum Kim. All Rights Reserved. No part of
this document may be cited or reproduced without permission.