Malayalam
ഭാഷകൾ
English
Bengali
French
Hindi
Italian
Japanese
Korean
Malayalam
Russian
Spanish
Tamil
Turkish
Vietnamese
Shortcuts

റാൻഡം ഡിസ്ട്രിബൂഷൻ ലോഡുചെയ്യുന്നതിനുള്ള qGAN- കൾ

നൽകിയിട്ടുള്ളത് \(k\)-ഡൈമൻഷണൽ ഡാറ്റ സാമ്പിളുകൾ, ഡാറ്റയുടെ അടിസ്ഥാന റാൻഡം ഡിസ്ട്രിബൂഷനിനെക്കുറിച്ച് മനസിലാക്കുന്നതിനും നേരിട്ട് ഒരു ക്വാണ്ടം അവസ്ഥയിലേക്ക് ലോഡുചെയ്യുന്നതിനും ഞമ്മൾ ഒരു ക്വാണ്ടം ജനറേറ്റീവ് അഡ്വേർസറിയൽ നെറ്റ്‌വർക്ക് (qGAN) ഉപയോഗിക്കുന്നു:

\[\big| g_{\theta}\rangle = \sum_{j=0}^{2^n-1} \sqrt{p_{\theta}^{j}}\big| j \rangle\]

ഇവിടെ \(p_{\theta}^{j}\) അടിസ്ഥാന സംഭവങ്ങളുടെ സാധ്യതകൾ വിവരിക്കുന്നു \(\big| j\rangle\).

പരിശീലന ഡാറ്റ \(X=\left\{x^0, \ldots, x^{k-1} \right\}\) അടിസ്ഥാനമായ വിതരണത്തിന് സമീപമുള്ള പ്രോബബിലിറ്റി ഡിസ്‌ട്രിബ്യൂഷൻ വിവരിക്കുന്ന \(p_{\theta}^{j}\), \(j\in \left\{0, \ldots, {2^n-1} \right\} യി ഒരു സ്റ്റേറ്റ് :math:\)big| g_{theta}rangle` സൃഷ്ടിക്കുക എന്നതാണ് qGAN പരിശീലനത്തിന്റെ ലക്ഷ്യം.

കൂടുതൽ വിവരങ്ങൾക്ക് കാണുക Quantum Generative Adversarial Networks for Learning and Loading Random Distributions Zoufal, Lucchi, Woerner [2019].

ഒരു അപ്ലിക്കേഷനിൽ പരിശീലനം ലഭിച്ച qGAN എങ്ങനെ ഉപയോഗിക്കാമെന്നതിന്റെ ഉദാഹരണത്തിനായി, സാമ്പത്തിക ഡെറിവേറ്റീവുകളുടെ വിലനിർണ്ണയം, Option Pricing with qGANs ട്യൂട്ടോറിയൽ കാണുക.

[1]:
import numpy as np

seed = 71
np.random.seed = seed

import matplotlib.pyplot as plt

%matplotlib inline

from qiskit import QuantumRegister, QuantumCircuit, BasicAer
from qiskit.circuit.library import TwoLocal

from qiskit.utils import QuantumInstance, algorithm_globals
from qiskit_machine_learning.algorithms import NumPyDiscriminator, QGAN

algorithm_globals.random_seed = seed

പരിശീലന ഡാറ്റ ലോഡുചെയ്യുക

ആദ്യം, ഞമ്മൾ \(k\)- ഡൈമൻഷണൽ പരിശീലന ഡാറ്റ സാമ്പിളുകൾ ലോഡുചെയ്യേണ്ടതുണ്ട് (ഇവിടെ k = 1).

അടുത്തതായി, ഡാറ്റ റിസൊലൂഷൻ സജ്ജമാക്കുന്നു, അതായത് മിനിമം / പരമാവധി ഡാറ്റ മൂല്യങ്ങൾ, ഒപ്പം ഓരോ ഡാറ്റ അളവിനെയും പ്രതിനിധീകരിക്കുന്നതിന് ഉപയോഗിക്കുന്ന ക്യൂബിറ്റുകളുടെ എണ്ണവും.

[2]:
# Number training data samples
N = 1000

# Load data samples from log-normal distribution with mean=1 and standard deviation=1
mu = 1
sigma = 1
real_data = np.random.lognormal(mean=mu, sigma=sigma, size=N)

# Set the data resolution
# Set upper and lower data values as list of k min/max data values [[min_0,max_0],...,[min_k-1,max_k-1]]
bounds = np.array([0.0, 3.0])
# Set number of qubits per data dimension as list of k qubit values[#q_0,...,#q_k-1]
num_qubits = [2]
k = len(num_qubits)

qGAN സമാരംഭിക്കുക

qGANൽ ഒരു ക്വാണ്ടം ജനറേറ്റർ \(G_{\theta}\) , അതായത്, ഒരു അൻസാറ്റ്സും, ഒരു ക്ലാസിക്കൽ ഡിസ്ക്രിമിനേറ്റർ \(D_{\phi}\) :, ഒരു ന്യൂറൽ നെറ്റ്‌വർക്കും ഉൾക്കൊള്ളുന്നു.

ക്വാണ്ടം ജനറേറ്റർ നടപ്പിലാക്കാൻ, \(R_Y\) റൊട്ടേഷനുകളും \(CZ\) ഗേറ്റുകളും നടപ്പിലാക്കുന്ന ഒരു ഡെപ്ത്-\(1\) അൻസാറ്റ്സ് ഞമ്മൾ തിരഞ്ഞെടുക്കുന്നു, അത് ഇൻപുട്ട് സ്റ്റേറ്റായി യൂണിഫോം ഡിസ്ട്രിബൂഷൻ എടുക്കുന്നു. ശ്രദ്ധേയമായി, ഇതിനായി \(k>1\) ജനറേറ്ററിന്റെ പാരാമീറ്ററുകൾ ശ്രദ്ധാപൂർവ്വം തിരഞ്ഞെടുക്കണം. ഉദാഹരണത്തിന്, സർക്യൂട്ട് ഡെപ്ത് ഇതായിരിക്കണം \(>1\) കാരണം ഉയർന്ന സർക്യൂട്ട് ഡെപ്ത് കൂടുതൽ സങ്കീർണ്ണമായ ഘടനകളുടെ പ്രാതിനിധ്യം പ്രാപ്തമാക്കുന്നു.

ഇവിടെ ഉപയോഗിക്കുന്ന ക്ലാസിക്കൽ ഡിസ്ക്രിമിനേറ്റർ NumPy ഉപയോഗിച്ചുള്ള ഒരു ന്യൂറൽ നെറ്റ്‌വർക്ക് നടപ്പിലാക്കലിനെ അടിസ്ഥാനമാക്കിയുള്ളതാണ്. ക്വിസ്കിറ്റ് ഇൻസ്റ്റാൾ ചെയ്യുമ്പോൾ സ്ഥിരസ്ഥിതിയായി ഇൻസ്റ്റാൾ ചെയ്യാത്ത PyTorchനെ അടിസ്ഥാനമാക്കിയുള്ള ഒരു ഡിസ്ക്രിമിനേറ്ററുമുണ്ട് - കൂടുതൽ വിവരങ്ങൾക്ക് Optional Install കാണുക.

ഇവിടെ, രണ്ട് നെറ്റ്‌വർക്കുകളും ADAM ഒപ്റ്റിമൈസേഷൻ അൽഗോരിതം ഉപയോഗിച്ച് അപ്‌ഡേറ്റുചെയ്‌തതാണ് (ADAM qGANൻ്റെ ഒപ്റ്റിമൈസർ സ്ഥിരസ്ഥിതിയാണ്).

[3]:
# Set number of training epochs
# Note: The algorithm's runtime can be shortened by reducing the number of training epochs.
num_epochs = 10
# Batch size
batch_size = 100

# Initialize qGAN
qgan = QGAN(real_data, bounds, num_qubits, batch_size, num_epochs, snapshot_dir=None)
qgan.seed = 1
# Set quantum instance to run the quantum generator
quantum_instance = QuantumInstance(
    backend=BasicAer.get_backend("statevector_simulator"), seed_transpiler=seed, seed_simulator=seed
)

# Set entangler map
entangler_map = [[0, 1]]


# Set an initial state for the generator circuit as a uniform distribution
# This corresponds to applying Hadamard gates on all qubits
init_dist = QuantumCircuit(sum(num_qubits))
init_dist.h(init_dist.qubits)

# Set the ansatz circuit
ansatz = TwoLocal(int(np.sum(num_qubits)), "ry", "cz", entanglement=entangler_map, reps=1)

# Set generator's initial parameters - in order to reduce the training time and hence the
# total running time for this notebook
init_params = [3.0, 1.0, 0.6, 1.6]

# You can increase the number of training epochs and use random initial parameters.
# init_params = np.random.rand(ansatz.num_parameters_settable) * 2 * np.pi

# Set generator circuit by adding the initial distribution infront of the ansatz
g_circuit = ansatz.compose(init_dist, front=True)

# Set quantum generator
qgan.set_generator(generator_circuit=g_circuit, generator_init_params=init_params)
# The parameters have an order issue that following is a temp. workaround
qgan._generator._free_parameters = sorted(g_circuit.parameters, key=lambda p: p.name)
# Set classical discriminator neural network
discriminator = NumPyDiscriminator(len(num_qubits))
qgan.set_discriminator(discriminator)

qGAN പരിശീലനം പ്രവർത്തിപ്പിക്കുക

പരിശീലന സമയത്ത് ഡിസ്ക്രിമിനേറ്ററുടെയും ജനറേറ്ററിന്റെയും പാരാമീറ്ററുകൾ ഇനിപ്പറയുന്ന ലോസ് ഫംഗ്ഷനുമായി ബന്ധപ്പെട്ട് മാറിമാറി അപ്‌ഡേറ്റുചെയ്യുന്നു:

\[L_G\left(\phi, \theta\right) = -\frac{1}{m}\sum\limits_{l=1}^{m}\left[\log\left(D_{\phi}\left(g^{l}\right)\right)\right]\]

കൂടാതെ

\[L_D\left(\phi, \theta\right) = \frac{1}{m}\sum\limits_{l=1}^{m}\left[\log D_{\phi}\left(x^{l}\right) + \log\left(1-D_{\phi}\left(g^{l}\right)\right)\right],\]

\(m\) ബാച്ച് വലുപ്പത്തെ സൂചിപ്പിക്കുകയും ക്വാണ്ടം ജനറേറ്റർ ജനറേറ്റുചെയ്‌ത ഡാറ്റ സാമ്പിളുകൾ വിവരിക്കുന്ന \(g^l\) ഉപയോഗിച്ച്.

അറിയപ്പെടുന്ന ഒരു പ്രാരംഭ പോയിന്റ് (`` init_params``) തിരഞ്ഞെടുക്കുന്നതിലൂടെ ഈ നോട്ട്ബുക്കിന്റെ ഉദ്ദേശ്യത്തിനായി പരിശീലനം സൂക്ഷ്മമായി സൂക്ഷിച്ചിരിക്കുന്നു. അത്തരം മുൻ‌ അറിവില്ലാത്ത വർ അറിഞ്ഞിരിക്കുക, പരിശീലനം കുറച്ച് സമയമെടുക്കും.

[4]:
# Run qGAN
result = qgan.run(quantum_instance)
[5]:
print("Training results:")
for key, value in result.items():
    print(f"  {key} : {value}")
Training results:
  params_d : [ 0.03697158  0.61015372 -0.48103428 ... -0.1661673  -0.20186384
 -0.08584337]
  params_g : [2.95229918 0.9522102  0.55218478 1.64793094]
  loss_d : 0.6925
  loss_g : [0.7246]
  rel_entr : 0.107

പരിശീലന പുരോഗതിയും ഫലവും

ഇപ്പോൾ, പരിശീലന സമയത്ത് ജനറേറ്ററിന്റെ പരിണാമവും ഡിസ്ക്രിമിനേറ്ററുടെ ലോസ്സ് ഫംഗ്ഷനും, അതുപോലെ തന്നെ പരിശീലനം നേടിയതും ടാർഗെറ്റ് ചെയ്ത ഡിസ്ട്രിബൂഷനും തമ്മിലുള്ള എൻട്രോപ്പിയിലെ(relative entropy) പുരോഗതിയും, ഞമ്മൾ പ്ലോട്ട് ചെയ്യുന്നു.

അവസാനമായി, പരിശീലനം ലഭിച്ച വിതരണത്തിന്റെ ക്യുമുലേറ്റീവ് ഡിസ്ട്രിബ്യൂഷൻ ഫംഗ്ഷനും (CDF) ടാർഗെറ്റ് ഡിസ്ട്രിബ്യൂഷന്റെ സിഡിഎഫുമായി താരതമ്യം ചെയ്യുന്നു.

[6]:
# Plot progress w.r.t the generator's and the discriminator's loss function
t_steps = np.arange(num_epochs)
plt.figure(figsize=(6, 5))
plt.title("Progress in the loss function")
plt.plot(
    t_steps, qgan.g_loss, label="Generator loss function", color="mediumvioletred", linewidth=2
)
plt.plot(
    t_steps, qgan.d_loss, label="Discriminator loss function", color="rebeccapurple", linewidth=2
)
plt.grid()
plt.legend(loc="best")
plt.xlabel("time steps")
plt.ylabel("loss")
plt.show()
../_images/tutorials_04_qgans_for_loading_random_distributions_10_0.png
[7]:
# Plot progress w.r.t relative entropy
plt.figure(figsize=(6, 5))
plt.title("Relative Entropy")
plt.plot(
    np.linspace(0, num_epochs, len(qgan.rel_entr)), qgan.rel_entr, color="mediumblue", lw=4, ls=":"
)
plt.grid()
plt.xlabel("time steps")
plt.ylabel("relative entropy")
plt.show()
../_images/tutorials_04_qgans_for_loading_random_distributions_11_0.png
[8]:
# Plot the CDF of the resulting distribution against the target distribution, i.e. log-normal
log_normal = np.random.lognormal(mean=1, sigma=1, size=100000)
log_normal = np.round(log_normal)
log_normal = log_normal[log_normal <= bounds[1]]
temp = []
for i in range(int(bounds[1] + 1)):
    temp += [np.sum(log_normal == i)]
log_normal = np.array(temp / sum(temp))

plt.figure(figsize=(6, 5))
plt.title("CDF (Cumulative Distribution Function)")
samples_g, prob_g = qgan.generator.get_output(qgan.quantum_instance, shots=10000)
samples_g = np.array(samples_g)
samples_g = samples_g.flatten()
num_bins = len(prob_g)
plt.bar(samples_g, np.cumsum(prob_g), color="royalblue", width=0.8, label="simulation")
plt.plot(
    np.cumsum(log_normal), "-o", label="log-normal", color="deepskyblue", linewidth=4, markersize=12
)
plt.xticks(np.arange(min(samples_g), max(samples_g) + 1, 1.0))
plt.grid()
plt.xlabel("x")
plt.ylabel("p(x)")
plt.legend(loc="best")
plt.show()
../_images/tutorials_04_qgans_for_loading_random_distributions_12_0.png
[9]:
import qiskit.tools.jupyter

%qiskit_version_table
%qiskit_copyright

Version Information

Qiskit SoftwareVersion
QiskitNone
Terra0.17.0.dev0+346ffa8
Aer0.8.0
Ignis0.6.0.dev0+d6f1ad7
AquaNone
IBM Q Provider0.13.0.dev0+10f19e0
System information
Python3.8.8 (default, Feb 24 2021, 13:46:16) [Clang 10.0.0 ]
OSDarwin
CPUs6
Memory (Gb)16.0
Wed Mar 31 23:30:54 2021 CEST

This code is a part of Qiskit

© Copyright IBM 2017, 2021.

This code is licensed under the Apache License, Version 2.0. You may
obtain a copy of this license in the LICENSE.txt file in the root directory
of this source tree or at http://www.apache.org/licenses/LICENSE-2.0.

Any modifications or derivative works of this code must retain this
copyright notice, and modified files need to carry a notice indicating
that they have been altered from the originals.