数学代写|信息论代写information theory代考|ELEN90030

如果你也在 怎样代写信息论information theory这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

信息论是对数字信息的量化、存储和通信的科学研究。该领域从根本上是由哈里-奈奎斯特和拉尔夫-哈特利在20世纪20年代以及克劳德-香农在20世纪40年代的作品所确立的。

statistics-lab™ 为您的留学生涯保驾护航 在代写信息论information theory方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写信息论information theory代写方面经验极为丰富,各种代写信息论information theory相关的作业也就用不着说。

我们提供的信息论information theory及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|信息论代写information theory代考|Quantum Logical Information Theory

数学代写|信息论代写information theory代考|Density Matrix Treatment of Logical Entropy

This section facilitates the transition to quantum logical information theory classical’ antecedents. It was previously noted that binary relation $R \subseteq U \times U$ on $U=\left{u_{1}, \ldots, u_{n}\right}$ can be represented by an $n \times n$ incidence matrix $\operatorname{In}(R)$ where
$$
\operatorname{In}(R){i j}=\left{\begin{array}{c} 1 \text { if }\left(u{i}, u_{j}\right) \in R \
0 \text { if }\left(u_{i}, u_{j}\right) \notin R
\end{array}\right.
$$

And then taking $R$ as the equivalence relation indit $(\pi)$ associated with a partition $\pi=\left{B_{1}, \ldots, B_{m}\right}$, the density matrix $\rho(\pi)$ of the partition $\pi$ (with equiprobable points) is just the incidence matrix In (indit $(\pi)$ ) rescaled to be of trace 1 (i.e., sum of diagonal entries is 1 ):
$$
\rho(\pi)=\frac{1}{|U|} \operatorname{In}(\text { indit }(\pi)) .
$$
The more general density matrix for $\pi$ with point probabilities $p=\left(p_{1}, \ldots, p_{n}\right)$ is constructed block by block. For any block $B_{i}$, consider the unit column vector $\left|B_{i}\right\rangle$ with entries $\sqrt{\frac{p_{j}}{\operatorname{Pr}\left(B_{i}\right)}}$ for $u_{j} \in B_{i}$ and otherwise zero. Then $\rho\left(B_{i}\right)$ is defined as that unit column vector times its transpose which yields the $n \times n$ matrix $\rho\left(B_{i}\right)=$ $\left|B_{i}\right\rangle\left|B_{i}\right\rangle^{t}$ with:
$$
\rho\left(B_{i}\right){j k}=\left{\begin{array}{c} \sqrt{\frac{p{j}}{\operatorname{Pr}\left(B_{i}\right)}} \sqrt{\frac{p_{p}}{\operatorname{Pr}\left(B_{i}\right)}}=\frac{\sqrt{P_{j} P_{k}}}{\operatorname{Pr}\left(B_{i}\right)} \text { if }\left(u_{j}, u_{k}\right) \in B_{i} \times B_{i} \
0 \text { otherwise. }
\end{array}\right.
$$
Then the density matrix for the partition $\pi$ is the probability weighted sum: $\rho(\pi)=$ $\sum_{i=1}^{m} \operatorname{Pr}\left(B_{i}\right) \rho\left(B_{i}\right)$ so that:
$$
\rho(\pi){j k}=\left{\begin{array}{c} \sqrt{p{j} p_{k}} \text { if }\left(u_{j}, u_{k}\right) \in \operatorname{indit}(\pi) \
0 \text { otherwise. }
\end{array}\right.
$$
Since the self-pairs $(u, u)$ are always in the inditsets, the diagonal elements are just the point probabilities $p=\left(p_{1}, \ldots, p_{n}\right.$ ) and the trace (sum of diagonal elements) is always 1 . For instance, if $U=\left{u_{1}, \ldots, u_{4}\right}$ and $\pi=$ $\left{\left{u_{1}\right},\left{u_{2}, u_{4}\right},\left{u_{3}\right}\right}$ with the point probabilities $p=\left(p_{1}, \ldots, p_{4}\right)$, then the density matrix is:
$$
\rho(\pi)=\left[\begin{array}{cccc}
p_{1} & 0 & 0 & 0 \
0 & p_{2} & 0 & \sqrt{p_{2} p_{4}} \
0 & 0 & p_{3} & 0 \
0 & \sqrt{p_{4} p_{2}} & 0 & p_{4}
\end{array}\right]
$$

数学代写|信息论代写information theory代考|Linearizing Logical Entropy to Quantum Logical

As noted by Charles Bennett, one of the founders of quantum information theory, the idea of information-as-distinctions carries over to quantum mechanics.
[Information] is the notion of distinguishability abstracted away from what we are distinguishing, or from the carrier of information. …And we ought to develop a theory of information which generalizes the theory of distinguishability to include these quantum properties… [2, pp. 155-157]
Given a normalized vector $|\psi\rangle$ in an $n$-dimensional Hilbert space $V$, a pure state density matrix is formed as $\rho(\psi)=|\psi\rangle\langle\psi|$ and a mixed state density matrix is some probability mixture $\rho=\sum_{i} p_{i} \rho\left(\psi_{i}\right)$ of pure state density matrices. Any such density matrix always has a spectral decomposition into the form $\rho=\sum p_{i} \rho\left(\psi_{i}\right)$ where the different vectors $\psi_{i}$ and $\psi_{i}$ are orthogonal. The general definition of the quantum logical entropy of a density matrix is: $h(\rho)=1-\operatorname{tr}\left[\rho^{2}\right]$ where if $\rho$ is a pure state if and only if $\operatorname{tr}\left[\rho^{2}\right]=1$ so $h(\rho)=0$ and $\operatorname{tr}\left[\rho^{2}\right]<1$ for mixed states for $h(p)>0$ for mixed states.

The formula $h(\rho)=1-\operatorname{tr}\left[\rho^{2}\right]$ is hardly new. Indeed, $\operatorname{tr}\left[\rho^{2}\right]$ is usually called the purity of the density matrix since a state $\rho$ is pure if and only if $\operatorname{tr}\left[\rho^{2}\right]=1$, so

$h(\rho)=0$, and otherwise, $\operatorname{tr}\left[\rho^{2}\right]<1$, so $h(\rho)>0$; and the state is said to be mixed. Hence, the complement $1-\operatorname{tr}\left[\rho^{2}\right]$ has been called the “mixedness” [9, p. 5] or “impurity” of the state $\rho$. The seminal paper of Manfredi and Feix [10] approaches the same formula $1-\operatorname{tr}\left[\rho^{2}\right]$ (which they denote as $S_{2}$ ) from the advanced viewpoint of Wigner functions, and they present strong arguments for this notion of quantum entropy.

Our goal is to develop quantum logical entropy in a manner that brings out the analogy with classical logical entropy and relates it closely to quantum measurement as the process of creating distinctions in QM.

Let $F: V \rightarrow V$ be a self-adjoint operator (observable) on a $n$-dimensional Hilbert space $V$ with the real eigenvalues $\phi_{1}, \ldots, \phi_{1}$, and let $U=\left{u_{1}, \ldots, u_{n}\right}$ be an orthonormal (ON) basis of eigenvectors of $F$. The quantum version of a “dit” is a “qudit.” A qudit is relativized to an observable, just as classically a distinction is a distinction of a partition. Then, there is a set partition $\pi=\left{B_{i}\right}_{i=1, \ldots, l}$ on the ON basis $U$ so that $B_{i}$ is a basis for the eigenspace of the eigenvalue $\phi_{i}$ and $\left|B_{i}\right|$ is the “multiplicity” (dimension of the eigenspace) of the eigenvalue $\phi_{i}$ for $i=1, \ldots, I$. Note that the real-valued function $f: U \rightarrow \mathbb{R}$ takes each eigenvector in $u_{j} \in B_{i} \subseteq$ $U$ to its eigenvalue $\phi_{i}$ so that $f^{-1}\left(\phi_{i}\right)=B_{i}$ contains all the information in the self-adjoint operator $F: V \rightarrow V$ since $F$ can be reconstructed by defining it on the basis $U$ as $F u_{j}=f\left(u_{j}\right) u_{j}$.

数学代写|信息论代写information theory代考|Theorems About Quantum Logical Entropy

Classically, a pair of elements $\left(u_{j}, u_{k}\right)$ either “cohere” together in the same block of a partition on $U$, i.e., are an indistinction of the partition, or they do not, i.e., they are a distinction of the partition. In the quantum case, the nonzero off-diagonal entries $\alpha_{j} \alpha_{k}^{*}$ in the pure state density matrix $\rho(\psi)=|\psi\rangle\langle\psi|$ are called quantum “coherences” ([4, p. 303]; [1, p. 177]) because they give the amplitude of the eigenstates $\left|u_{j}\right\rangle$ and $\left|u_{k}\right\rangle$ “cohering” together in the coherent superposition state vector $|\psi\rangle=\sum_{j=1}^{h}\left\langle u_{j} \mid \psi\right\rangle\left|u_{j}\right\rangle=\sum_{j} \alpha_{j}\left|u_{j}\right\rangle$. The coherences are classically modeled by the nonzero off-diagonal entries $\sqrt{p_{j} p_{k}}$ for the indistinctions $\left(u_{j}, u_{k}\right) \in B_{i} \times B_{i}$, i.e., coherences $\approx$ indistinctions.

For an observable $F$, let $\phi: U \rightarrow \mathbb{R}$ be for $F$-eigenvalue function assigning the eigenvalue $\phi\left(u_{i}\right)=\phi_{i}$ for each $u_{i}$ in the ON basis $U=\left{u_{1}, \ldots, u_{n}\right}$ of $F$-eigenvectors. The range of $\phi$ is the set of $F$-eigenvalues $\left{\phi_{1}, \ldots, \phi_{I}\right}$. Let $P_{\phi_{i}}: V \rightarrow V$ be the projection matrix in the $U$-basis to the eigenspace of $\phi_{i}$. The projective $F$-measurement of the state $\psi$ transforms the pure state density matrix $\rho(\psi)$ (represented in the ON basis $U$ of $F$-eigenvectors) to yield the Lüders mixture density matrix $\hat{\rho}(\psi)=\sum_{i=1}^{I} P_{\phi_{i}} \rho(\psi) P_{\phi_{i}}[1$, p. 279]. The off-diagonal elements of $\rho(\psi)$ that are zeroed in $\hat{\rho}(\psi)$ are the coherences (quantum indistinctions or quindits) that are turned into “decoherences” (quantum distinctions or qudits of the observable being measured). ${ }^{2}$

For any observable $F$ and a pure state $\psi$, a quantum logical entropy was defined as $h(F: \psi)=\operatorname{tr}\left[P_{[q u d i t(F)]} \rho(\psi) \otimes \rho(\psi)\right]$. That definition was the quantum generalization of the “classical” logical entropy defined as $h(\pi)=p \times p(\operatorname{dit}(\pi))$.

数学代写|信息论代写information theory代考|Quantum Logical Information Theory

信息论代考

数学代写|信息论代写information theory代考|Density Matrix Treatment of Logical Entropy

本节有助于过渡到量子逻辑信息论经典的先例。之前提到过二元关系R⊆在×在上U=\left{u_{1}, \ldots, u_{n}\right}U=\left{u_{1}, \ldots, u_{n}\right}可以表示为n×n关联矩阵在⁡(R)其中
$$
\operatorname{In}(R){ij}=\left{

1 如果 (在一世,在j)∈R 0 如果 (在一世,在j)∉R\正确的。
$$

然后取R作为等价关系(圆周率)与分区相关联\pi=\left{B_{1}, \ldots, B_{m}\right}\pi=\left{B_{1}, \ldots, B_{m}\right}, 密度矩阵ρ(圆周率)分区的圆周率(具有等概率点)只是关联矩阵 In (indit(圆周率)) 重新调整为轨迹 1 (即,对角线项的总和为 1 ):

ρ(圆周率)=1|在|在⁡( 去 (圆周率)).
更一般的密度矩阵圆周率有点概率p=(p1,…,pn)是逐块构建的。对于任何块乙一世,考虑单位列向量|乙一世⟩有条目pj公关⁡(乙一世)为了在j∈乙一世否则为零。然后ρ(乙一世)被定义为单位列向量乘以它的转置,得到n×n矩阵ρ(乙一世)= |乙一世⟩|乙一世⟩吨与:
$$
\rho\left(B_{i}\right){jk}=\left{

pj公关⁡(乙一世)pp公关⁡(乙一世)=磷j磷ķ公关⁡(乙一世) 如果 (在j,在ķ)∈乙一世×乙一世 0 否则。 \正确的。

吨H和n吨H和d和ns一世吨是米一个吨r一世XF○r吨H和p一个r吨一世吨一世○n$圆周率$一世s吨H和pr○b一个b一世l一世吨是在和一世GH吨和ds在米:$ρ(圆周率)=$$∑一世=1米公关⁡(乙一世)ρ(乙一世)$s○吨H一个吨:
\rho(\pi){jk}=\左{

pjpķ 如果 (在j,在ķ)∈去⁡(圆周率) 0 否则。 \正确的。

由于自对 $(u, u)$ 总是在 inditsets 中,对角线元素只是点概率 $p=\left(p_{1}, \ldots, p_{n}\right.$ ) 和迹线(对角线元素的总和)始终为 1 。例如,如果 $U=\left{u_{1}, \ldots, u_{4}\right}$ 和 $\pi=$ $\left{\left{u_{1}\right},\left{ u_{2}, u_{4}\right},\left{u_{3}\right}\right}$ 点概率为 $p=\left(p_{1}, \ldots, p_{4}\对)$,则密度矩阵为:由于自对 $(u, u)$ 总是在 inditsets 中,对角线元素只是点概率 $p=\left(p_{1}, \ldots, p_{n}\right.$ ) 和迹线(对角线元素的总和)始终为 1 。例如,如果 $U=\left{u_{1}, \ldots, u_{4}\right}$ 和 $\pi=$ $\left{\left{u_{1}\right},\left{ u_{2}, u_{4}\right},\left{u_{3}\right}\right}$ 点概率为 $p=\left(p_{1}, \ldots, p_{4}\对)$,则密度矩阵为:
\rho(\pi)=\左[

p1000 0p20p2p4 00p30 0p4p20p4\右]
$$

数学代写|信息论代写information theory代考|Linearizing Logical Entropy to Quantum Logical

正如量子信息论的创始人之一查尔斯·贝内特(Charles Bennett)所指出的,信息作为区分的概念延续到了量子力学中。
[信息]是从我们正在区分的东西或信息载体中抽象出来的可区分性概念。…我们应该发展一种信息理论,将可区分性理论推广到包括这些量子特性… [2, pp. 155-157]
给定一个归一化向量|ψ⟩在一个n维希尔伯特空间在,纯态密度矩阵形成为ρ(ψ)=|ψ⟩⟨ψ|并且混合状态密度矩阵是某种概率混合ρ=∑一世p一世ρ(ψ一世)纯状态密度矩阵。任何这样的密度矩阵总是有一个谱分解成形式ρ=∑p一世ρ(ψ一世)其中不同的向量ψ一世和ψ一世是正交的。密度矩阵的量子逻辑熵的一般定义是:H(ρ)=1−tr⁡[ρ2]如果在哪里ρ是纯态当且仅当tr⁡[ρ2]=1所以H(ρ)=0和tr⁡[ρ2]<1对于混合状态H(p)>0对于混合状态。

公式H(ρ)=1−tr⁡[ρ2]几乎不是新的。的确,tr⁡[ρ2]通常称为密度矩阵的纯度,因为一个状态ρ纯当且仅当tr⁡[ρ2]=1, 所以

H(ρ)=0,否则,tr⁡[ρ2]<1, 所以H(ρ)>0; 据说状态是混合的。因此,补1−tr⁡[ρ2]被称为“混合性”[9, p. 5]或国家的“杂质”ρ. Manfredi 和 Feix [10] 的开创性论文采用了相同的公式1−tr⁡[ρ2](他们表示为小号2) 从 Wigner 函数的高级观点来看,它们为这种量子熵的概念提供了强有力的论据。

我们的目标是以一种与经典逻辑熵类似的方式开发量子逻辑熵,并将其与量子测量密切相关,作为在 QM 中创建区别的过程。

让F:在→在是一个自伴算子(可观察的)n维希尔伯特空间在与真正的特征值φ1,…,φ1, 然后让U=\left{u_{1}, \ldots, u_{n}\right}U=\left{u_{1}, \ldots, u_{n}\right}是特征向量的正交(ON)基F. “dit”的量子版本是“qudit”。一个 qudit 相对于一个可观察的,就像经典的区分是分区的区分一样。然后,有一个设置分区\pi=\left{B_{i}\right}_{i=1, \ldots, l}\pi=\left{B_{i}\right}_{i=1, \ldots, l}在 ON 的基础上在以便乙一世是特征值的特征空间的基φ一世和|乙一世|是特征值的“多重性”(特征空间的维数)φ一世为了一世=1,…,我. 注意实值函数F:在→R取每个特征向量在j∈乙一世⊆ 在为其特征值φ一世以便F−1(φ一世)=乙一世包含自伴算子中的所有信息F:在→在自从F可以通过在基础上定义来重构在作为F在j=F(在j)在j.

数学代写|信息论代写information theory代考|Theorems About Quantum Logical Entropy

经典地,一对元素(在j,在ķ)要么在同一分区的同一块中“凝聚”在一起在,即,是分区的不明显,或者不是,即,它们是分区的区别。在量子情况下,非零非对角项一个j一个ķ∗在纯态密度矩阵中ρ(ψ)=|ψ⟩⟨ψ|被称为量子“相干性”([4, p. 303]; [1, p. 177]),因为它们给出了本征态的幅度|在j⟩和|在ķ⟩在相干叠加状态向量中“凝聚”在一起|ψ⟩=∑j=1H⟨在j∣ψ⟩|在j⟩=∑j一个j|在j⟩. 相干性经典地由非零非对角线条目建模pjpķ对于模糊不清(在j,在ķ)∈乙一世×乙一世,即连贯性≈模糊不清。

对于一个可观察的F, 让φ:在→R之前F-eigenvalue 函数分配特征值φ(在一世)=φ一世对于每个在一世在 ON 基础上U=\left{u_{1}, \ldots, u_{n}\right}U=\left{u_{1}, \ldots, u_{n}\right}的F-特征向量。的范围φ是集合F-特征值\left{\phi_{1}, \ldots, \phi_{I}\right}\left{\phi_{1}, \ldots, \phi_{I}\right}. 让磷φ一世:在→在是投影矩阵在-基于特征空间φ一世. 投射的F- 状态测量ψ变换纯态密度矩阵ρ(ψ)(在 ON 基础上表示在的F-eigenvectors) 以产生 Lüders 混合密度矩阵ρ^(ψ)=∑一世=1我磷φ一世ρ(ψ)磷φ一世[1,页。279]。非对角线元素ρ(ψ)归零ρ^(ψ)是变成“退相干”(被测量的可观察物的量子区别或qudits)的相干性(量子模糊或qudits)。2

对于任何可观察的F和一个纯粹的状态ψ, 一个量子逻辑熵被定义为H(F:ψ)=tr⁡[磷[q在d一世吨(F)]ρ(ψ)⊗ρ(ψ)]. 该定义是“经典”逻辑熵的量子概括,定义为H(圆周率)=p×p(它⁡(圆周率)).

数学代写|信息论代写information theory代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注