统计代写|似然估计作业代写Probability and Estimation代考|Bias and Weighted L2 Risks of Estimators

如果你也在 怎样代写似然估计Probability and Estimation这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

似然估计是一种统计方法,它用来求一个样本集的相关概率密度函数的参数。

statistics-lab™ 为您的留学生涯保驾护航 在代写似然估计Probability and Estimation方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写似然估计Probability and Estimation代写方面经验极为丰富,各种代写似然估计Probability and Estimation相关的作业也就用不着说。

我们提供的似然估计Probability and Estimation及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等楖率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
Ridge and Lasso Regression - Andrea Perlato
统计代写|似然估计作业代写Probability and Estimation代考|Bias and Weighted L2 Risks of Estimators

统计代写|似然估计作业代写Probability and Estimation代考|Bias and Weighted L2 Risks of Estimators

This section contains the bias and the weighted $\mathrm{L}{2}$-risk expressions of the estimators. We study the comparative performance of the seven estimators defined on the basis of the weighted $L{2}$ risks defined by
$$
\begin{aligned}
R\left(\theta_{n}^{}: W_{1}, W_{2}\right)=& \mathbb{E}\left[\left(\theta_{1 n}^{}-\theta_{1}\right)^{\top} W_{1}\left(\theta_{1 n}^{}-\theta_{1}\right)\right] \ &+\mathbb{E}\left[\left(\theta_{2 n}^{}-\theta_{2}\right)^{\top} W_{2}\left(\theta_{2 n}^{}-\theta_{2}\right)\right] \end{aligned} $$ where $\theta_{n}^{}=\left(\theta_{1 n}^{}, \theta_{2 n}^{}\right)^{\top}$ is any estimator of $\theta=\left(\theta_{1}^{\top}, \theta_{2}^{\top}\right)^{\top}$, and $W_{1}$ and $W_{2}$ are weight matrices. For convenience, when $W_{1}=I_{p_{1}}$ and $W_{2}=I_{p_{2}}$, we get the mean squared error (MSE) and write $R\left(\theta_{n}^{}: I_{p}\right)=\mathbb{E}\left[\left|\theta_{n}^{}-\theta\right|^{2}\right]$.
First, we note that for LSE,
$$
\begin{aligned}
b\left(\tilde{\theta}{n}\right) &=\mathbf{0} \ R\left(\tilde{\theta}{n}: N_{1}, N_{2}\right) &=\sigma^{2}\left(p_{1}+p_{2}\right)
\end{aligned}
$$
and for RLSE, $\hat{\theta}{\mathrm{R}}=\left(\tilde{\theta}{1 n}^{\top}, \mathbf{0}^{\top}\right)^{\top}$, we have
$$
\begin{aligned}
b\left(\hat{\theta}{\mathbb{R}}\right) &=\left(\mathbf{0}^{\top}, \boldsymbol{\theta}{2}^{\top}\right) \
R\left(\hat{\theta}{\mathbb{R}} ; N{1}, N_{2}\right) &=\sigma^{2}\left(p_{1}+\Delta^{2}\right)
\end{aligned}
$$

统计代写|似然估计作业代写Probability and Estimation代考|Hard Threshold Estimator

The bias of this estimator is given by
$$
b\left(\hat{\theta}{n}^{\mathrm{HT}}(\kappa)\right)=\left(-\sigma n{j}^{-\frac{1}{2}} \Delta_{j} H_{3}\left(\kappa^{2} ; \Delta_{j}^{2}\right) \mid j=1, \ldots, p\right)^{\top}
$$
where $H_{v}\left(; \Delta_{j}^{2}\right.$ ) is the cumulative distribution function (c.d.f.) of a noncentral $\chi^{2}$ distribution with $v$ DF. and noncentrality parameter $\Delta_{j}^{2}(j=1, \ldots, p)$.
The MSE of $\hat{\theta}{n}^{\mathrm{HT}}(\kappa)$ is given by $$ \begin{aligned} R\left(\hat{\theta}{n}^{\mathrm{HT}}(\kappa): I_{p}\right)=& \sum_{j=1}^{p} \mathbb{E}\left[\tilde{\theta}{j n} I\left(\left|\tilde{\theta}{j n}\right|>\kappa \sigma n_{j}^{-\frac{1}{2}}\right)-\theta_{j}\right]^{2} \
=& \sigma^{2} \sum_{j=1}^{p} n_{j}^{-1}\left{\left(1-H_{3}\left(\kappa^{2} ; \Delta_{j}^{2}\right)\right)\right.\
&\left.+\Delta_{j}^{2}\left(2 H_{3}\left(\kappa^{2} ; \Delta_{j}^{2}\right)-H_{5}\left(\kappa^{2} ; \Delta_{j}^{2}\right)\right)\right}
\end{aligned}
$$

Since $\left[\tilde{\theta}{j m} I\left(\left|\tilde{\theta}{j n}\right|>\kappa \sigma n_{j}^{-\frac{1}{2}}\right)-\theta_{j}\right]^{2} \leq\left(\tilde{\theta}{j n}-\theta{j}\right)^{2}+\theta_{j}^{2}$, we obtain $R\left(\hat{\theta}{n}^{\mathrm{HT}}(\kappa): I{p}\right) \leq \sigma^{2} \operatorname{tr} N^{-1}+\theta^{\top} \boldsymbol{\theta} \quad$ (free of $\left.\kappa\right) .$
Following Donoho and Johnstone (1994), one can show that what follows holds:
where $\rho_{\mathrm{HT}}(\kappa, 0)=2[(1-\Phi(\kappa))+\kappa \varphi(\kappa)]$, and $\varphi(\cdot)$ and $\Phi(\cdot)$ are the probability density function (p.d.f.) and c.d.f. of standard normal distribution, respectively.
Theorem 3.1 Under the assumed regularity conditions, the weighted $\mathrm{L}{2}$-risk bounds are given by $$ R\left(\hat{\boldsymbol{\theta}}{n}^{\mathrm{HT}}(\kappa): N_{1}, N_{2}\right) \leq\left{\begin{array}{lll}
\text { (i) } & \sigma^{2}\left(1+\kappa^{2}\right)\left(p_{1}+p_{2}\right) & \kappa>1, \
\text { (ii) } & \sigma^{2}\left(p_{1}+p_{2}\right)+\boldsymbol{\theta}{1}^{\top} N{1} \boldsymbol{\theta}{1} & \ & +\boldsymbol{\theta}{2}^{\top} \boldsymbol{N}{2} \boldsymbol{\theta}{2} & \forall \boldsymbol{\theta} \in \mathbb{R}^{p}, \
\text { (iii) } & \sigma^{2} \rho_{\mathrm{HT}}(\kappa, 0)\left(p_{1}+p_{2}\right) & \
& +1.2\left{\boldsymbol{\theta}{1}^{\top} \boldsymbol{N}{1} \boldsymbol{\theta}{1}+\boldsymbol{\theta}{2}^{\top} N_{2} \boldsymbol{\theta}{2}\right} & 0<\boldsymbol{\theta}{p}^{\top}
\end{array}\right.
$$
If the solution of $\hat{\theta}{n}^{\mathrm{HT}}(\kappa)$ has the configuration $\left(\tilde{\theta}{1 n}^{\mathrm{T}}, \mathbf{0}^{\mathrm{T}}\right)^{\mathrm{T}}$, then the $\mathrm{L}{2}$ risk of $\hat{\boldsymbol{\theta}}{n}^{\mathrm{HT}}(\kappa)$ is given by
$$
R\left(\hat{\boldsymbol{\theta}}{n}^{\mathrm{HT}}(\kappa): \boldsymbol{N}{1}, \boldsymbol{N}{2}\right)=\sigma^{2}\left[p{1}+\Delta^{2}\right],
$$
independent of $\kappa$.

统计代写|似然估计作业代写Probability and Estimation代考|LASSO Estimator

The bias expression of the LASSO estimator is given by
$$
b\left(\theta_{n}^{\mathrm{L}}(\lambda)\right)=\left(\sigma n_{j}^{-\frac{1}{2}}\left[\lambda\left(2 \Phi\left(\Delta_{j}\right)-1\right) ; j=1, \ldots, p_{1} ;-\Delta_{p_{1}+1}, \ldots, \Delta_{p}\right)^{\top} .\right.
$$
The MSE of the LASSO estimator has the form
$$
R\left(\hat{\boldsymbol{\theta}}{n}^{\mathrm{L}}(\lambda): \boldsymbol{I}{p}\right)=\sigma^{2} \sum_{j=1}^{p_{1}} n_{j}^{-1} \rho_{\mathrm{ST}}\left(\lambda, \Delta_{j}\right)+\Delta^{2},
$$

where
$$
\begin{aligned}
\rho_{\mathrm{ST}}\left(\lambda, \Delta_{j}\right)=&\left(1+\lambda^{2}\right)\left{1-\Phi\left(\lambda-\Delta_{j}\right)+\Phi\left(-\lambda-\Delta_{j}\right)\right} \
&+\Delta_{j}^{2}\left{\Phi\left(\lambda-\Delta_{j}\right)-\Phi\left(-\lambda-\Delta_{j}\right)\right} \
&-\left{\left(\lambda-\Delta_{j}\right) \varphi\left(\lambda+\Delta_{j}\right)+\left(\lambda+\Delta_{j}\right) \varphi\left(\lambda-\Delta_{j}\right)\right}
\end{aligned}
$$
Thus, according to Donoho and Johnstone (1994, Appendix 2), we have the following result.
Under the assumed regularity conditions,
$R\left(\hat{\theta}{n}^{\mathrm{L}}(\lambda): \boldsymbol{I}{p}\right) \leq\left{\begin{array}{lll}\text { (i) } & \sigma^{2}\left(1+\lambda^{2}\right) \operatorname{tr} N^{-1} & \forall \theta \in \mathbb{R}^{p}, \kappa \ \text { (ii) } & \sigma^{2} \operatorname{tr} N^{-1}+\theta^{\top} \boldsymbol{\theta} & \forall \theta \in \mathbb{R}^{p}, \ \text { (iii) } & \sigma^{2} \rho_{\mathrm{ST}}(\lambda, 0) \operatorname{tr} \boldsymbol{N}^{-1}+1.2 \boldsymbol{\theta}^{\top} \boldsymbol{\theta} & \forall \theta \in \mathbb{R}^{p},\end{array}\right.$
where $\rho_{\mathrm{ST}}(\lambda, 0)=2\left[\left(1+\lambda^{2}\right)(1-\Phi(\lambda))-\kappa \phi(\lambda)\right]$.
If the solution of $\hat{\theta}{n}^{L}(\lambda)$ has the configuration $\left(\hat{\theta}{1 n}^{\top}, \mathbf{0}^{\top}\right)$, then the $L_{2}$ risk of $\hat{\theta}{n}^{\mathrm{L}}(\lambda)$ is given by $$ R\left(\hat{\boldsymbol{\theta}}{n}^{\mathrm{L}}(\lambda): N_{1}, N_{2}\right)=\sigma^{2}\left(p_{1}+\Delta^{2}\right)
$$
Thus, we note that
$$
R\left(\hat{\boldsymbol{\theta}}{n} ; \boldsymbol{N}{1}, \boldsymbol{N}{2}\right)=R\left(\hat{\boldsymbol{\theta}}{n}^{\mathrm{HT}}(\kappa) ; \boldsymbol{N}{1}, \boldsymbol{N}{2}\right)=R\left(\hat{\boldsymbol{\theta}}{n}^{\mathrm{L}}(\lambda) ; \boldsymbol{N}{1}, \boldsymbol{N}{2}\right)=\sigma^{2}\left(p{1}+\Delta^{2}\right) .
$$
To prove the $\mathrm{L}{2}$ risk of LASSO, we consider the multivariate decision theory. We are given the LSE of $\theta$ as $\tilde{\theta}{n}=\left(\tilde{\theta}{1 n}, \ldots, \tilde{\theta}{p n}\right)^{\top}$ according to
$$
\tilde{\theta}{j n}=\theta{j}+\sigma n_{j}^{-\frac{1}{2}} \mathcal{Z}{j}, \quad \mathcal{Z}{j} \sim \mathcal{N}(0,1),
$$
where $\sigma n_{j}^{-\frac{1}{2}}$ is the marginal variance of $\tilde{\theta}{j n}$ and noise level, and $\left{\theta{j}\right}_{j=1, \ldots, p}$ are the treatment effects of interest. We measure the quality of the estimators based on the $\mathrm{L}{2}$ risk, $R\left(\tilde{\boldsymbol{\theta}}{n}: \boldsymbol{I}{p}\right)=\mathbb{E}\left[\left|\tilde{\boldsymbol{\theta}}{n}-\boldsymbol{\theta}\right|^{2}\right]$. Note that for a sparse solution, we use (3.11).
Consider the family of diagonal linear projections,
$$
T_{\mathrm{DP}}\left(\hat{\theta}{n}^{\mathrm{L}}(\lambda): \delta\right)=\left(\delta{1} \hat{\theta}{1 n}^{\mathrm{L}}(\lambda), \ldots, \delta{p} \hat{\theta}{p n}^{\mathrm{L}}(\lambda)\right)^{\top}, $$ where $\delta=\left(\delta{1}, \ldots, \delta_{p}\right)^{\top}, \delta_{j} \in(0,1), j=1, \ldots, p$. Such estimators “kill” or “keep” the coordinates.

Suppose we had available an oracle which would supply for us the coefficients $\delta_{j}$ optimal for use in the diagonal projection scheme (3.15). These “ideal” coefficients are $\delta_{j}=I\left(\left|\theta_{j}\right|>\sigma n_{j}^{-\frac{1}{2}}\right)$. Ideal diagonal projections consist of estimating only those $\theta_{j}$, which are larger than its noise, $\sigma n_{j}^{-\frac{1}{2}}(j=1, \ldots, p)$. These yield the “ideal” $\mathrm{L}_{2}$ risk given by (3.16).

What is LASSO Regression Definition, Examples and Techniques
统计代写|似然估计作业代写Probability and Estimation代考|Bias and Weighted L2 Risks of Estimators

似然估计代考

统计代写|似然估计作业代写Probability and Estimation代考|Bias and Weighted L2 Risks of Estimators

本节包含偏差和加权大号2-估计量的风险表达式。我们研究了在加权的基础上定义的七个估计量的比较性能大号2风险定义为
R(θn:在1,在2)=和[(θ1n−θ1)⊤在1(θ1n−θ1)] +和[(θ2n−θ2)⊤在2(θ2n−θ2)]在哪里θn=(θ1n,θ2n)⊤是任何估计量θ=(θ1⊤,θ2⊤)⊤, 和在1和在2是权重矩阵。为方便起见,当在1=一世p1和在2=一世p2,我们得到均方误差(MSE)并写R(θn:一世p)=和[|θn−θ|2].
首先,我们注意到对于 LSE,
b(θ~n)=0 R(θ~n:ñ1,ñ2)=σ2(p1+p2)
对于 RLSE,θ^R=(θ~1n⊤,0⊤)⊤, 我们有
b(θ^R)=(0⊤,θ2⊤) R(θ^R;ñ1,ñ2)=σ2(p1+Δ2)

统计代写|似然估计作业代写Probability and Estimation代考|Hard Threshold Estimator

该估计量的偏差由下式给出
b(θ^nH吨(ķ))=(−σnj−12ΔjH3(ķ2;Δj2)∣j=1,…,p)⊤
在哪里H在(;Δj2) 是非中心的累积分布函数 (cdf)χ2分布与在东风。和非中心性参数Δj2(j=1,…,p).
的MSEθ^nH吨(ķ)是(谁)给的\begin{aligned} R\left(\hat{\theta}{n}^{\mathrm{HT}}(\kappa): I_{p}\right)=& \sum_{j=1}^{p } \mathbb{E}\left[\tilde{\theta}{j n} I\left(\left|\tilde{\theta}{j n}\right|>\kappa \sigma n_{j}^{-\ frac{1}{2}}\right)-\theta_{j}\right]^{2} \ =& \sigma^{2} \sum_{j=1}^{p} n_{j}^{ -1}\left{\left(1-H_{3}\left(\kappa^{2} ; \Delta_{j}^{2}\right)\right)\right.\ &\left.+\ Delta_{j}^{2}\left(2 H_{3}\left(\kappa^{2} ; \Delta_{j}^{2}\right)-H_{5}\left(\kappa^{ 2} ; \Delta_{j}^{2}\right)\right)\right} \end{aligned}\begin{aligned} R\left(\hat{\theta}{n}^{\mathrm{HT}}(\kappa): I_{p}\right)=& \sum_{j=1}^{p } \mathbb{E}\left[\tilde{\theta}{j n} I\left(\left|\tilde{\theta}{j n}\right|>\kappa \sigma n_{j}^{-\ frac{1}{2}}\right)-\theta_{j}\right]^{2} \ =& \sigma^{2} \sum_{j=1}^{p} n_{j}^{ -1}\left{\left(1-H_{3}\left(\kappa^{2} ; \Delta_{j}^{2}\right)\right)\right.\ &\left.+\ Delta_{j}^{2}\left(2 H_{3}\left(\kappa^{2} ; \Delta_{j}^{2}\right)-H_{5}\left(\kappa^{ 2} ; \Delta_{j}^{2}\right)\right)\right} \end{aligned}

自从[θ~j米一世(|θ~jn|>ķσnj−12)−θj]2≤(θ~jn−θj)2+θj2, 我们获得R(θ^nH吨(ķ):一世p)≤σ2tr⁡ñ−1+θ⊤θ(不含ķ).根据 Donoho 和 Johnstone (1994) ,可以证明以下内容成立:ρH吨(ķ,0)=2[(1−披(ķ))+ķ披(ķ)], 和披(⋅)和披(⋅)分别是标准正态分布的概率密度函数 (pdf) 和 cdf。
定理 3.1 在假设的规律性条件下,加权大号2-风险界限由 $$ R\left(\hat{\boldsymbol{\theta}}{n}^{\mathrm{HT}}(\kappa): N_{1}, N_{2}\right) 给出\leq\左{\begin{array}{lll} \text { (i) } & \sigma^{2}\left(1+\kappa^{2}\right)\left(p_{1}+p_{2}\right ) & \kappa>1, \ \text { (ii) } & \sigma^{2}\left(p_{1}+p_{2}\right)+\boldsymbol{\theta}{1}^{\顶部} N{1} \boldsymbol{\theta}{1} & \ & +\boldsymbol{\theta}{2}^{\top} \boldsymbol{N}{2} \boldsymbol{\theta}{2} & \forall \boldsymbol{\theta} \in \mathbb{R}^{p}, \ \text { (iii) } & \sigma^{2} \rho_{\mathrm{HT}}(\kappa, 0 )\left(p_{1}+p_{2}\right) & \ & +1.2\left{\boldsymbol{\theta}{1}^{\top} \boldsymbol{N}{1} \boldsymbol{\ theta}{1}+\boldsymbol{\theta}{2}^{\top} N_{2} \boldsymbol{\theta}{2}\right} & 0<\boldsymbol{\theta}{p}^{ \top} \end{数组}\begin{array}{lll} \text { (i) } & \sigma^{2}\left(1+\kappa^{2}\right)\left(p_{1}+p_{2}\right ) & \kappa>1, \ \text { (ii) } & \sigma^{2}\left(p_{1}+p_{2}\right)+\boldsymbol{\theta}{1}^{\顶部} N{1} \boldsymbol{\theta}{1} & \ & +\boldsymbol{\theta}{2}^{\top} \boldsymbol{N}{2} \boldsymbol{\theta}{2} & \forall \boldsymbol{\theta} \in \mathbb{R}^{p}, \ \text { (iii) } & \sigma^{2} \rho_{\mathrm{HT}}(\kappa, 0 )\left(p_{1}+p_{2}\right) & \ & +1.2\left{\boldsymbol{\theta}{1}^{\top} \boldsymbol{N}{1} \boldsymbol{\ theta}{1}+\boldsymbol{\theta}{2}^{\top} N_{2} \boldsymbol{\theta}{2}\right} & 0<\boldsymbol{\theta}{p}^{ \top} \end{数组}\对。
一世F吨H和s这l在吨一世这n这F$θ^nH吨(ķ)$H一种s吨H和C这nF一世G在r一种吨一世这n$(θ~1n吨,0吨)吨$,吨H和n吨H和$大号2$r一世sķ这F$θ^nH吨(ķ)$一世sG一世在和nb是
R\left(\hat{\boldsymbol{\theta}}{n}^{\mathrm{HT}}(\kappa): \boldsymbol{N}{1}, \boldsymbol{N}{2}\right) =\sigma^{2}\left[p{1}+\Delta^{2}\right],
$$
独立于ķ.

统计代写|似然估计作业代写Probability and Estimation代考|LASSO Estimator

LASSO 估计器的偏差表达式由下式给出
b(θn大号(λ))=(σnj−12[λ(2披(Δj)−1);j=1,…,p1;−Δp1+1,…,Δp)⊤.
LASSO 估计器的 MSE 具有以下形式
R(θ^n大号(λ):一世p)=σ2∑j=1p1nj−1ρ小号吨(λ,Δj)+Δ2,

在哪里
\begin{对齐} \rho_{\mathrm{ST}}\left(\lambda, \Delta_{j}\right)=&\left(1+\lambda^{2}\right)\left{1-\ Phi\left(\lambda-\Delta_{j}\right)+\Phi\left(-\lambda-\Delta_{j}\right)\right} \ &+\Delta_{j}^{2}\left {\Phi\left(\lambda-\Delta_{j}\right)-\Phi\left(-\lambda-\Delta_{j}\right)\right} \ &-\left{\left(\lambda- \Delta_{j}\right) \varphi\left(\lambda+\Delta_{j}\right)+\left(\lambda+\Delta_{j}\right) \varphi\left(\lambda-\Delta_{j} \right)\right} \end{对齐}\begin{对齐} \rho_{\mathrm{ST}}\left(\lambda, \Delta_{j}\right)=&\left(1+\lambda^{2}\right)\left{1-\ Phi\left(\lambda-\Delta_{j}\right)+\Phi\left(-\lambda-\Delta_{j}\right)\right} \ &+\Delta_{j}^{2}\left {\Phi\left(\lambda-\Delta_{j}\right)-\Phi\left(-\lambda-\Delta_{j}\right)\right} \ &-\left{\left(\lambda- \Delta_{j}\right) \varphi\left(\lambda+\Delta_{j}\right)+\left(\lambda+\Delta_{j}\right) \varphi\left(\lambda-\Delta_{j} \right)\right} \end{对齐}
因此,根据 Donoho 和 Johnstone(1994,附录 2),我们得到以下结果。
在假设的正则条件下,
$R\left(\hat{\theta}{n}^{\mathrm{L}}(\lambda): \boldsymbol{I}{p}\right) \leq\left{ (一世) σ2(1+λ2)tr⁡ñ−1∀θ∈Rp,ķ  (二) σ2tr⁡ñ−1+θ⊤θ∀θ∈Rp,  ㈢ σ2ρ小号吨(λ,0)tr⁡ñ−1+1.2θ⊤θ∀θ∈Rp,\对。在H和r和\rho_{\mathrm{ST}}(\lambda, 0)=2\left[\left(1+\lambda^{2}\right)(1-\Phi(\lambda))-\kappa \phi( \lambda)\右].一世F吨H和s这l在吨一世这n这F\hat{\theta}{n}^{L}(\lambda)H一种s吨H和C这nF一世G在r一种吨一世这n\left(\hat{\theta}{1 n}^{\top}, \mathbf{0}^{\top}\right),吨H和n吨H和L_{2}r一世sķ这F\hat {\theta {n} ^ {\ mathrm {L}} (\lambda)一世sG一世在和nb是R(θ^n大号(λ):ñ1,ñ2)=σ2(p1+Δ2)吨H在s,在和n这吨和吨H一种吨R(θ^n;ñ1,ñ2)=R(θ^nH吨(ķ);ñ1,ñ2)=R(θ^n大号(λ);ñ1,ñ2)=σ2(p1+Δ2).吨这pr这在和吨H和\数学{L} {2r一世sķ这F大号一种小号小号这,在和C这ns一世d和r吨H和米在l吨一世在一种r一世一种吨和d和C一世s一世这n吨H和这r是.在和一种r和G一世在和n吨H和大号小号和这F\θ一种s\tilde{\theta}{n}=\left(\tilde{\theta}{1 n}, \ldots, \tilde{\theta}{pn}\right)^{\top}一种CC这rd一世nG吨这θ~jn=θj+σnj−12从j,从j∼ñ(0,1),在H和r和\sigma n_{j}^{-\frac{1}{2}}一世s吨H和米一种rG一世n一种l在一种r一世一种nC和这F\波浪号{\theta}{jn}一种ndn这一世s和l和在和l,一种nd\left{\theta{j}\right}_{j=1, \ldots, p}一种r和吨H和吨r和一种吨米和n吨和FF和C吨s这F一世n吨和r和s吨.在和米和一种s在r和吨H和q在一种l一世吨是这F吨H和和s吨一世米一种吨这rsb一种s和d这n吨H和\数学{L} {2r一世sķ,R\left(\tilde{\boldsymbol{\theta}}{n}: \boldsymbol{I}{p}\right)=\mathbb{E}\left[\left|\tilde{\boldsymbol{\theta} }{n}-\boldsymbol{\theta}\right|^{2}\right].ñ这吨和吨H一种吨F这r一种sp一种rs和s这l在吨一世这n,在和在s和(3.11).C这ns一世d和r吨H和F一种米一世l是这Fd一世一种G这n一种ll一世n和一种rpr这j和C吨一世这ns,吨D磷(θ^n大号(λ):d)=(d1θ^1n大号(λ),…,dpθ^pn大号(λ))⊤,在H和r和\delta=\left(\delta{1}, \ldots, \delta_{p}\right)^{\top}, \delta_{j} \in(0,1), j=1, \ldots, p美元。这样的估计器“杀死”或“保留”坐标。

假设我们有一个可以为我们提供系数的预言机dj最适合在对角投影方案 (3.15) 中使用。这些“理想”系数是dj=一世(|θj|>σnj−12). 理想的对角线投影只包括估计那些θj, 比它的噪声大,σnj−12(j=1,…,p). 这些产生了“理想”大号2(3.16) 给出的风险。

统计代写|似然估计作业代写Probability and Estimation代考| 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注