### 计算机代写|机器学习代写machine learning代考|Log-Normal Distribution

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习machine learning代写方面经验极为丰富，各种代写机器学习machine learning相关的作业也就用不着说。

• Statistical Inference 统计推断
• Statistical Computing 统计计算
• (Generalized) Linear Models 广义线性模型
• Statistical Machine Learning 统计机器学习
• Longitudinal Data Analysis 纵向数据分析
• Foundations of Data Science 数据科学基础

## 计算机代写|机器学习代写machine learning代考|Multivariate Log-Normal

$X_{1}, X_{2}, \cdots, X_{n}$ are jointly log-normal if $\ln X_{1}, \ln X_{2}, \cdots, \ln X_{n}$ are $\quad \mathbf{x} \in\left(\mathbb{R}^{+}\right)^{n}: \mathbf{x} \sim \ln \mathcal{N}\left(\mathbf{x} ; \mu_{\ln } \mathbf{x}, \mathbf{\Sigma}{\ln \mathbf{x}}\right.$ jointly Normal. The multivariate log-normal PDF is parameterized by the mean values $\left(\mu{\ln X_{i}}=\lambda\right)$, variances $\left(\sigma_{\ln X_{i}}^{2}=\zeta^{2}\right)$, and
correlation coefficients $\left(\rho_{\mathrm{n}} X_{i} \ln X_{j}\right)$ defined in the log-transformed
space. Correlation coefficients in the $\log$-space $\rho_{\ln } x_{i} \ln X_{j}$ are related
to the correlation coefficients in the original space $\rho X_{i} x_{j}$ using the relation
$$\rho_{\ln X_{i}} \ln X_{j}=\frac{1}{\zeta_{i} \zeta_{j}} \ln \left(1+\rho_{X_{i} X_{j}} \delta_{X_{1}} \delta_{X_{j}}\right)$$
where $\rho_{\ln X_{i} \ln X_{j}} \approx \rho_{X_{i} X_{j}}$ for $\delta_{X_{i}}, \delta_{X_{j}} \ll 0.3$. The PDF for two random variables $\left{X_{1}, X_{2}\right}$ such that $\left{x_{1}, x_{2}\right}>0$ is
$$f_{X_{1} X_{2}}\left(x_{1}, x_{2}\right)=\frac{1}{x_{1} x_{2} \sqrt{2 \pi} \zeta_{1} \zeta_{2} \sqrt{1-\rho_{\mathrm{ln}}^{2}}} \exp \left(-\frac{1}{2\left(1-\rho_{\mathrm{ln}}^{2}\right)}\left(\left(\frac{\ln x_{1}-\lambda_{1}}{\zeta_{1}}\right)^{2}+\left(\frac{\ln x_{2}-\lambda_{2}}{\zeta_{2}}\right)^{2}-2 \rho_{\mathrm{n}}\left(\frac{\ln x_{1}-\lambda_{1}}{\zeta_{1}}\right)\left(\frac{\ln x_{2}-\lambda_{2}}{\zeta_{2}}\right)^{2}\right)\right)$$

Figure $4.10$ presents an example of bivariate log-normal PDF with parameters $\mu_{1}=\mu_{2}=1.5, \sigma_{1}=\sigma_{2}=0.5$, and $\rho=0.9$. The general formulation for the multivariate log-normal PDF is
\begin{aligned} f_{\mathbf{X}}(\mathbf{x}) &=\ln \mathcal{N}\left(\mathbf{x} ; \boldsymbol{\mu}{\ln \mathbf{X}}, \boldsymbol{\Sigma}{\ln \mathbf{x}}\right) \ &=\frac{1}{\left(\Pi_{i=1}^{n} x_{i}\right)(2 \pi)^{n / 2}\left(\operatorname{det} \boldsymbol{\Sigma}{\mathbf{n} \mathbf{X}}\right)^{1 / 2}} \exp \left(-\frac{1}{2}\left(\ln \mathbf{x}-\boldsymbol{\mu}{\ln \mathbf{x}}\right)^{\top} \boldsymbol{\Sigma}{\ln \mathbf{X}}^{-1}\left(\ln \mathbf{x}-\boldsymbol{\mu}{\ln \mathbf{x}}\right)\right) \end{aligned}
where $\boldsymbol{\mu} \ln \mathbf{x}$ and $\boldsymbol{\Sigma}_{\ln \mathbf{x}}$ are respectively the mean vector and covariance matrix defined in the log-space.

## 计算机代写|机器学习代写machine learning代考|Properties

Because the log-normal distribution is obtained through a transformation of the Normal distribution, it inherits several of its properties. $\operatorname{matrix} \Sigma_{\mathrm{ln} \mathbf{X}}$.

1. Its marginal distributions are also log-normal, and the PDF of any marginal is given by
$$x_{i}: X_{i} \sim \ln \mathcal{N}\left(x_{i} ;\left[\boldsymbol{\mu}{\ln } \mathbf{x}\right]{i+}\left[\boldsymbol{\Sigma}{\ln \mathbf{x}}\right]{i i}\right) .$$
2. The absence of correlation implies statistical independence Remember that this is not generally true for other types of random variables (see $\S 3.3 .5$ ),
$$\rho_{i j}=0 \Leftrightarrow X_{i} \perp X_{j}$$
3. Conditional distributions are log-normal, so the $\mathrm{PDF}$ of $\mathbf{X}{i}$ given an observation $\mathbf{X}{j}=\mathbf{x}{j}$ is given by $$f \mathbf{X}{i} \mid \mathbf{x}{j}(\mathbf{x}{i} \mid \underbrace{\mathbf{X}{j}=\mathbf{x}{j}}{\text {observations }})=\ln \mathcal{N}\left(\mathbf{x}{i} ; \boldsymbol{\mu}{\ln i \mid j}, \mathbf{\Sigma}{\ln i \mid j}\right)+$$
where the conditional mean vector and covariance are
\begin{aligned} &\boldsymbol{\mu}{\ln i \mid j}=\mu{n i}+\Sigma_{\ln i j} \Sigma_{j}^{-1}\left(\ln \mathbf{x}{j}-\mu{\ln j}\right) \ &\Sigma_{\ln i \mid j}=\Sigma_{\ln i}-\Sigma_{\ln i j} \Sigma_{j}^{-1} \Sigma_{\ln i j}^{\top} \end{aligned}
4. The multiplication of jointly log-normal random variables is jointly $\log$-normal so that for $X \sim \ln \mathcal{N}\left(x ; \lambda_{X}, \zeta_{X}\right)$ and $Y \sim$ $\ln \mathcal{N}\left(y ; \lambda_{Y}, \zeta_{Y}\right)$, where $X \perp Y$,
\left.\begin{array}{rl} Z & =X \cdot Y \ \sim & \ln \mathcal{N}\left(z ; \lambda_{Z}, \zeta_{Z}\right) \end{array}\right} \begin{aligned} &\lambda_{Z}=\lambda_{X}+\lambda_{Y} \ &\zeta_{Z}^{2}=\zeta_{X}^{2}+\zeta_{Y}^{2} \end{aligned}
Because the product of log-normal random variables can be transformed in the sum of Normal random variables, the properties of the central limit theorem presented in $\S 4.1 .3$ still hold.

## 计算机代写|机器学习代写machine learning代考|Beta Distribution

The Beta distribution is defined over the interval $(0,1)$. It can be scaled by the transformation $x^{\prime}=x \cdot(b-a)+a$ to model bounded quantities within any range $(a, b)$. The Beta probability density function (PDF) is defined by
$$f_{X}(x)=\mathcal{B}(x ; \alpha, \beta)=\frac{x^{\alpha-1}(1-x)^{\beta-1}}{\mathrm{~B}(\alpha, \beta)}\left{\begin{array}{l} \alpha>0 \ \beta>0 \ \mathrm{~B}(\alpha, \beta): \text { Beta function } \end{array}\right.$$
where $\alpha$ and $\beta$ are the two distribution parameters, and the Beta function $\mathrm{B}(\alpha, \beta)$ is the normalization constant so that
$$\mathrm{B}(\alpha, \beta)=\int_{0}^{1} x^{\alpha-1}(1-x)^{\beta-1} d x$$
A common application of the Beta PDF is to employ the interval $(0,1)$ to model the probability density of a probability itself. Let us consider two mutually exclusive and collectively exhaustive events, for example, any event $A$ and its complement $\bar{A}, \mathcal{S}={A, \bar{A}}$. If the probability that the event $A$ occurs is uncertain, it can be described by a random variable so that
$$\left{\begin{array}{l} \operatorname{Pr}(A)=X \ \operatorname{Pr}(A)=1-X \end{array}\right.$$
where $x \in(0,1): X \sim \mathcal{B}(x ; \alpha, \beta)$. The parameter $\alpha$ can be interpreted as pseudo-counts representing the number of observations of the event $A$, and $\beta$ is the number of observations of the complementary event $\bar{A}$. This relation between pseudo-counts and the Beta distribution, as well as practical applications, are further detailed in chapter 6. Figure $4.11$ presents examples of Beta PDFs for three sets of parameters. Note how for $\alpha=\beta=1$, the Beta distribution is analogous to the Uniform distribution $\mathcal{U}(x ; 0,1)$.

## 计算机代写|机器学习代写machine learning代考|Multivariate Log-Normal

X1,X2,⋯,Xn是联合对数正态如果ln⁡X1,ln⁡X2,⋯,ln⁡Xn是X∈(R+)n:X∼ln⁡ñ(X;μlnX,Σln⁡X联合正常。多元对数正态 PDF 由平均值参数化(μln⁡X一世=λ), 方差(σln⁡X一世2=G2), 和

ρln⁡X一世ln⁡Xj=1G一世Gjln⁡(1+ρX一世XjdX1dXj)

FX1X2(X1,X2)=1X1X22圆周率G1G21−ρln2经验⁡(−12(1−ρln2)((ln⁡X1−λ1G1)2+(ln⁡X2−λ2G2)2−2ρn(ln⁡X1−λ1G1)(ln⁡X2−λ2G2)2))

FX(X)=ln⁡ñ(X;μln⁡X,Σln⁡X) =1(圆周率一世=1nX一世)(2圆周率)n/2(这⁡ΣnX)1/2经验⁡(−12(ln⁡X−μln⁡X)⊤Σln⁡X−1(ln⁡X−μln⁡X))

## 计算机代写|机器学习代写machine learning代考|Properties

1. 它的边际分布也是对数正态分布，任何边际的 PDF 由下式给出
X一世:X一世∼ln⁡ñ(X一世;[μlnX]一世+[Σln⁡X]一世一世).
2. 缺乏相关性意味着统计独立性 请记住，对于其他类型的随机变量，这通常不是正确的（参见§§3.3.5 ),
ρ一世j=0⇔X一世⊥Xj
3. 条件分布是对数正态分布，所以磷DF的X一世给予观察Xj=Xj是（谁）给的FX一世∣Xj(X一世∣Xj=Xj⏟观察 )=ln⁡ñ(X一世;μln⁡一世∣j,Σln⁡一世∣j)+
其中条件均值向量和协方差是
μln⁡一世∣j=μn一世+Σln⁡一世jΣj−1(ln⁡Xj−μln⁡j) Σln⁡一世∣j=Σln⁡一世−Σln⁡一世jΣj−1Σln⁡一世j⊤
4. 联合对数正态随机变量的乘法是联合日志-正常，因此对于X∼ln⁡ñ(X;λX,GX)和是∼ ln⁡ñ(是;λ是,G是)， 在哪里X⊥是,
\left.\begin{array}{rl} Z & =X \cdot Y \ \sim & \ln \mathcal{N}\left(z ; \lambda_{Z}, \zeta_{Z}\right) \end {数组}\right} \begin{aligned} &\lambda_{Z}=\lambda_{X}+\lambda_{Y} \ &\zeta_{Z}^{2}=\zeta_{X}^{2} +\zeta_{Y}^{2} \end{对齐}\left.\begin{array}{rl} Z & =X \cdot Y \ \sim & \ln \mathcal{N}\left(z ; \lambda_{Z}, \zeta_{Z}\right) \end {数组}\right} \begin{aligned} &\lambda_{Z}=\lambda_{X}+\lambda_{Y} \ &\zeta_{Z}^{2}=\zeta_{X}^{2} +\zeta_{Y}^{2} \end{对齐}
因为对数正态随机变量的乘积可以转化为正态随机变量之和，所以中心极限定理的性质§§4.1.3仍然持有。

## 计算机代写|机器学习代写machine learning代考|Beta Distribution

Beta 分布在区间上定义(0,1). 它可以通过变换进行缩放X′=X⋅(b−一个)+一个对任何范围内的有界数量进行建模(一个,b). Beta 概率密度函数 (PDF) 由
$$f_{X}(x)=\mathcal{B}(x ; \alpha, \beta)=\frac{x^{\alpha-1}(1- x)^{\beta-1}}{\mathrm{~B}(\alpha, \beta)}\left{ 一个>0 b>0 乙(一个,b): 贝塔函数 \正确的。 在H和r和一个一个ndb一个r和吨H和吨在○d一世s吨r一世b在吨一世○np一个r一个米和吨和rs,一个nd吨H和乙和吨一个F在nC吨一世○n乙(一个,b)一世s吨H和n○r米一个l一世和一个吨一世○nC○ns吨一个n吨s○吨H一个吨 \mathrm{B}(\alpha, \beta)=\int_{0}^{1} x^{\alpha-1}(1-x)^{\beta-1} dx 一个C○米米○n一个ppl一世C一个吨一世○n○F吨H和乙和吨一个磷DF一世s吨○和米pl○是吨H和一世n吨和r在一个l(0,1)吨○米○d和l吨H和pr○b一个b一世l一世吨是d和ns一世吨是○F一个pr○b一个b一世l一世吨是一世吨s和lF.大号和吨在sC○ns一世d和r吨在○米在吨在一个ll是和XCl在s一世在和一个ndC○ll和C吨一世在和l是和XH一个在s吨一世在和和在和n吨s,F○r和X一个米pl和,一个n是和在和n吨一个一个nd一世吨sC○米pl和米和n吨一个¯,小号=一个,一个¯.我F吨H和pr○b一个b一世l一世吨是吨H一个吨吨H和和在和n吨一个○CC在rs一世s在nC和r吨一个一世n,一世吨C一个nb和d和sCr一世b和db是一个r一个nd○米在一个r一世一个bl和s○吨H一个吨 \剩下{ 公关⁡(一个)=X 公关⁡(一个)=1−X\正确的。$$

## 有限元方法代写

tatistics-lab作为专业的留学生服务机构，多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务，包括但不限于Essay代写，Assignment代写，Dissertation代写，Report代写，小组作业代写，Proposal代写，Paper代写，Presentation代写，计算机作业代写，论文修改和润色，网课代做，exam代考等等。写作范围涵盖高中，本科，研究生等海外留学全阶段，辐射金融，经济学，会计学，审计学，管理学等全球99%专业科目。写作团队既有专业英语母语作者，也有海外名校硕博留学生，每位写作老师都拥有过硬的语言能力，专业的学科背景和学术写作经验。我们承诺100%原创，100%专业，100%准时，100%满意。

## MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中，其中问题和解决方案以熟悉的数学符号表示。典型用途包括：数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发，包括图形用户界面构建MATLAB 是一个交互式系统，其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题，尤其是那些具有矩阵和向量公式的问题，而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问，这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展，得到了许多用户的投入。在大学环境中，它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域，MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要，工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数（M 文件）的综合集合，可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。