统计代写|贝叶斯分析代写Bayesian Analysis代考|MAST90125

如果你也在 怎样代写贝叶斯分析Bayesian Analysis 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。贝叶斯分析Bayesian Analysis是一种统计范式,它使用概率陈述来回答关于未知参数的研究问题。

贝叶斯分析Bayesian Analysis的独特特征包括能够将先验信息纳入分析,将可信区间直观地解释为固定范围,其中参数已知属于预先指定的概率,以及将实际概率分配给任何感兴趣的假设的能力。贝叶斯推断使用后验分布来形成模型参数的各种总结,包括点估计,如后验均值、中位数、百分位数和称为可信区间的区间估计。此外,所有关于模型参数的统计检验都可以表示为基于估计的后验分布的概率陈述。

statistics-lab™ 为您的留学生涯保驾护航 在代写贝叶斯分析Bayesian Analysis方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写贝叶斯分析Bayesian Analysis代写方面经验极为丰富,各种代写贝叶斯分析Bayesian Analysis相关的作业也就用不着说。

统计代写|贝叶斯分析代写Bayesian Analysis代考|MAST90125

统计代写|贝叶斯分析代写Bayesian Analysis代考|Posterior predictive distribution for a future observation

The posterior predictive distribution for a future observation, $\tilde{y}$, can be written as a mixture, $p(\tilde{y} \mid y)=\iint p\left(\tilde{y} \mid \mu, \sigma^2, y\right) p\left(\mu, \sigma^2 \mid y\right) d \mu d \sigma^2$. The first of the two factors in the integral is just the normal distribution for the future observation given the values of $\left(\mu, \sigma^2\right)$, and does not depend on $y$ at all. To draw from the posterior predictive distribution, first draw $\mu, \sigma^2$ from their joint posterior distribution and then simulate $\tilde{y} \sim \mathrm{N}\left(\mu, \sigma^2\right)$.

In fact, the posterior predictive distribution of $\tilde{y}$ is a $t$ distribution with location $\bar{y}$, scale $\left(1+\frac{1}{n}\right)^{1 / 2} s$, and $n-1$ degrees of freedom. This analytic form is obtained using the same techniques as in the derivation of the posterior distribution of $\mu$. Specifically, the distribution can be obtained by integrating out the parameters $\mu, \sigma^2$ according to their joint posterior distribution. We can identify the result more easily by noticing that the factorization $p\left(\tilde{y} \mid \sigma^2, y\right)=\int p\left(\tilde{y} \mid \mu, \sigma^2, y\right) p\left(\mu \mid \sigma^2, y\right) d \mu$ leads to $p\left(\tilde{y} \mid \sigma^2, y\right)=\mathrm{N}\left(\tilde{y} \mid \bar{y},\left(1+\frac{1}{n}\right) \sigma^2\right)$, which is the same, up to a changed scale factor, as the distribution of $\mu \mid \sigma^2, y$.
Example. Estimating the speed of light
Simon Newcomb set up an experiment in 1882 to measure the speed of light. Newcomb measured the amount of time required for light to travel a distance of 7442 meters. A histogram of Newcomb’s 66 measurements is shown in Figure 3.1. There are two unusually low measurements and then a cluster of measurements that are approximately symmetrically distributed. We (inappropriately) apply the normal model, assuming that all 66 measurements are independent draws from a normal distribution with mean $\mu$ and variance $\sigma^2$. The main substantive goal is posterior inference for $\mu$. The outlying measurements do not fit the normal model; we discuss Bayesian methods for measuring the lack of fit for these data in Section 6.3. The mean of the 66 measurements is $\bar{y}=26.2$, and the sample standard deviation is $s=10.8$. Assuming the noninformative prior distribution $p\left(\mu, \sigma^2\right) \propto\left(\sigma^2\right)^{-1}$, a $95 \%$ central posterior interval for $\mu$ is obtained from the $t_{65}$ marginal posterior distribution of $\mu$ as $\bar{y} \pm 1.997 \mathrm{~s} / \sqrt{66}=[23.6,28.8]$. The posterior interval can also be obtained by simulation. Following the factorization of the posterior distribution given by (3.5) and (3.3), we first draw a random value of $\sigma^2 \sim \operatorname{Inv}-\chi^2\left(65, s^2\right)$ as $65 s^2$ divided by a random draw from the $\chi_{65}^2$ distribution (see Appendix A). Then given this value of $\sigma^2$, we draw $\mu$ from its conditional posterior distribution, $\mathrm{N}\left(26.2, \sigma^2 / 66\right)$. Based on 1000 simulated values of $\left(\mu, \sigma^2\right)$, we estimate the posterior median of $\mu$ to be 26.2 and a $95 \%$ central posterior interval for $\mu$ to be $[23.6,28.9]$, close to the analytically calculated interval.
Incidentally, based on the currently accepted value of the speed of light, the ‘true value’ for $\mu$ in Newcomb’s experiment is 33.0, which falls outside our $95 \%$ interval. This reinforces the fact that posterior inferences are only as good as the model and the experiment that produced the data.

统计代写|贝叶斯分析代写Bayesian Analysis代考|Normal data with a conjugate prior distribution

A first step toward a more general model is to assume a conjugate prior distribution for the two-parameter univariate normal sampling model in place of the noninformative prior distribution just considered. The form of the likelihood displayed in (3.2) and the subsequent discussion shows that the conjugate prior density must also have the product form $p\left(\sigma^2\right) p\left(\mu \mid \sigma^2\right)$, where the marginal distribution of $\sigma^2$ is scaled inverse- $\chi^2$ and the conditional distribution of $\mu$ given $\sigma^2$ is normal (so that marginally $\mu$ has a $t$ distribution). A convenient parameterization is given by the following specification:
$$
\begin{aligned}
\mu \mid \sigma^2 & \sim \mathrm{N}\left(\mu_0, \sigma^2 / \kappa_0\right) \
\sigma^2 & \sim \operatorname{Inv}-\chi^2\left(\nu_0, \sigma_0^2\right),
\end{aligned}
$$
which corresponds to the joint prior density
$$
p\left(\mu, \sigma^2\right) \propto \sigma^{-1}\left(\sigma^2\right)^{-\left(\nu_0 / 2+1\right)} \exp \left(-\frac{1}{2 \sigma^2}\left[\nu_0 \sigma_0^2+\kappa_0\left(\mu_0-\mu\right)^2\right]\right) .
$$
We label this the N-Inv- $\chi^2\left(\mu_0, \sigma_0^2 / \kappa_0 ; \nu_0, \sigma_0^2\right)$ density; its four parameters can be identified as the location and scale of $\mu$ and the degrees of freedom and scale of $\sigma^2$, respectively.

The appearance of $\sigma^2$ in the conditional distribution of $\mu \mid \sigma^2$ means that $\mu$ and $\sigma^2$ are necessarily dependent in their joint conjugate prior density: for example, if $\sigma^2$ is large, then a high-variance prior distribution is induced on $\mu$. This dependence is notable, considering that conjugate prior distributions are used largely for convenience. Upon reflection, however, it often makes sense for the prior variance of the mean to be tied to $\sigma^2$, which is the sampling variance of the observation $y$. In this way, prior belief about $\mu$ is calibrated by the scale of measurement of $y$ and is equivalent to $\kappa_0$ prior measurements on this scale.

统计代写|贝叶斯分析代写Bayesian Analysis代考|MAST90125

贝叶斯分析代考

统计代写|贝叶斯分析代写Bayesian Analysis代考|Posterior predictive distribution for a future observation

一个未来观测值$\tilde{y}$的后验预测分布可以写成一个混合物$p(\tilde{y} \mid y)=\iint p\left(\tilde{y} \mid \mu, \sigma^2, y\right) p\left(\mu, \sigma^2 \mid y\right) d \mu d \sigma^2$。积分中两个因子中的第一个是给定$\left(\mu, \sigma^2\right)$值的未来观测值的正态分布,完全不依赖于$y$。要从后验预测分布中提取,首先从它们的联合后验分布中提取$\mu, \sigma^2$,然后模拟$\tilde{y} \sim \mathrm{N}\left(\mu, \sigma^2\right)$。

事实上,$\tilde{y}$的后验预测分布是一个$t$分布,其位置为$\bar{y}$,规模为$\left(1+\frac{1}{n}\right)^{1 / 2} s$,自由度为$n-1$。这种解析形式是使用与推导$\mu$后验分布相同的技术得到的。具体来说,可以根据参数$\mu, \sigma^2$的关节后验分布积分得到其分布。我们可以更容易地识别结果,注意到分解$p\left(\tilde{y} \mid \sigma^2, y\right)=\int p\left(\tilde{y} \mid \mu, \sigma^2, y\right) p\left(\mu \mid \sigma^2, y\right) d \mu$导致$p\left(\tilde{y} \mid \sigma^2, y\right)=\mathrm{N}\left(\tilde{y} \mid \bar{y},\left(1+\frac{1}{n}\right) \sigma^2\right)$,它与$\mu \mid \sigma^2, y$的分布相同,直到改变了比例因子。
示例:估计光速
西蒙·纽科姆在1882年建立了一个测量光速的实验。纽科姆测量了光传播7442米所需的时间。Newcomb的66次测量的直方图如图3.1所示。有两个异常低的测量值,然后是一组近似对称分布的测量值。我们(不恰当地)应用正态模型,假设所有66个测量值都是独立的,来自均值$\mu$和方差$\sigma^2$的正态分布。主要的实质性目标是$\mu$的后验推理。外围测量值不符合正态模型;我们将在第6.3节讨论贝叶斯方法来测量这些数据的拟合缺失。66次测量的平均值为$\bar{y}=26.2$,样本标准差为$s=10.8$。假设无信息先验分布$p\left(\mu, \sigma^2\right) \propto\left(\sigma^2\right)^{-1}$,由$\mu$的边际后验分布$t_{65}$得到$\mu$的中心后验区间$95 \%$为$\bar{y} \pm 1.997 \mathrm{~s} / \sqrt{66}=[23.6,28.8]$。后验区间也可以通过仿真得到。根据(3.5)和(3.3)给出的后验分布的因式分解,我们首先得出一个随机值$\sigma^2 \sim \operatorname{Inv}-\chi^2\left(65, s^2\right)$,即$65 s^2$除以$\chi_{65}^2$分布的随机值(见附录a)。然后给出这个值$\sigma^2$,我们从它的条件后验分布$\mathrm{N}\left(26.2, \sigma^2 / 66\right)$中得出$\mu$。基于$\left(\mu, \sigma^2\right)$的1000个模拟值,我们估计$\mu$的后验中位数为26.2,$\mu$的$95 \%$中央后验区间为$[23.6,28.9]$,接近解析计算的区间。
顺便说一句,根据目前公认的光速值,纽科姆实验中$\mu$的“真实值”是33.0,这超出了我们的$95 \%$区间。这强化了一个事实,即后验推断只与产生数据的模型和实验一样好。

统计代写|贝叶斯分析代写Bayesian Analysis代考|Normal data with a conjugate prior distribution

建立更一般模型的第一步是假设双参数单变量正态抽样模型的共轭先验分布取代刚才考虑的非信息先验分布。(3.2)中显示的似然形式和随后的讨论表明,共轭先验密度也必须具有乘积形式$p\left(\sigma^2\right) p\left(\mu \mid \sigma^2\right)$,其中$\sigma^2$的边际分布按比例为逆- $\chi^2$,并且$\mu$给定$\sigma^2$的条件分布为正态分布(因此边际$\mu$具有$t$分布)。下面的规范给出了一个方便的参数化:
$$
\begin{aligned}
\mu \mid \sigma^2 & \sim \mathrm{N}\left(\mu_0, \sigma^2 / \kappa_0\right) \
\sigma^2 & \sim \operatorname{Inv}-\chi^2\left(\nu_0, \sigma_0^2\right),
\end{aligned}
$$
哪个对应于关节先验密度
$$
p\left(\mu, \sigma^2\right) \propto \sigma^{-1}\left(\sigma^2\right)^{-\left(\nu_0 / 2+1\right)} \exp \left(-\frac{1}{2 \sigma^2}\left[\nu_0 \sigma_0^2+\kappa_0\left(\mu_0-\mu\right)^2\right]\right) .
$$
我们把它标记为N-Inv- $\chi^2\left(\mu_0, \sigma_0^2 / \kappa_0 ; \nu_0, \sigma_0^2\right)$密度;它的四个参数分别可以识别为$\mu$的位置和尺度以及$\sigma^2$的自由度和尺度。

$\sigma^2$在$\mu \mid \sigma^2$的条件分布中的出现意味着$\mu$和$\sigma^2$在它们的联合共轭先验密度上是必然依赖的:例如,如果$\sigma^2$很大,那么在$\mu$上就会产生一个高方差先验分布。考虑到共轭先验分布主要是为了方便而使用,这种依赖性是值得注意的。然而,经过反思,通常将均值的先验方差与$\sigma^2$联系起来是有意义的,这是观测值的抽样方差$y$。这样,关于$\mu$的先验信念是通过$y$的测量尺度来校准的,相当于$\kappa_0$在这个尺度上的先验测量。

统计代写|贝叶斯分析代写Bayesian Analysis代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注