统计代写|贝叶斯分析代写Bayesian Analysis代考|Dealing with a priori ignorance

如果你也在 怎样代写贝叶斯分析Bayesian Analysis 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。贝叶斯分析Bayesian Analysis一种统计推断方法(以英国数学家托马斯-贝叶斯命名),它允许人们将关于人口参数的先验信息与样本中包含的信息证据相结合,以指导统计推断过程。首先指定一个感兴趣的参数的先验概率分布。然后通过应用贝叶斯定理获得并结合证据,为参数提供一个后验概率分布。后验分布为有关该参数的统计推断提供了基础。

贝叶斯分析,一种统计推断方法(以英国数学家托马斯-贝叶斯命名),允许人们将关于人口参数的先验信息与样本所含信息的证据相结合,以指导统计推断过程。

statistics-lab™ 为您的留学生涯保驾护航 在代写贝叶斯分析Bayesian Analysis方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写贝叶斯分析Bayesian Analysis代写方面经验极为丰富,各种代写贝叶斯分析Bayesian Analysis相关的作业也就用不着说。

统计代写|贝叶斯分析代写Bayesian Analysis代考|Dealing with a priori ignorance

统计代写|贝叶斯分析代写Bayesian Analysis代考|Dealing with a priori ignorance

The Bayesian approach requires a prior distribution to be specified even when there is complete (or total) a priori ignorance (meaning no prior information at all). This feature presents a general and philosophical problem with the Bayesian paradigm, one for which several theoretical solutions have been advanced but which does not yet have a universally accepted solution. We have already discussed finding an uninformative prior in relation to particular Bayesian models, as follows.

For the normal-normal model defined by $\left(y_1, \ldots, y_n \mid \mu\right) \sim$ iid $N\left(\mu, \sigma^2\right)$ and $\mu \sim N\left(\mu_0, \sigma_0^2\right)$, an uninformative prior is given by $\sigma_0=\infty$, that is, $f(\mu) \propto 1, \mu \in \Re$.

For the normal-gamma model defined by $\left(y_1, \ldots, y_n \mid \mu\right) \sim$ iid $N(\mu, 1 / \lambda)$ and $\lambda \sim \operatorname{Gamma}(\alpha, \beta)$, an uninformative prior is given by $\alpha=\beta=0$, that is, $f(\lambda) \propto 1 / \lambda, \lambda>0$.

For the binomial-beta model defined by $(y \mid \theta) \sim \operatorname{Binomial}(n, \theta)$ and $\theta \sim \operatorname{Beta}(\alpha, \beta)$ (having the posterior $(\theta \mid y) \sim \operatorname{Beta}(\alpha+y, \beta+n-y)$ ), an uninformative prior is the Bayes prior given by $\alpha=\beta=1$, that is, $f(\theta)=1,0<\theta<1$. This is the prior that was originally advocated by Thomas Bayes.

Unlike for the normal-normal and normal-gamma models, more than one uninformative prior specification has been proposed as reasonable in the context of the binomial-beta model.

One of these is the improper Haldane prior, defined by $\alpha=\beta=0$, or
$$
f(\theta) \propto \frac{1}{\theta(1-\theta)}, \quad 0<\theta<1 .
$$
Under the prior $\theta \sim \operatorname{Beta}(\alpha, \beta)$ generally, the posterior mean of $\theta$ is
$$
\hat{\theta}=E(\theta \mid y)=\frac{(\alpha+y)}{(\alpha+y)+(\beta+n-y)}=\frac{\alpha+y}{\alpha+\beta+n} .
$$
This reduces to the MLE $y / n$ under the Haldane prior but not under the Bayes prior. In contrast, the Bayes prior leads to a posterior mode which is equal to the MLE.

统计代写|贝叶斯分析代写Bayesian Analysis代考|The Jeffreys prior

The statistician Harold Jeffreys devised a rule for finding a suitable uninformative prior in a wide variety of situations. His idea was to construct a prior which is invariant under reparameterisation. For the case of a univariate model parameter $\theta$, the Jeffreys prior is given by the following equation (also known as Jeffreys’ rule):
$$
f(\theta) \propto \sqrt{I(\theta)}
$$
where $I(\theta)$ is the Fisher information defined by
$$
I(\theta)=E\left{\left(\frac{\partial}{\partial \theta} \log f(y \mid \theta)\right)^2 \mid \theta\right} .
$$
Note 1: If $\log f(y \mid \theta)$ is twice differentiable with respect to $\theta$, and certain regularity conditions hold, then
$$
I(\theta)=-E\left{\frac{\partial^2}{\partial \theta^2} \log f(y \mid \theta) \mid \theta\right} .
$$
Note 2: Jeffreys’ rule also extends to the multi-parameter case (not considered here).

The significance of Jeffreys’ rule may be described as follows. Consider a prior given by $f(\theta) \propto \sqrt{I(\theta)}$ and the transformed parameter $\phi=g(\theta)$,where $g$ is a strictly increasing or decreasing function. (For simplicity, we only consider this case.) Then the prior density for $\phi$ is
$f(\phi) \propto f(\theta)\left|\frac{\partial \theta}{\partial \phi}\right|$ by the transformation rule
$$
\begin{aligned}
& \propto \sqrt{I(\theta)\left(\frac{\partial \theta}{\partial \phi}\right)^2}=\sqrt{E\left{\left(\frac{\partial}{\partial \theta} \log f(y \mid \theta)\right)^2 \mid \theta\right}\left(\frac{\partial \theta}{\partial \phi}\right)^2} \
& =\sqrt{E\left{\left(\frac{\partial}{\partial \theta} \log f(y \mid \theta) \frac{\partial \theta}{\partial \phi}\right)^2 \mid \theta\right}} \
& =\sqrt{E\left{\left(\frac{\partial}{\partial \phi} \log f(y \mid \phi)\right)^2 \mid \phi\right}} \
& =\sqrt{I(\phi)} .
\end{aligned}
$$
Thus, Jeffreys’ rule is ‘invariant under reparameterisation’, in the sense that if a prior is constructed according to
$$
f(\theta) \propto \sqrt{I(\theta)}
$$
then, for another parameter $\phi=g(\theta)$, it is also true that
$$
f(\phi) \propto \sqrt{I(\phi)} .
$$

统计代写|贝叶斯分析代写Bayesian Analysis代考|Dealing with a priori ignorance

贝叶斯分析代考

统计代写|贝叶斯分析代写Bayesian Analysis代考|Dealing with a priori ignorance

即使存在完全(或完全)先验无知(意味着根本没有先验信息),贝叶斯方法也需要指定先验分布。这一特征提出了贝叶斯范式的一个普遍的哲学问题,其中有几个理论解决方案已经提出,但还没有一个普遍接受的解决方案。我们已经讨论了寻找与特定贝叶斯模型相关的无信息先验,如下所示。

对于$\left(y_1, \ldots, y_n \mid \mu\right) \sim$ iid $N\left(\mu, \sigma^2\right)$和$\mu \sim N\left(\mu_0, \sigma_0^2\right)$定义的正态-正态模型,无信息先验由$\sigma_0=\infty$给出,即$f(\mu) \propto 1, \mu \in \Re$。

对于由$\left(y_1, \ldots, y_n \mid \mu\right) \sim$ iid $N(\mu, 1 / \lambda)$和$\lambda \sim \operatorname{Gamma}(\alpha, \beta)$定义的正态伽玛模型,无信息先验由$\alpha=\beta=0$给出,即$f(\lambda) \propto 1 / \lambda, \lambda>0$。

对于由$(y \mid \theta) \sim \operatorname{Binomial}(n, \theta)$和$\theta \sim \operatorname{Beta}(\alpha, \beta)$(具有后验$(\theta \mid y) \sim \operatorname{Beta}(\alpha+y, \beta+n-y)$)定义的二项- β模型,无信息先验是$\alpha=\beta=1$给出的贝叶斯先验,即$f(\theta)=1,0<\theta<1$。这是Thomas Bayes最初提倡的先验。

与正态-正态和正态-伽马模型不同,在二项- β模型的背景下,不止一个无信息的先前规范被认为是合理的。

其中之一是不正确的霍尔丹先验,由$\alpha=\beta=0$或定义
$$
f(\theta) \propto \frac{1}{\theta(1-\theta)}, \quad 0<\theta<1 .
$$
在先验$\theta \sim \operatorname{Beta}(\alpha, \beta)$下,$\theta$的后验均值一般为
$$
\hat{\theta}=E(\theta \mid y)=\frac{(\alpha+y)}{(\alpha+y)+(\beta+n-y)}=\frac{\alpha+y}{\alpha+\beta+n} .
$$
这简化为在霍尔丹先验下的MLE $y / n$,而不是在贝叶斯先验下。相比之下,贝叶斯先验导致的后验模式等于最大似然。

统计代写|贝叶斯分析代写Bayesian Analysis代考|The Jeffreys prior

统计学家哈罗德·杰弗里斯(Harold Jeffreys)设计了一条规则,用于在各种各样的情况下找到合适的非信息先验。他的想法是构造一个在重参数化下不变的先验。对于单变量模型参数$\theta$,杰弗里斯先验由下式给出(也称为杰弗里斯规则):
$$
f(\theta) \propto \sqrt{I(\theta)}
$$
哪里$I(\theta)$是费雪信息的定义
$$
I(\theta)=E\left{\left(\frac{\partial}{\partial \theta} \log f(y \mid \theta)\right)^2 \mid \theta\right} .
$$
注1:如果$\log f(y \mid \theta)$对$\theta$是二次可微的,且一定的正则性条件成立,则
$$
I(\theta)=-E\left{\frac{\partial^2}{\partial \theta^2} \log f(y \mid \theta) \mid \theta\right} .
$$
注2:Jeffreys规则也适用于多参数情况(此处不考虑)。

杰弗里斯规则的意义可以描述如下。考虑$f(\theta) \propto \sqrt{I(\theta)}$给出的先验和转换后的参数$\phi=g(\theta)$,其中$g$是严格的递增或递减函数。(为简单起见,我们只考虑这种情况。)那么$\phi$的先验密度为
通过变换规则$f(\phi) \propto f(\theta)\left|\frac{\partial \theta}{\partial \phi}\right|$
$$
\begin{aligned}
& \propto \sqrt{I(\theta)\left(\frac{\partial \theta}{\partial \phi}\right)^2}=\sqrt{E\left{\left(\frac{\partial}{\partial \theta} \log f(y \mid \theta)\right)^2 \mid \theta\right}\left(\frac{\partial \theta}{\partial \phi}\right)^2} \
& =\sqrt{E\left{\left(\frac{\partial}{\partial \theta} \log f(y \mid \theta) \frac{\partial \theta}{\partial \phi}\right)^2 \mid \theta\right}} \
& =\sqrt{E\left{\left(\frac{\partial}{\partial \phi} \log f(y \mid \phi)\right)^2 \mid \phi\right}} \
& =\sqrt{I(\phi)} .
\end{aligned}
$$
因此,杰弗里斯的规则是“在重新参数化下不变的”,在这个意义上,如果一个先验是根据
$$
f(\theta) \propto \sqrt{I(\theta)}
$$
那么,对于另一个参数$\phi=g(\theta)$,也是成立的
$$
f(\phi) \propto \sqrt{I(\phi)} .
$$

统计代写|贝叶斯分析代写Bayesian Analysis代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注