统计代写|应用随机过程代写Stochastic process代考|Bayesian decision analysis

如果你也在 怎样代写应用随机过程Stochastic process这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

随机过程被定义为随机变量X={Xt:t∈T}的集合,定义在一个共同的概率空间上,时期内的控制和状态轨迹,以使性能指数最小化的过程。

statistics-lab™ 为您的留学生涯保驾护航 在代写应用随机过程Stochastic process方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写应用随机过程Stochastic process代写方面经验极为丰富,各种代写应用随机过程Stochastic process相关的作业也就用不着说。

我们提供的应用随机过程Stochastic process及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等楖率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
统计代写|应用随机过程代写Stochastic process代考|Bayesian decision analysis

统计代写|应用随机过程代写Stochastic process代考|Bayesian decision analysis

Often, the ultimate aim of statistical research will be to support decision-making. As an example, the gambler might have to decide whether or not to play the game and what initial stake to put. An important strength of the Bayesian approach is its natural inclusion into a coherent framework for decision-making, which, in practical terms, leads to Bayesian decision analysis.

If the consequences of the decisions, or actions of a decision maker $(D M$ ), depend upon the future values of observations, the general description of a decision problem is as follows. For each feasible action $a \in \mathcal{A}$, with $\mathcal{A}$ the action space, and each future result $\mathbf{y}$, we associate a consequence $c(a, \mathbf{y})$. For example, in the case of the gambler’s ruin problem, if the gambler stakes a quantity $x_{0}$ (the action $a$ ) and wins the game after a sequence $y$ of results, the consequence is that she wins a quantity $m-x_{0}$. This consequence will be evaluated through its utility $u(c(a, y))$, which encodes the DM’s preferences and risk attitudes. The DM should choose the action maximizing her predictive expected utility
$$
\max _{a \in \mathcal{A}} \int u(c(a, \mathbf{y})) f(\mathbf{y} \mid \mathbf{x}) \mathrm{d} y
$$
where $f(\mathbf{y} \mid \mathbf{x})$ represents the DM’s predictive density for $\mathbf{y}$ given her current knowledge and data, $\mathbf{x}$, described in (2.3).

In other instances, the consequences will actually depend on the parameter $\theta$, rather than on the observable $y$. In these cases, we shall be interested in maximizing the posterior expected utility
$$
\max _{a \in \mathcal{A}} \int u(c(a, \theta)) f(\theta \mid \mathbf{x}) \mathrm{d} \theta
$$
In most statistical contexts, we normally talk about losses, rather than utilities, and we aim at minimizing the posterior (or predictive) expected loss. We just need to consider that utility is the negative of the loss. Note also that all the standard statistical approaches mentioned earlier may be justified within this framework. As an example, if we are interested in point estimation through the posterior mean, we may easily see that this estimate is optimal, in terms of minimizing posterior expected loss, when we use the quadratic loss function (see, e.g., French and Ríos Insua, 2000). We would like to stress, however, that we should not always appeal to such canonical utility/loss functions, but rather try to model whatever relevant consequential aspects we may deem appropriate in the problem at hand.

统计代写|应用随机过程代写Stochastic process代考|Computational Bayesian statistics

The key operation in the practical implementation of Bayesian methods is integration. In the examples we have seen so far in this chapter, most integrations are standard

and may be done analytically. This is a typical consequence of the use of conjugate prior distributions: a class of priors is conjugate to a given model, if the resulting posterior belongs to the same class of distributions. When the properties of the conjugate family of distributions are known, the use of conjugate prior distributions greatly simplifies Bayesian analysis procedures since, given observed data, the calculation of the posterior distribution reduces to simply modifying the parameters of the prior distribution. However, it is important to note that conjugate prior distributions are associated with (generalized) exponential family sampling distributions, and, therefore, that conjugate prior distributions do not always exist. For example, if we consider data generated from a Cauchy distribution, then it is well known that no conjugate prior exists.

However, more complex, nonconjugate models will generally not allow for such neat computations. Various techniques for approximating Bayesian integrals can be considered.

When the sample size is sufficiently large, central limit type theorems can sometimes be applied so that the posterior distribution is approximated by a normal distribution, when integrals may often be estimated in a straightforward way. Otherwise, in low-dimensional problems such as in Example 2.7, we can often apply numerical integration techniques like Gaussian quadrature. However, in higher dimensional problems, the number of function evaluations necessary to accurately evaluate the relevant integrals increases rapidly and such methods become inaccurate. Therefore, approaches based on simulation are typically preferred. Given their increasing importance in Bayesian statistical computation, we outline such methods.

The key idea is that of Monte Carlo integration, which substitutes an integral by a sample mean of a sufficiently large number, say $N$, of values simulated from the relevant posterior distribution. If $\boldsymbol{\theta}^{1}, \ldots, \theta^{N}$ is a sample from $f(\theta \mid \mathbf{x})$, then we have that for some function, $g(\theta)$, with finite posterior mean and variance, then
$$
\frac{1}{N} \sum_{i=1}^{N} g\left(\boldsymbol{\theta}^{(i)}\right) \cong E[g(\boldsymbol{\theta}) \mid \mathbf{x}] .
$$
This result follows from the strong law of large numbers, which provides almost sure convergence of the Monte Carlo approximation to the integral. The variance of the Monte Carlo approximation provides guidance on the precision of the estimate.

统计代写|应用随机过程代写Stochastic process代考|Computational Bayesian decision analysis

We now briefly address computational issues in relation with Bayesian decision analysis problems. In principle, this involves two operations: (1) integration to obtain expected utilities of alternatives and (2) optimization to determine the alternative with maximum expected utility. To fix ideas, we shall assume that we aim at solving problem (2.4), that is finding the alternative of maximum posterior expected utility. If the posterior distribution is independent of the action chosen, then we may drop the denominator $\int f(\mathbf{x} \mid \boldsymbol{\theta}) f(\boldsymbol{\theta}) \mathrm{d} \boldsymbol{\theta}$, solving the possibly simpler problem
$$
\max _{a} \int u(a, \boldsymbol{\theta}) f(\mathbf{x} \mid \boldsymbol{\theta}) f(\boldsymbol{\theta}) \mathrm{d} \boldsymbol{\theta} .
$$
Also recall that for standard statistical decision theoretical problems, the solution of the optimization problem is well known. For example, in an estimation problem with absolute value loss, the optimal estimate will be the posterior median. We shall refer here to problems with general utility functions. We first describe two simulationbased methods and then present a key optimization principle in sequential problems, Bellman’s dynamic programming principle, which will be relevant when dealing with stochastic processes.

The first approach we describe is called sample path optimization in the simulation literature and was introduced in statistical decision theory in Shao (1989). To be most effective, it requires that the posterior does not depend on the action chosen. In such cases, we may use the following strategy:

  1. Select a sample $\boldsymbol{\theta}^{1}, \ldots, \boldsymbol{\theta}^{N} \sim p(\boldsymbol{\theta} \mid \mathbf{x})$.
  2. Solve the optimization problem
    $$
    \max {a \in \mathcal{A}} \frac{1}{N} \sum{i=1}^{N} u\left(a, \theta^{i}\right)
    $$
    Yielding $a_{N}^{}$. If the maximum expected utility alternative $a^{}$ is unique, we may prove that $a_{N}^{} \rightarrow a^{}$, almost surely. Note that the auxiliary problem used to find $a_{N}^{*}$ is a standard mathematical programming problem, see Nemhauser et al. (1990) for ample information.
统计代写|应用随机过程代写Stochastic process代考|Bayesian decision analysis

随机过程代写

统计代写|应用随机过程代写Stochastic process代考|Bayesian decision analysis

通常,统计研究的最终目的是支持决策。例如,赌徒可能必须决定是否玩游戏以及投入多少初始赌注。贝叶斯方法的一个重要优势是它自然地包含在一个连贯的决策框架中,这实际上导致了贝叶斯决策分析。

如果决策的后果或决策者的行动(D米),取决于观察的未来值,决策问题的一般描述如下。对于每一个可行的行动一种∈一种, 和一种行动空间,以及每一个未来的结果是,我们关联一个结果C(一种,是). 例如,在赌徒破产问题的情况下,如果赌徒下注一个数量X0(那个行动一种) 并在一个序列后赢得比赛是结果,结果是她赢得了一个数量米−X0. 这个后果将通过它的效用来评估在(C(一种,是)),它编码了 DM 的偏好和风险态度。DM 应该选择最大化她的预测期望效用的行动
最大限度一种∈一种∫在(C(一种,是))F(是∣X)d是
在哪里F(是∣X)表示 DM 的预测密度是鉴于她目前的知识和数据,X,在(2.3)中描述。

在其他情况下,结果实际上取决于参数θ,而不是在可观察的是. 在这些情况下,我们将对最大化后验期望效用感兴趣
最大限度一种∈一种∫在(C(一种,θ))F(θ∣X)dθ
在大多数统计上下文中,我们通常谈论损失,而不是效用,我们的目标是最小化后验(或预测)预期损失。我们只需要考虑效用是损失的负数。还要注意,前面提到的所有标准统计方法都可能在这个框架内得到证明。例如,如果我们对通过后验均值进行点估计感兴趣,我们可以很容易地看到,当我们使用二次损失函数时(参见例如 French 和 Ríos Insua , 2000)。然而,我们想强调的是,我们不应该总是求助于这种典型的效用/损失函数,而是尝试对我们认为适合手头问题的任何相关结果方面进行建模。

统计代写|应用随机过程代写Stochastic process代考|Computational Bayesian statistics

贝叶斯方法实际实现中的关键操作是积分。在本章到目前为止我们看到的示例中,大多数集成都是标准的

并且可以分析地完成。这是使用共轭先验分布的典型结果:如果得到的后验属于同一类分布,则一类先验与给定模型共轭。当已知共轭分布族的属性时,使用共轭先验分布大大简化了贝叶斯分析程序,因为给定观察数据,后验分布的计算减少为简单地修改先验分布的参数。然而,重要的是要注意共轭先验分布与(广义)指数族抽样分布相关联,因此,共轭先验分布并不总是存在。例如,如果我们考虑从柯西分布生成的数据,

然而,更复杂的非共轭模型通常不允许进行如此简洁的计算。可以考虑用于逼近贝叶斯积分的各种技术。

当样本量足够大时,有时可以应用中心极限型定理,以便后验分布近似为正态分布,而积分通常可以直接估计。否则,在示例 2.7 中的低维问题中,我们通常可以应用数值积分技术,例如高斯求积。然而,在高维问题中,准确评估相关积分所需的函数评估数量迅速增加,这种方法变得不准确。因此,通常首选基于模拟的方法。鉴于它们在贝叶斯统计计算中的重要性日益增加,我们概述了这些方法。

关键思想是蒙特卡洛积分,它用一个足够大的样本均值代替积分,比如说ñ,从相关的后验分布模拟的值。如果θ1,…,θñ是一个样本F(θ∣X),然后我们有一些功能,G(θ),具有有限的后验均值和方差,则
1ñ∑一世=1ñG(θ(一世))≅和[G(θ)∣X].
这个结果遵循大数的强定律,它提供了蒙特卡洛近似到积分的几乎肯定的收敛。蒙特卡洛近似的方差为估计的精度提供了指导。

统计代写|应用随机过程代写Stochastic process代考|Computational Bayesian decision analysis

我们现在简要讨论与贝叶斯决策分析问题相关的计算问题。原则上,这涉及两个操作:(1)积分以获得备选方案的预期效用和(2)优化以确定具有最大预期效用的备选方案。为了修正想法,我们假设我们的目标是解决问题(2.4),即找到最大后验期望效用的替代方案。如果后验分布与所选择的动作无关,那么我们可以去掉分母∫F(X∣θ)F(θ)dθ,解决可能更简单的问题
最大限度一种∫在(一种,θ)F(X∣θ)F(θ)dθ.
还记得对于标准统计决策理论问题,优化问题的解决方案是众所周知的。例如,在具有绝对值损失的估计问题中,最优估计将是后验中位数。我们将在这里提到一般效用函数的问题。我们首先描述了两种基于模拟的方法,然后介绍了序列问题中的一个关键优化原则,即贝尔曼的动态规划原则,这在处理随机过程时将是相关的。

我们描述的第一种方法在模拟文献中称为样本路径优化,并在 Shao (1989) 的统计决策理论中被引入。为了最有效,它要求后验不依赖于所选择的动作。在这种情况下,我们可能会使用以下策略:

  1. 选择一个样本θ1,…,θñ∼p(θ∣X).
  2. 解决优化问题
    最大限度一种∈一种1ñ∑一世=1ñ在(一种,θ一世)
    屈服一种ñ. 如果最大期望效用替代一种是唯一的,我们可以证明一种ñ→一种,几乎可以肯定。注意用于查找的辅助问题一种ñ∗是一个标准的数学规划问题,参见 Nemhauser 等人。(1990) 以获得充足的信息。
统计代写|应用随机过程代写Stochastic process代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注