数学代写|凸优化作业代写Convex Optimization代考|MATH620

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础

数学代写|凸优化作业代写Convex Optimization代考|Experiment design

We consider the problem of estimating a vector $x \in \mathbf{R}^n$ from measurements or experiments
$$
y_i=a_i^T x+w_i, \quad i=1, \ldots, m
$$
where $w_i$ is measurement noise. We assume that $w_i$ are independent Gaussian random variables with zero mean and unit variance, and that the measurement vectors $a_1, \ldots, a_m$ span $\mathbf{R}^n$. The maximum likelihood estimate of $x$, which is the same as the minimum variance estimate, is given by the least-squares solution
$$
\hat{x}=\left(\sum_{i=1}^m a_i a_i^T\right)^{-1} \sum_{i=1}^m y_i a_i .
$$
The associated estimation error $e=\hat{x}-x$ has zero mean and covariance matrix
$$
E=\mathbf{E} e e^T=\left(\sum_{i=1}^m a_i a_i^T\right)^{-1}
$$
The matrix $E$ characterizes the accuracy of the estimation, or the informativeness of the experiments. For example the $\alpha$-confidence level ellipsoid for $x$ is given by
$$
\mathcal{E}=\left{z \mid(z-\hat{x})^T E^{-1}(z-\hat{x}) \leq \beta\right}
$$
where $\beta$ is a constant that depends on $n$ and $\alpha$.
We suppose that the vectors $a_1, \ldots, a_m$, which characterize the measurements, can be chosen among $p$ possible test vectors $v_1, \ldots, v_p \in \mathbf{R}^n$, i.e., each $a_i$ is one of the $v_j$. The goal of experiment design is to choose the vectors $a_i$, from among the possible choices, so that the error covariance $E$ is small (in some sense). In other words, each of $m$ experiments or measurements can be chosen from a fixed menu of $p$ possible experiments; our job is to find a set of measurements that (together) are maximally informative.

数学代写|凸优化作业代写Convex Optimization代考|The relaxed experiment design problem

The basic experiment design problem (7.23) can be a hard combinatorial problem when $m$, the total number of experiments, is comparable to $n$, since in this case the $m_i$ are all small integers. In the case when $m$ is large compared to $n$, however, a good approximate solution of (7.23) can be found by ignoring, or relaxing, the constraint that the $m_i$ are integers. Let $\lambda_i=m_i / m$, which is the fraction of the total number of experiments for which $a_j=v_i$, or the relative frequency of experiment $i$. We can express the error covariance in terms of $\lambda_i$ as
$$
E=\frac{1}{m}\left(\sum_{i=1}^p \lambda_i v_i v_i^T\right)^{-1}
$$
The vector $\lambda \in \mathbf{R}^p$ satisfies $\lambda \succeq 0, \mathbf{1}^T \lambda=1$, and also, each $\lambda_i$ is an integer multiple of $1 / \mathrm{m}$. By ignoring this last constraint, we arrive at the problem
$$
\begin{array}{ll}
\text { minimize (w.r.t. } \left.\mathbf{S}{+}^n\right) & E=(1 / m)\left(\sum{i=1}^p \lambda_i v_i v_i^T\right)^{-1} \
\text { subject to } & \lambda \succeq 0, \quad \mathbf{1}^T \lambda=1,
\end{array}
$$
with variable $\lambda \in \mathbf{R}^p$. To distinguish this from the original combinatorial experiment design problem (7.23), we refer to it as the relaxed experiment design problem. The relaxed experiment design problem (7.25) is a convex optimization problem, since the objective $E$ is an $\mathbf{S}_{+}^n$-convex function of $\lambda$.

Several statements can be made about the relation between the (combinatorial) experiment design problem (7.23) and the relaxed problem (7.25). Clearly the optimal value of the relaxed problem provides a lower bound on the optimal value of the combinatorial one, since the combinatorial problem has anditional constraint. From a solution of the relaxed problem (7.25) we can construct a suboptimal solution of the combinatorial problem (7.23) as follows. First, we apply simple rounding to get
$$
m_i=\operatorname{round}\left(m \lambda_i\right), \quad i=1, \ldots, p
$$
Corresponding to this choice of $m_1, \ldots, m_p$ is the vector $\tilde{\lambda}$,
$$
\tilde{\lambda}_i=(1 / m) \operatorname{round}\left(m \lambda_i\right), \quad i=1, \ldots, p .
$$
The vector $\tilde{\lambda}$ satisfies the constraint that each entry is an integer multiple of $1 / \mathrm{m}$. Clearly we have $\left|\lambda_i-\tilde{\lambda}_i\right| \leq 1 /(2 m)$, so for $m$ large, we have $\lambda \approx \tilde{\lambda}$. This implies that the constraint $1^T \tilde{\lambda}=1$ is nearly satisfied, for large $m$, and also that the error covariance matrices associated with $\tilde{\lambda}$ and $\lambda$ are close.

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Experiment design

我们考虑估计向量的问题 $x \in \mathbf{R}^n$ 从测量或实验
$$
y_i=a_i^T x+w_i, \quad i=1, \ldots, m
$$
在哪里 $w_i$ 是测量噪声。我们假设 $w_i$ 是具有零均值和单位方差的独立高斯随机变量,并且测量向量 $a_1, \ldots, a_m$ 跨度 $\mathbf{R}^n$. 的最大似然估计 $x$ ,与最小方差估计相同,由最小二乘解给出
$$
\hat{x}=\left(\sum_{i=1}^m a_i a_i^T\right)^{-1} \sum_{i=1}^m y_i a_i .
$$
相关的估计误差 $e=\hat{x}-x$ 具有零均值和协方差矩阵
$$
E=\mathbf{E} e e^T=\left(\sum_{i=1}^m a_i a_i^T\right)^{-1}
$$
矩阵 $E$ 表征估计的准确性或实验的信息量。例如 $\alpha$ – 置信水平椭圆体 $x$ 是(谁)给的
在哪里 $\beta$ 是一个常数,取决于 $n$ 和 $\alpha$.
我们假设向量 $a_1, \ldots, a_m$ ,表征测量,可以选择 $p$ 可能的测试向量 $v_1, \ldots, v_p \in \mathbf{R}^n$ ,即每个 $a_i$ 其中一 个 $v_j$. 实验设计的目标是选择载体 $a_i$ ,从可能的选择中,使得误差协方差 $E$ 很小 (在某种意义上)。换句 话说,每个 $m$ 可以从固定菜单中选择实验或测量 $p$ 可能的实验;我们的工作是找到一组 (一起) 提供最多 信息的测量值。

数学代写|凸优化作业代写Convex Optimization代考|The relaxed experiment design problem

基本实验设计问题 (7.23) 可能是一个困难的组合问题,当 $m$, 实验总数,与 $n$, 因为在这种情况下 $m_i$ 都是小 整数。在这种情况下 $m$ 比较大 $n$ ,但是,可以通过忽略或放松约束来找到 (7.23) 的一个很好的近似解 $m_i$ 是整数。让 $\lambda_i=m_i / m$, 这是实验总数的分数 $a_j=v_i$, 或实验的相对频率 $i$. 我们可以将误差协方差表示 为 $\lambda_i$ 作为
$$
E=\frac{1}{m}\left(\sum_{i=1}^p \lambda_i v_i v_i^T\right)^{-1}
$$
载体 $\lambda \in \mathbf{R}^p$ 满足 $\lambda \succeq 0, \mathbf{1}^T \lambda=1$ ,还有,每个 $\lambda_i$ 是的整数倍 $1 / \mathrm{m}$. 通过忽略最后一个约束,我们得到 了问题
$$
\operatorname{minimize}\left(\text { w.r.t. } \mathbf{S}+{ }^n\right) \quad E=(1 / m)\left(\sum i=1^p \lambda_i v_i v_i^T\right)^{-1} \quad \text { subject to } \quad \lambda \succeq 0, \quad \mathbf{1}^T \lambda=1
$$
有变量 $\lambda \in \mathbf{R}^p$. 为了将其与原始组合实验设计问题 (7.23) 区分开来,我们将其称为松她实验设计问题。 松驰实验设计问题 (7.25) 是一个凸优化问题,因为目标 $E$ 是一个 $\mathbf{S}_{+}^n$ – 的凸函数 $\lambda$.
关于 (组合) 实验设计问题 (7.23) 和松他问题 (7.25) 之间的关系,可以做出几个陈述。显然,松弛问 题的最优值提供了组合问题最优值的下界,因为组合问题具有条件约束。根据松弛问题 (7.25) 的解,我们 可以构造组合问题 (7.23) 的次优解,如下所示。首先,我们应用简单舍入得到
$$
m_i=\operatorname{round}\left(m \lambda_i\right), \quad i=1, \ldots, p
$$
对应于这个选择 $m_1, \ldots, m_p$ 是向量 $\tilde{\lambda}$
$$
\tilde{\lambda}_i=(1 / m) \text { round }\left(m \lambda_i\right), \quad i=1, \ldots, p
$$
载体 $\tilde{\lambda}$ 满足每个条目都是以下整数倍的约束 $1 / \mathrm{m}$. 显然我们有 $\left|\lambda_i-\tilde{\lambda}_i\right| \leq 1 /(2 m)$ ,因此对于 $m$ 大,我 们有 $\lambda \approx \tilde{\lambda}$. 这意味着约束 $1^T \tilde{\lambda}=1$ 几乎是满意的,对于大 $m$ ,以及与相关联的误差协方差矩阵 $\tilde{\lambda}$ 和 $\lambda$ 很 近。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注