分类: 凸优化作业代写

数学代写|凸优化作业代写Convex Optimization代考|Computing subgradients

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

数学代写|凸优化作业代写Convex Optimization代考|Computing subgradients

数学代写|凸优化作业代写Convex Optimization代考|Computing subgradients

In the previous section we introduced the subgradients, objects which we are going to use in minimization schemes. However, in order to apply such schemes in practice, we need to be sure that these objects are computable. In this section we present some rules for computing the things.

LemmA 3.1.7 Let $f$ be closed and convex. Assume that it is differentiable on its domain. Then $\partial f(x)=\left{f^{\prime}(x)\right}$ for any $x \in \operatorname{int}(\operatorname{dom} f)$.
Proof: Let us fix some $x \in \operatorname{int}(\operatorname{dom} f)$. Then, in view of Theorem 3.1 .14 , for any direction $p \in R^n$ and any $g \in \partial f(x)$ we have
$$
\left\langle f^{\prime}(x), p\right\rangle=f^{\prime}(x ; p) \geq\langle g, p\rangle .
$$
Changing the sign of $p$, we conclude that $\left\langle f^{\prime}(x), p\right\rangle=\langle g, p\rangle$ for all $g$ from $\partial f(x)$. Finally, considering $p=e_k, k=1 \ldots n$, we get $g=f^{\prime}(x)$.

Let us provide all operations with convex functions, described in Section 3.1.2, with corresponding rules for updating subgradients.

LEMMA 3.1.8 Let function $f(y)$ be closed and convex with $\operatorname{dom} f \subseteq R^m$. Consider a linear operator
$$
\mathcal{A}(x)=A x+b: \quad R^n \rightarrow R^m .
$$
Then $\phi(x)=f(\mathcal{A}(x))$ is a closed convex function with domain $\operatorname{dom} \phi=$ ${x \mid \mathcal{A}(x) \in \operatorname{dom} f}$. For any $x \in \operatorname{int}(\operatorname{dom} \phi)$ we have
$$
\partial \phi(x)=A^T \partial f(\mathcal{A}(x))
$$

数学代写|凸优化作业代写Convex Optimization代考|General lower complexity bounds

In the previous section we have introduced a class of general convex functions. These functions can be nonsmooth and therefore the corresponding minimization problem can be quite difficult. As for smooth problems, let us try to derive a lower complexity bounds, which will help us to evaluate the performance of numerical methods.

In this section we derive such bounds for the following unconstrained minimization problem
$$
\min _{x \in R^n} f(x)
$$
where $f$ is a convex function. Thus, our problem class is as follows:

Let us fix some constants $\mu>0$ and $\gamma>0$. Consider the family of functions
$$
f_k(x)=\gamma \max {1 \leq i \leq k} x^{(i)}+\frac{\mu}{2}|x|^2, \quad k=1 \ldots n . $$ Using the rules of subdifferential calculus, described in Section 3.1.6, we can write down an expression for the subdifferential of $f_k$ at $x$. That is $$ \begin{aligned} \partial f_k(x) & =\mu x+\gamma \operatorname{Conv}\left{e_i \mid i \in I(x)\right}, \ I(x) & =\left{j \mid 1 \leq j \leq k, x^{(j)}=\max {1 \leq i \leq k} x^{(i)}\right} .
\end{aligned}
$$

数学代写|凸优化作业代写Convex Optimization代考|Computing subgradients

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Computing subgradients

在上一节中,我们介绍了亚梯度,我们将在最小化方案中使用的对象。然而,为了在实践中应用这些方案,我们需要确保这些对象是可计算的。在本节中,我们将介绍计算事物的一些规则。

引理3.1.7设$f$为闭凸。假设它在定义域上是可微的。然后$\partial f(x)=\left{f^{\prime}(x)\right}$对于任何$x \in \operatorname{int}(\operatorname{dom} f)$。
证明:让我们修复一些$x \in \operatorname{int}(\operatorname{dom} f)$。然后,根据定理3.1。14,对于任意方向$p \in R^n$和任意$g \in \partial f(x)$
$$
\left\langle f^{\prime}(x), p\right\rangle=f^{\prime}(x ; p) \geq\langle g, p\rangle .
$$
改变$p$的符号,我们得出$\left\langle f^{\prime}(x), p\right\rangle=\langle g, p\rangle$对于所有的$g$从$\partial f(x)$。最后,考虑$p=e_k, k=1 \ldots n$,我们得到$g=f^{\prime}(x)$。

让我们提供3.1.2节中描述的凸函数的所有操作,以及相应的更新子梯度的规则。

引理3.1.8设函数$f(y)$为闭凸函数$\operatorname{dom} f \subseteq R^m$。考虑一个线性算子
$$
\mathcal{A}(x)=A x+b: \quad R^n \rightarrow R^m .
$$
那么$\phi(x)=f(\mathcal{A}(x))$是一个域为$\operatorname{dom} \phi=$${x \mid \mathcal{A}(x) \in \operatorname{dom} f}$的闭凸函数。对于我们有的$x \in \operatorname{int}(\operatorname{dom} \phi)$
$$
\partial \phi(x)=A^T \partial f(\mathcal{A}(x))
$$

数学代写|凸优化作业代写Convex Optimization代考|General lower complexity bounds

在前一节中,我们介绍了一类一般凸函数。这些函数可能是非光滑的,因此相应的最小化问题可能相当困难。对于光滑问题,让我们尝试推导一个较低的复杂度界限,这将有助于我们评估数值方法的性能。

在本节中,我们为下面的无约束最小化问题导出这样的边界
$$
\min _{x \in R^n} f(x)
$$
其中$f$是一个凸函数。因此,我们的问题类如下:

让我们修正一些常数$\mu>0$和$\gamma>0$。考虑一下函数族
$$
f_k(x)=\gamma \max {1 \leq i \leq k} x^{(i)}+\frac{\mu}{2}|x|^2, \quad k=1 \ldots n . $$使用第3.1.6节中描述的次微分学规则,我们可以写出$f_k$ at $x$的次微分表达式。那就是 $$ \begin{aligned} \partial f_k(x) & =\mu x+\gamma \operatorname{Conv}\left{e_i \mid i \in I(x)\right}, \ I(x) & =\left{j \mid 1 \leq j \leq k, x^{(j)}=\max {1 \leq i \leq k} x^{(i)}\right} .
\end{aligned}
$$

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|Minimization methods for simple sets

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

数学代写|凸优化作业代写Convex Optimization代考|Minimization methods for simple sets

数学代写|凸优化作业代写Convex Optimization代考|Minimization methods for simple sets

Let us show how we can use the gradient mapping for solving the following problem:
$$
\min _{x \in Q} f(x),
$$

where $f \in \mathcal{S}_{\mu, L}^{1,1}\left(R^n\right)$ and $Q$ is a closed convex set. We assume that the set $Q$ is simple enough, so the gradient mapping can be computed explicitly. This assumption is valid for positive orthant, $n$ dimensional box, simplex, Euclidean ball and some other sets.
Let us start from the gradient method:
Gradient method for simple sets

  1. Choose $x_0 \in Q$.
    $(2.2 .18)$
  2. $k$ th iteration $(k \geq 0)$.
    $$
    x_{k+1}=x_k-h g_Q\left(x_k ; L\right) .
    $$

数学代写|凸优化作业代写Convex Optimization代考|Minimax problem

Very often the objective function of an optimization problem is composed by several components. For example, the reliability of a complex system usually is defined as a minimal reliability of its parts. A constrained minimization problem with functional constraints provides us with an example of interaction of several nonlinear functions, etc.
The simplest problem of that type is called the minimax problem. In this section we deal with the smooth minimax problem:
$$
\min {x \in Q}\left[f(x)=\max {1 \leq i \leq m} f_i(x)\right]
$$
where $f_i \in \mathcal{S}{\mu, L}^{1,1}\left(R^n\right), i=1 \ldots m$ and $Q$ is a closed convex set. We call the function $f(x)$ max-type function composed by the components $f_i(x)$. We write $f \in \mathcal{S}{\mu, L}^{1,1}\left(R^n\right)$ if all components of function $f$ belong to that class.

Note that, in general, $f(x)$ is not differentiable. However, provided that all $f_i$ are differentiable functions, we can introduce an object, which behaves exactly as a linear approximation of a smooth function.
Definition 2.3.1 Let $f$ be a max-type function:
$$
f(x)=\max {1 \leq i \leq m} f_i(x) $$ Function $$ f(\bar{x} ; x)=\max {1 \leq i \leq m}\left[f_i(\bar{x})+\left\langle f_i^{\prime}(\bar{x}), x-\bar{x}\right\rangle\right],
$$
is called the linearization of $f(x)$ at $\bar{x}$.

数学代写|凸优化作业代写Convex Optimization代考|Minimization methods for simple sets

凸优化代写

学代写|凸优化作业代写Convex Optimization代考|Minimization methods for simple sets

让我们展示如何使用梯度映射来解决以下问题:
$$
\min _{x \in Q} f(x),
$$

其中$f \in \mathcal{S}_{\mu, L}^{1,1}\left(R^n\right)$和$Q$为闭凸集。我们假设集合$Q$足够简单,因此可以显式地计算梯度映射。这个假设对正正交、$n$维盒、单纯形、欧氏球和其他一些集合是有效的。
让我们从梯度法开始:
简单集的梯度法

选择$x_0 \in Q$。
$(2.2 .18)$

$k$ 迭代$(k \geq 0)$。
$$
x_{k+1}=x_k-h g_Q\left(x_k ; L\right) .
$$

数学代写|凸优化作业代写Convex Optimization代考|Minimax problem

优化问题的目标函数通常由几个部分组成。例如,一个复杂系统的可靠性通常被定义为其部件的最小可靠性。具有函数约束的约束最小化问题为我们提供了若干非线性函数等相互作用的例子。
这类问题中最简单的叫做极大极小问题。在本节中,我们处理平滑极大极小问题:
$$
\min {x \in Q}\left[f(x)=\max {1 \leq i \leq m} f_i(x)\right]
$$
其中$f_i \in \mathcal{S}{\mu, L}^{1,1}\left(R^n\right), i=1 \ldots m$和$Q$为闭凸集。我们调用由组件$f_i(x)$组成的函数$f(x)$ max-type函数。如果函数$f$的所有组件都属于该类,则写成$f \in \mathcal{S}{\mu, L}^{1,1}\left(R^n\right)$。

注意,一般来说,$f(x)$是不可导的。然而,假设所有$f_i$都是可微函数,我们可以引入一个对象,它的行为完全像光滑函数的线性近似。
2.3.1设$f$为max-type函数:
$$
f(x)=\max {1 \leq i \leq m} f_i(x) $$功能说明$$ f(\bar{x} ; x)=\max {1 \leq i \leq m}\left[f_i(\bar{x})+\left\langle f_i^{\prime}(\bar{x}), x-\bar{x}\right\rangle\right],
$$
叫做$f(x)$在$\bar{x}$的线性化。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|Constrained minimization

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

数学代写|凸优化作业代写Convex Optimization代考|Constrained minimization

数学代写|凸优化作业代写Convex Optimization代考|Constrained minimization

Let us discuss briefly the main ideas underlying the methods of general constrained minimization. The problem we deal with is as follows:
$$
\begin{aligned}
& f_0(x) \rightarrow \min , \
& f_i(x) \leq 0, i=1 \ldots m .
\end{aligned}
$$
where $f_i(x)$ are smooth functions. For example, we can consider $f_i(x)$ from $C_L^{1,1}\left(R^n\right)$.

Since the components of the problem (1.3.5) are general nonlinear functions, we cannot expect that this problem is easier than an unconstrained minimization problem. Indeed, even the standard difficulties with stationary points, which we have in unconstrained minimization, appear in (1.3.5) in a much stronger form. Note that a stationary point of this problem (whatever it is) can be infeasible for the system of functional constraints. Hence, any minimization scheme attracted by such a point should accept that it fails even to find a feasible solution to (1.3.5). Therefore, the following reasoning looks quite convincing.

  1. We have efficient methods for unconstrained minimization. (?) ${ }^2$
  2. Unconstrained minimization is simpler than the constrained one. (?) ${ }^3$
  3. Therefore, let us try to approximate a solution to the problem (1.3.5) by a sequence of solutions to some auxiliary unconstrained minimization problems.

数学代写|凸优化作业代写Convex Optimization代考|Smooth convex functions

In this section we deal with unconstrained minimization problem
$$
\min _{x \in R^n} f(x)
$$
where the function $f(x)$ is smooth enough. Recall that in the previous chapter we were trying to solve this problem under very weak assumptions on function $f$. And we have seen that in this general situation we cannot do too much: It is impossible to guarantee convergence even to a local minimum, impossible to get acceptable bounds on the global performance of minimization schemes, etc. Let us try to introduce some reasonable assumptions on function $f$ to make our problem more tractable. For that, let us try to determine the desired properties of a class of differentiable functions $\mathcal{F}$ we want to work with.

From the results of the previous chapter we can get an impression that the main reasons of our troubles is the weakness of the first-order optimality condition (Theorem 1.2.1). Indeed, we have seen that, in general, the gradient method converges only to a stationary point of function $f$ (see inequality (1.2.15) and Example 1.2.2). Therefore the first additional property we definitely need is as follows.

数学代写|凸优化作业代写Convex Optimization代考|Relaxation and approximation

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Constrained minimization

让我们简要讨论一般约束最小化方法的主要思想。我们处理的问题如下:
$$
\begin{aligned}
& f_0(x) \rightarrow \min , \
& f_i(x) \leq 0, i=1 \ldots m .
\end{aligned}
$$
其中$f_i(x)$是光滑函数。例如,我们可以考虑$C_L^{1,1}\left(R^n\right)$中的$f_i(x)$。

由于问题(1.3.5)的组成部分是一般的非线性函数,我们不能期望这个问题比无约束最小化问题更容易。事实上,即使是我们在无约束极小化中遇到的关于不动点的标准困难,在(1.3.5)中也以更强烈的形式出现。请注意,这个问题的静止点(无论它是什么)对于功能约束系统可能是不可行的。因此,任何被这个点所吸引的最小化方案都应该承认,它甚至找不到(1.3.5)的可行解。因此,下面的推理看起来很有说服力。

我们有求解无约束最小化的有效方法。(?) ${ }^2$

无约束最小化比约束最小化更简单。(?) ${ }^3$

因此,让我们尝试通过一些辅助的无约束最小化问题的一系列解来近似求解问题(1.3.5)。

数学代写|凸优化作业代写Convex Optimization代考|Smooth convex functions

在本节中,我们处理无约束最小化问题
$$
\min _{x \in R^n} f(x)
$$
其中$f(x)$函数足够平滑。回想一下,在前一章中,我们试图在函数$f$的非常弱的假设下解决这个问题。我们已经看到,在这种一般情况下,我们不能做太多:不可能保证即使收敛到局部最小值,不可能得到最小方案的全局性能的可接受界,等等。让我们尝试对$f$函数引入一些合理的假设,以使我们的问题更容易处理。为此,让我们试着确定我们想要处理的一类可微函数$\mathcal{F}$的期望性质。

从前一章的结果我们可以得到一个印象,我们的麻烦的主要原因是一阶最优性条件的弱点(定理1.2.1)。实际上,我们已经看到,一般来说,梯度法只收敛于函数$f$的一个平稳点(见不等式(1.2.15)和例1.2.2)。因此,我们需要的第一个附加属性如下。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|Relaxation and approximation

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

数学代写|凸优化作业代写Convex Optimization代考|Relaxation and approximation

数学代写|凸优化作业代写Convex Optimization代考|Relaxation and approximation

The simplest goal of general nonlinear optimization is to find a local minimum of a differentiable function. In general, the global structure of such a function is not simpler than that one of a Lipschitz continuous function. Therefore, even for reaching such a restricted goal, it is necessary to follow some special principles, which guarantee the convergence of a minimization process.

The majority of general nonlinear optimization methods are based on the idea of relaxation:
We call the sequence $\left{a_k\right}_{k=0}^{\infty}$ a relaxation sequence if
$$
a_{k+1} \leq a_k \quad \forall k \geq 0
$$
In this section we consider several methods for solving the following unconstrained minimization problem
$$
\min _{x \in R^n} f(x),
$$
where $f(x)$ is a smooth function. In order to do so, we generate a relaxation sequence $\left{f\left(x_k\right)\right}_{k=0}^{\infty}$ :
$$
f\left(x_{k+1}\right) \leq f\left(x_k\right), \quad k=0,1, \ldots \quad .
$$

数学代写|凸优化作业代写Convex Optimization代考|Classes of differentiable functions

It is well known that any continuous function can be approximated by a smooth function with arbitrarily small accuracy. Therefore, assuming only differentiability of the objective function we cannot get any reasonable properties of minimization processes. Hence, we have to impose some additional assumptions on the magnitude of the derivatives. Traditionally, in optimization such assumptions are presented in the form of a Lipschitz condition for a derivative of certain order.

Let $Q$ be a subset of $R^n$. We denote by $C_L^{k, p}(Q)$ the class of functions with the following properties:

any $f \in C_L^{k, p}(Q)$ is $k$ times continuously differentiable on $Q$.

Its $p$ th derivative is Lipschitz continuous on $Q$ with the constant $L$ :
$$
\left|f^{(p)}(x)-f^{(p)}(y)\right| \leq L|x-y|
$$

for all $x, y \in Q$.
Clearly, we always have $p \leq k$. If $q \geq k$, then $C_L^{q, p}(Q) \subseteq C_L^{k, p}(Q)$. For example, $C_L^{2,1}(Q) \subseteq C_L^{1,1}(Q)$. Note also that these classes possess the following property: if $f_1 \in C_{L_1}^{k, p}(Q), f_2 \in C_{L_2}^{k, p}(Q)$ and $\alpha, \beta \in R^1$, then for
$$
L_3=|\alpha| L_1+|\beta| L_2
$$
we have $\alpha f_1+\beta f_2 \in C_{L_3}^{k, p}(Q)$.

数学代写|凸优化作业代写Convex Optimization代考|Relaxation and approximation

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Relaxation and approximation

一般非线性优化最简单的目标是求可微函数的局部极小值。一般来说,这种函数的整体结构并不比一个Lipschitz连续函数的整体结构简单。因此,即使达到这样一个有限的目标,也需要遵循一些特殊的原则,以保证最小化过程的收敛性。

一般的非线性优化方法大多是基于松弛的思想:
我们称这个序列$\left{a_k\right}{k=0}^{\infty}$为松弛序列 $$ a{k+1} \leq a_k \quad \forall k \geq 0
$$
在本节中,我们将考虑解决以下无约束最小化问题的几种方法
$$
\min {x \in R^n} f(x), $$ 其中$f(x)$是平滑函数。为了做到这一点,我们生成一个松弛序列$\left{f\left(x_k\right)\right}{k=0}^{\infty}$:
$$
f\left(x_{k+1}\right) \leq f\left(x_k\right), \quad k=0,1, \ldots \quad .
$$

数学代写|凸优化作业代写Convex Optimization代考|Classes of differentiable functions

众所周知,任何连续函数都可以用精度任意小的光滑函数来逼近。因此,仅假设目标函数的可微性,我们无法得到最小化过程的任何合理性质。因此,我们必须对导数的大小施加一些额外的假设。传统上,在优化中,这些假设以一定阶导数的Lipschitz条件的形式提出。

设$Q$是$R^n$的子集。我们用$C_L^{k, p}(Q)$表示具有以下性质的函数类:

任何$f \in C_L^{k, p}(Q)$在$Q$上都是$k$乘以连续可微的。

它的$p$导数在$Q$上为Lipschitz连续,常数为$L$
$$
\left|f^{(p)}(x)-f^{(p)}(y)\right| \leq L|x-y|
$$

对于所有$x, y \in Q$。
显然,我们总是有$p \leq k$。如果是$q \geq k$,那么就是$C_L^{q, p}(Q) \subseteq C_L^{k, p}(Q)$。例如:$C_L^{2,1}(Q) \subseteq C_L^{1,1}(Q)$。还要注意,这些类拥有以下属性:如果$f_1 \in C_{L_1}^{k, p}(Q), f_2 \in C_{L_2}^{k, p}(Q)$和$\alpha, \beta \in R^1$,则for
$$
L_3=|\alpha| L_1+|\beta| L_2
$$
我们有$\alpha f_1+\beta f_2 \in C_{L_3}^{k, p}(Q)$。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|Linear facility location problems

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础

数学代写|凸优化作业代写Convex Optimization代考|Linear facility location problems

In the simplest version of the problem the cost associated with arc $(i, j)$ is the distance between nodes $i$ and $j: f_{i j}\left(x_i, x_j\right)=\left|x_i-x_j\right|$, i.e., we minimize
$$
\sum_{(i, j) \in \mathcal{A}}\left|x_i-x_j\right| .
$$
We can use any norm, but the most common applications involve the Euclidean norm or the $\ell_1$-norm. For example, in circuit design it is common to route the wires between cells along piecewise-linear paths, with each segment either horizontal or vertical. (This is called Manhattan routing, since paths along the streets in a city with a rectangular grid are also piecewise-linear, with each street aligned with one of two orthogonal axes.) In this case, the length of wire required to connect cell $i$ and cell $j$ is given by $\left|x_i-x_j\right|_1$.

We can include nonnegative weights that reflect differences in the cost per unit distance along different arcs:
$$
\sum_{(i, j) \in \mathcal{A}} w_{i j}\left|x_i-x_j\right| .
$$
By assigning a weight $w_{i j}=0$ to pairs of nodes that are not connected, we can express this problem more simply using the objective
$$
\sum_{i<j} w_{i j}\left|x_i-x_j\right|
$$
This placement problem is convex.

数学代写|凸优化作业代写Convex Optimization代考|Nonlinear facility location problems

More generally, we can associate a cost with each arc that is a nonlinear increasing function of the length, i.e.,
$$
\operatorname{minimize} \sum_{i<j} w_{i j} h\left(\left|x_i-x_j\right|\right)
$$
where $h$ is an increasing (on $\mathbf{R}{+}$) and convex function, and $w{i j} \geq 0$. We call this a nonlinear placement or nonlinear facility location problem.

One common example uses the Euclidean norm, and the function $h(z)=z^2$, i.e., we minimize
$$
\sum_{i<j} w_{i j}\left|x_i-x_j\right|_2^2
$$
This is called a quadratic placement problem. The quadratic placement problem can be solved analytically when the only constraints are linear equalities; it can be solved as a QP if the constraints are linear equalities and inequalities.

Example 8.5 One free point. Consider the case where only one point $x$ is free, and we minimize the sum of the squares of the Euclidean distances to fixed points $x_1, \ldots, x_K$,
$$
\left|x-x_1\right|_2^2+\left|x-x_2\right|_2^2+\cdots+\left|x-x_K\right|_2^2 .
$$
Taking derivatives, we see that the optimal $x$ is given by
$$
\frac{1}{K}\left(x_1+x_2+\cdots+x_K\right),
$$
i.e., the average of the fixed points.
Some other interesting possibilities are the ‘deadzone’ function $h$ with deadzone width $2 \gamma$, defined as
$$
h(z)= \begin{cases}0 & |z| \leq \gamma \ |z-\gamma| & |z| \geq \gamma\end{cases}
$$
and the ‘quadratic-linear’ function $h$, defined as
$$
h(z)= \begin{cases}z^2 & |z| \leq \gamma \ 2 \gamma|z|-\gamma^2 & |z| \geq \gamma\end{cases}
$$

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Linear facility location problems

在问题的最简单版本中,与 $\operatorname{arc}$ 相关的成本 $(i, j)$ 是节点之间的距离 $i$ 和 $j: f_{i j}\left(x_i, x_j\right)=\left|x_i-x_j\right|$ ,即 我们最小化
$$
\sum_{(i, j) \in \mathcal{A}}\left|x_i-x_j\right|
$$
我们可以使用任何范数,但最常见的应用涉及欧几里得范数或 $\ell_1$-规范。例如,在电路设计中,通常沿着 分段线性路径在单元之间布线,每段要么水平要么垂直。(这称为曼哈顿路由,因为在具有矩形网格的城 市中,沿着街道的路径也是分段线性的,每条街道与两个正交轴之一对齐。)在这种情况下,连接单元格 所需的电线长度 $i$ 和细胞 $j$ 是 (谁) 给的 $\left|x_i-x_j\right|1$. 我们可以包括非负权重,以反映沿不同弧的每单位距离成本的差异: $$ \sum{(i, j) \in \mathcal{A}} w_{i j}\left|x_i-x_j\right| .
$$
通过分配权重 $w_{i j}=0$ 对于末连接的节点对,我们可以使用目标更简单地表达这个问题
$$
\sum_{i<j} w_{i j}\left|x_i-x_j\right|
$$
这个放置问题是凸的。

数学代写|凸优化作业代写Convex Optimization代考|Nonlinear facility location problems

更一般地,我们可以将成本与每个弧相关联,它是长度的非线性递增函数,即
$$
\operatorname{minimize} \sum_{i<j} w_{i j} h\left(\left|x_i-x_j\right|\right)
$$
在哪里 $h$ 是一个增加 $($ 上 $\mathbf{R}+)$ 和凸函数,以及 $w i j \geq 0$. 我们称之为非线性布局或非线性设施选址问题。
一个常见的例子使用欧几里得范数,而函数 $h(z)=z^2$ ,即我们最小化
$$
\sum_{i<j} w_{i j}\left|x_i-x_j\right|_2^2
$$
这称为二次放置问题。当唯一的约束是线性等式时,可以解析地解决二次放置问题; 如果约束是线性等式 和不等式,则它可以作为 QP 求解。
示例 8.5 一个免费点。考虑只有一个点的情况 $x$ 是自由的,我们最小化到固定点的欧氏距离的平方和 $x_1, \ldots, x_K$,
$$
\left|x-x_1\right|_2^2+\left|x-x_2\right|_2^2+\cdots+\left|x-x_K\right|_2^2
$$
取导数,我们看到最优的 $x$ 是 (谁) 给的
$$
\frac{1}{K}\left(x_1+x_2+\cdots+x_K\right),
$$
即,固定点的平均值。
其他一些有趣的可能性是“死区”功能 $h$ 带死区宽度 $2 \gamma$ ,定义为
$$
h(z)= \begin{cases}0 & |z| \leq \gamma|z-\gamma| \quad|z| \geq \gamma\end{cases}
$$
和“二次线性”函数 $h$ ,定义为
$$
h(z)=\left{z^2 \quad|z| \leq \gamma 2 \gamma|z|-\gamma^2 \quad|z| \geq \gamma\right.
$$

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|Nonlinear discrimination

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础

数学代写|凸优化作业代写Convex Optimization代考|Nonlinear discrimination

We can just as well seek a nonlinear function $f$, from a given subspace of functions, that is positive on one set and negative on another:
$$
f\left(x_i\right)>0, \quad i=1, \ldots, N, \quad f\left(y_i\right)<0, \quad i=1, \ldots, M $$ Provided $f$ is linear (or affine) in the parameters that define it, these inequalities can be solved in exactly the same way as in linear discrimination. In this section we examine some interesting special cases. Quadratic discrimination Suppose we take $f$ to be quadratic: $f(x)=x^T P x+q^T x+r$. The parameters $P \in \mathbf{S}^n, q \in \mathbf{R}^n, r \in \mathbf{R}$ must satisfy the inequalities $$ \begin{aligned} & x_i^T P x_i+q^T x_i+r>0, \quad i=1, \ldots, N \
& y_i^T P y_i+q^T y_i+r<0, \quad i=1, \ldots, M
\end{aligned}
$$ which is a set of strict linear inequalities in the variables $P, q, r$. As in linear discrimination, we note that $f$ is homogeneous in $P, q$, and $r$, so we can find a solution to the strict inequalities by solving the nonstrict feasibility problem
$$
\begin{aligned}
& x_i^T P x_i+q^T x_i+r \geq 1, \quad i=1, \ldots, N \
& y_i^T P y_i+q^T y_i+r \leq-1, \quad i=1, \ldots, M
\end{aligned}
$$
The separating surface $\left{z \mid z^T P z+q^T z+r=0\right}$ is a quadratic surface, and the two classification regions
$$
\left{z \mid z^T P z+q^T z+r \leq 0\right}, \quad\left{z \mid z^T P z+q^T z+r \geq 0\right}
$$
are defined by quadratic inequalities. Solving the quadratic discrimination problem, then, is the same as determining whether the two sets of points can be separated by a quadratic surface.

We can impose conditions on the shape of the separating surface or classification regions by adding constraints on $P, q$, and $r$. For example, we can require that $P \prec 0$, which means the separating surface is ellipsoidal. More specifically, it means that we seek an ellipsoid that contains all the points $x_1, \ldots, x_N$, but none of the points $y_1, \ldots, y_M$. This quadratic discrimination problem can be solved as an SDP feasibility problem
$$
\begin{array}{ll}
\text { find } & P, q, r \
\text { subject to } & x_i^T P x_i+q^T x_i+r \geq 1, \quad i=1, \ldots, N \
& y_i^T P y_i+q^T y_i+r \leq-1, \quad i=1, \ldots, M \
& P \preceq-I,
\end{array}
$$
with variables $P \in \mathbf{S}^n, q \in \mathbf{R}^n$, and $r \in \mathbf{R}$. (Here we use homogeneity in $P, q, r$ to express the constraint $P \prec 0$ as $P \preceq-I$.) Figure 8.13 shows an example.

数学代写|凸优化作业代写Convex Optimization代考|Placement and location

In this section we discuss a few variations on the following problem. We have $N$ points in $\mathbf{R}^2$ or $\mathbf{R}^3$, and a list of pairs of points that must be connected by links. The positions of some of the $N$ points are fixed; our task is to determine the positions of the remaining points, i.e., to place the remaining points. The objective is to place the points so that some measure of the total interconnection length of the links is minimized, subject to some additional constraints on the positions. As an example application, we can think of the points as locations of plants or warehouses of a company, and the links as the routes over which goods must be shipped. The goal is to find locations that minimize the total transportation cost. In another application, the points represent the position of modules or cells on an integrated circuit, and the links represent wires that connect pairs of cells. Here the goal might be to place the cells in such a way that the total length of wire used to interconnect the cells is minimized.

The problem can be described in terms of an undirected graph with $N$ nodes, representing the $N$ points. With each node we associate a variable $x_i \in \mathbf{R}^k$, where $k=2$ or $k=3$, which represents its location or position. The problem is to minimize
$$
\sum_{(i, j) \in \mathcal{A}} f_{i j}\left(x_i, x_j\right)
$$
where $\mathcal{A}$ is the set of all links in the graph, and $f_{i j}: \mathbf{R}^k \times \mathbf{R}^k \rightarrow \mathbf{R}$ is a cost function associated with arc $(i, j)$. (Alternatively, we can sum over all $i$ and $j$, or over $i<j$, and simply set $f_{i j}=0$ when links $i$ and $j$ are not connected.) Some of the coordinate vectors $x_i$ are given. The optimization variables are the remaining coordinates. Provided the functions $f_{i j}$ are convex, this is a convex optimization problem.

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Nonlinear discrimination

我们也可以寻求一个非线性函数 $f$ ,从给定的函数子空间,在一组上为正,在另一组上为负:
$$
f\left(x_i\right)>0, \quad i=1, \ldots, N, \quad f\left(y_i\right)<0, \quad i=1, \ldots, M $$ 假如 $f$ 在定义它的参数中是线性的(或仿射的),这些不等式可以用与线性判别完全相同的方式来解决。 在本节中,我们将研究一些有趣的特殊情况。二次判别假设我们采取 $f$ 是二次的: $f(x)=x^T P x+q^T x+r$. 参数 $P \in \mathbf{S}^n, q \in \mathbf{R}^n, r \in \mathbf{R}$ 必须满足不等式 $$ x_i^T P x_i+q^T x_i+r>0, \quad i=1, \ldots, N \quad y_i^T P y_i+q^T y_i+r<0, \quad i=1, \ldots, M
$$
这是变量中的一组严格线性不等式 $P, q, r$. 与线性歧视一样,我们注意到 $f$ 是同质的 $P, q$ ,和 $r$ ,所以我们 可以通过解决非严格可行性问题来找到严格不等式的解决方案
$$
x_i^T P x_i+q^T x_i+r \geq 1, \quad i=1, \ldots, N \quad y_i^T P y_i+q^T y_i+r \leq-1, \quad i=1, \ldots, M
$$
分离面 $\backslash$ left $\left{\geq m i d z^{\wedge} T P z+q^{\wedge} T z+r=0 \backslash r i g h t\right}$ 是二次曲面,两个分类区域
由二次不等式定义。那么,求解二次判别问题就等同于确定两组点是否可以被二次曲面分开。
我们可以通过添加约束来对分离表面或分类区域的形状施加条件 $P, q$ ,和 $r$. 例如,我们可以要求 $P \prec 0$ ,这意味着分离表面是椭圆形的。更具体地说,这意味着我们寻求一个包含所有点的椭圆体 $x_1, \ldots, x_N$ , 但没有一点 $y_1, \ldots, y_M$. 这个二次判别问题可以作为 $\mathrm{SDP}$ 可行性问题来解决
find $P, q, r$ subject to $\quad x_i^T P x_i+q^T x_i+r \geq 1, \quad i=1, \ldots, N \quad y_i^T P y_i+q^T y_i+r \leq-1$
有变量 $P \in \mathbf{S}^n, q \in \mathbf{R}^n$ ,和 $r \in \mathbf{R}$. (这里我们使用同质性 $P, q, r$ 表达约束 $P \prec 0$ 作为 $P \preceq-I$.) 图 8.13 显示了一个例子。

数学代写|凸优化作业代写Convex Optimization代考|Placement and location

在本节中,我们将讨论以下问题的一些变体。我们有 $N$ 指向 $\mathbf{R}^2$ 或者 $\mathbf{R}^3$ ,以及必须通过链接连接的点对 列表。一些人的立场 $N$ 积分是固定的;我们的任务是确定剩余点的位置,即放置剩余点。目标是放置这些 点,使链接的总互连长度的某些度量值最小化,但要受到对位置的一些额外限制。作为示例应用程序,我 们可以将点视为公司工厂或仓库的位置,将链接视为货物必须运输的路线。目标是找到最小化总运输成本 的地点。在另一个应用中,点表示模块或单元在集成电路上的位置,连线表示车接单元对的导线。这里的 目标可能是以最小化用于互连电池的导线总长度的方式放置电池。
这个问题可以用一个无向图来描述 $N$ 节点,代表 $N$ 点。对于每个节点,我们关联一个变量 $x_i \in \mathbf{R}^k$ ,在 哪里 $k=2$ 或者 $k=3$ ,表示它的位置或位置。问题是最小化
$$
\sum_{(i, j) \in \mathcal{A}} f_{i j}\left(x_i, x_j\right)
$$
在哪里 $\mathcal{A}$ 是图中所有链接的集合,并且 $f_{i j}: \mathbf{R}^k \times \mathbf{R}^k \rightarrow \mathbf{R}$ 是与 $\operatorname{arc}$ 关联的成本函数 $(i, j)$. (或者, 我们可以总结所有 $i$ 和 $j$, 或超过 $i<j$, 并简单地设置 $f_{i j}=0$ 当链接 $i$ 和 $j$ 没有连接。) 一些坐标向量 $x_i$ 给 出。优化变量是剩余的坐标。提供的功能 $f_{i j}$ 是凸的,这是一个凸优化问题。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|ECE6270 Convex optimization

Statistics-lab™可以为您提供gatech.edu ECE6270 Convex optimization凸优化课程的代写代考辅导服务!

ECE6270 Convex optimization课程简介

This is a graduate-level course on optimization. The course covers mathematical programming and combinatorial optimization from the perspective of convex optimization, which is a central tool for solving large-scale problems. In recent years convex optimization has had a profound impact on statistical machine learning, data analysis, mathematical finance, signal processing, control, theoretical computer science, and many other areas. The first part will be dedicated to the theory of convex optimization and its direct applications. The second part will focus on advanced techniques in combinatorial optimization using machinery developed in the first part.

PREREQUISITES 

Instructor: Yaron Singer (OH: Wednesdays 4-5pm, MD239)
Teaching fellows:

  • Thibaut Horel (OH: Tuesdays 4:30-5:30pm, MD’s 2nd floor lounge)
  • Rajko Radovanovic (OH: Mondays 5:30-6:30pm, MD’s 2nd floor lounge)
    Time: Monday \& Wednesday, 2:30pm-4:00pm
    Room: MD119
    Sections: Wednesdays 5:30-7:00pm in MD221

ECE6270 Convex optimization HELP(EXAM HELP, ONLINE TUTOR)

问题 1.

4.51 Monotone transformation of objective in vector optimization. Consider the vector optimization problem (4.56). Suppose we form a new vector optimization problem by replacing the objective $f_0$ with $\phi \circ f_0$, where $\phi: \mathbf{R}^q \rightarrow \mathbf{R}^q$ satisfies
$$
u \preceq K v, u \neq v \Longrightarrow \phi(u) \preceq_K \phi(v), \phi(u) \neq \phi(v) \text {. }
$$
Show that a point $x$ is Pareto optimal (or optimal) for one problem if and only if it is Pareto optimal (optimal) for the other, so the two problems are equivalent. In particular, composing each objective in a multicriterion problem with an increasing function does not affect the Pareto optimal points.

问题 2.

4.52 Pareto optimal points and the boundary of the set of achievable values. Consider a vector optimization problem with cone $K$. Let $\mathcal{P}$ denote the set of Pareto optimal values, and let $\mathcal{O}$ denote the set of achievable objective values. Show that $\mathcal{P} \subseteq \mathcal{O} \cap \mathbf{b d} \mathcal{O}$, i.e., every Pareto optimal value is an achievable objective value that lies in the boundary of the set of achievable objective values.

问题 3.

4.53 Suppose the vector optimization problem (4.56) is convex. Show that the set
$$
\mathcal{A}=\mathcal{O}+K=\left{t \in \mathbf{R}^q \mid f_0(x) \preceq_K t \text { for some feasible } x\right},
$$
is convex. Also show that the minimal elements of $\mathcal{A}$ are the same as the minimal points of $\mathcal{O}$.

问题 4.

4.54 Scalarization and optimal points. Suppose a (not necessarily convex) vector optimization problem has an optimal point $x^$. Show that $x^$ is a solution of the associated scalarized problem for any choice of $\lambda \succ K * 0$. Also show the converse: If a point $x$ is a solution of the scalarized problem for any choice of $\lambda \succ \kappa * 0$, then it is an optimal point for the (not necessarily convex) vector optimization problem.

Textbooks


• An Introduction to Stochastic Modeling, Fourth Edition by Pinsky and Karlin (freely
available through the university library here)
• Essentials of Stochastic Processes, Third Edition by Durrett (freely available through
the university library here)
To reiterate, the textbooks are freely available through the university library. Note that
you must be connected to the university Wi-Fi or VPN to access the ebooks from the library
links. Furthermore, the library links take some time to populate, so do not be alarmed if
the webpage looks bare for a few seconds.

此图像的alt属性为空;文件名为%E7%B2%89%E7%AC%94%E5%AD%97%E6%B5%B7%E6%8A%A5-1024x575-10.png
数学代写|ECE6270 Convex optimization

Statistics-lab™可以为您提供gatech.edu ECE6270 Convex optimization凸优化课程的代写代考辅导服务! 请认准Statistics-lab™. Statistics-lab™为您的留学生涯保驾护航。

数学代写|凸优化作业代写Convex Optimization代考|MATH620

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础

数学代写|凸优化作业代写Convex Optimization代考|Experiment design

We consider the problem of estimating a vector $x \in \mathbf{R}^n$ from measurements or experiments
$$
y_i=a_i^T x+w_i, \quad i=1, \ldots, m
$$
where $w_i$ is measurement noise. We assume that $w_i$ are independent Gaussian random variables with zero mean and unit variance, and that the measurement vectors $a_1, \ldots, a_m$ span $\mathbf{R}^n$. The maximum likelihood estimate of $x$, which is the same as the minimum variance estimate, is given by the least-squares solution
$$
\hat{x}=\left(\sum_{i=1}^m a_i a_i^T\right)^{-1} \sum_{i=1}^m y_i a_i .
$$
The associated estimation error $e=\hat{x}-x$ has zero mean and covariance matrix
$$
E=\mathbf{E} e e^T=\left(\sum_{i=1}^m a_i a_i^T\right)^{-1}
$$
The matrix $E$ characterizes the accuracy of the estimation, or the informativeness of the experiments. For example the $\alpha$-confidence level ellipsoid for $x$ is given by
$$
\mathcal{E}=\left{z \mid(z-\hat{x})^T E^{-1}(z-\hat{x}) \leq \beta\right}
$$
where $\beta$ is a constant that depends on $n$ and $\alpha$.
We suppose that the vectors $a_1, \ldots, a_m$, which characterize the measurements, can be chosen among $p$ possible test vectors $v_1, \ldots, v_p \in \mathbf{R}^n$, i.e., each $a_i$ is one of the $v_j$. The goal of experiment design is to choose the vectors $a_i$, from among the possible choices, so that the error covariance $E$ is small (in some sense). In other words, each of $m$ experiments or measurements can be chosen from a fixed menu of $p$ possible experiments; our job is to find a set of measurements that (together) are maximally informative.

数学代写|凸优化作业代写Convex Optimization代考|The relaxed experiment design problem

The basic experiment design problem (7.23) can be a hard combinatorial problem when $m$, the total number of experiments, is comparable to $n$, since in this case the $m_i$ are all small integers. In the case when $m$ is large compared to $n$, however, a good approximate solution of (7.23) can be found by ignoring, or relaxing, the constraint that the $m_i$ are integers. Let $\lambda_i=m_i / m$, which is the fraction of the total number of experiments for which $a_j=v_i$, or the relative frequency of experiment $i$. We can express the error covariance in terms of $\lambda_i$ as
$$
E=\frac{1}{m}\left(\sum_{i=1}^p \lambda_i v_i v_i^T\right)^{-1}
$$
The vector $\lambda \in \mathbf{R}^p$ satisfies $\lambda \succeq 0, \mathbf{1}^T \lambda=1$, and also, each $\lambda_i$ is an integer multiple of $1 / \mathrm{m}$. By ignoring this last constraint, we arrive at the problem
$$
\begin{array}{ll}
\text { minimize (w.r.t. } \left.\mathbf{S}{+}^n\right) & E=(1 / m)\left(\sum{i=1}^p \lambda_i v_i v_i^T\right)^{-1} \
\text { subject to } & \lambda \succeq 0, \quad \mathbf{1}^T \lambda=1,
\end{array}
$$
with variable $\lambda \in \mathbf{R}^p$. To distinguish this from the original combinatorial experiment design problem (7.23), we refer to it as the relaxed experiment design problem. The relaxed experiment design problem (7.25) is a convex optimization problem, since the objective $E$ is an $\mathbf{S}_{+}^n$-convex function of $\lambda$.

Several statements can be made about the relation between the (combinatorial) experiment design problem (7.23) and the relaxed problem (7.25). Clearly the optimal value of the relaxed problem provides a lower bound on the optimal value of the combinatorial one, since the combinatorial problem has anditional constraint. From a solution of the relaxed problem (7.25) we can construct a suboptimal solution of the combinatorial problem (7.23) as follows. First, we apply simple rounding to get
$$
m_i=\operatorname{round}\left(m \lambda_i\right), \quad i=1, \ldots, p
$$
Corresponding to this choice of $m_1, \ldots, m_p$ is the vector $\tilde{\lambda}$,
$$
\tilde{\lambda}_i=(1 / m) \operatorname{round}\left(m \lambda_i\right), \quad i=1, \ldots, p .
$$
The vector $\tilde{\lambda}$ satisfies the constraint that each entry is an integer multiple of $1 / \mathrm{m}$. Clearly we have $\left|\lambda_i-\tilde{\lambda}_i\right| \leq 1 /(2 m)$, so for $m$ large, we have $\lambda \approx \tilde{\lambda}$. This implies that the constraint $1^T \tilde{\lambda}=1$ is nearly satisfied, for large $m$, and also that the error covariance matrices associated with $\tilde{\lambda}$ and $\lambda$ are close.

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Experiment design

我们考虑估计向量的问题 $x \in \mathbf{R}^n$ 从测量或实验
$$
y_i=a_i^T x+w_i, \quad i=1, \ldots, m
$$
在哪里 $w_i$ 是测量噪声。我们假设 $w_i$ 是具有零均值和单位方差的独立高斯随机变量,并且测量向量 $a_1, \ldots, a_m$ 跨度 $\mathbf{R}^n$. 的最大似然估计 $x$ ,与最小方差估计相同,由最小二乘解给出
$$
\hat{x}=\left(\sum_{i=1}^m a_i a_i^T\right)^{-1} \sum_{i=1}^m y_i a_i .
$$
相关的估计误差 $e=\hat{x}-x$ 具有零均值和协方差矩阵
$$
E=\mathbf{E} e e^T=\left(\sum_{i=1}^m a_i a_i^T\right)^{-1}
$$
矩阵 $E$ 表征估计的准确性或实验的信息量。例如 $\alpha$ – 置信水平椭圆体 $x$ 是(谁)给的
在哪里 $\beta$ 是一个常数,取决于 $n$ 和 $\alpha$.
我们假设向量 $a_1, \ldots, a_m$ ,表征测量,可以选择 $p$ 可能的测试向量 $v_1, \ldots, v_p \in \mathbf{R}^n$ ,即每个 $a_i$ 其中一 个 $v_j$. 实验设计的目标是选择载体 $a_i$ ,从可能的选择中,使得误差协方差 $E$ 很小 (在某种意义上)。换句 话说,每个 $m$ 可以从固定菜单中选择实验或测量 $p$ 可能的实验;我们的工作是找到一组 (一起) 提供最多 信息的测量值。

数学代写|凸优化作业代写Convex Optimization代考|The relaxed experiment design problem

基本实验设计问题 (7.23) 可能是一个困难的组合问题,当 $m$, 实验总数,与 $n$, 因为在这种情况下 $m_i$ 都是小 整数。在这种情况下 $m$ 比较大 $n$ ,但是,可以通过忽略或放松约束来找到 (7.23) 的一个很好的近似解 $m_i$ 是整数。让 $\lambda_i=m_i / m$, 这是实验总数的分数 $a_j=v_i$, 或实验的相对频率 $i$. 我们可以将误差协方差表示 为 $\lambda_i$ 作为
$$
E=\frac{1}{m}\left(\sum_{i=1}^p \lambda_i v_i v_i^T\right)^{-1}
$$
载体 $\lambda \in \mathbf{R}^p$ 满足 $\lambda \succeq 0, \mathbf{1}^T \lambda=1$ ,还有,每个 $\lambda_i$ 是的整数倍 $1 / \mathrm{m}$. 通过忽略最后一个约束,我们得到 了问题
$$
\operatorname{minimize}\left(\text { w.r.t. } \mathbf{S}+{ }^n\right) \quad E=(1 / m)\left(\sum i=1^p \lambda_i v_i v_i^T\right)^{-1} \quad \text { subject to } \quad \lambda \succeq 0, \quad \mathbf{1}^T \lambda=1
$$
有变量 $\lambda \in \mathbf{R}^p$. 为了将其与原始组合实验设计问题 (7.23) 区分开来,我们将其称为松她实验设计问题。 松驰实验设计问题 (7.25) 是一个凸优化问题,因为目标 $E$ 是一个 $\mathbf{S}_{+}^n$ – 的凸函数 $\lambda$.
关于 (组合) 实验设计问题 (7.23) 和松他问题 (7.25) 之间的关系,可以做出几个陈述。显然,松弛问 题的最优值提供了组合问题最优值的下界,因为组合问题具有条件约束。根据松弛问题 (7.25) 的解,我们 可以构造组合问题 (7.23) 的次优解,如下所示。首先,我们应用简单舍入得到
$$
m_i=\operatorname{round}\left(m \lambda_i\right), \quad i=1, \ldots, p
$$
对应于这个选择 $m_1, \ldots, m_p$ 是向量 $\tilde{\lambda}$
$$
\tilde{\lambda}_i=(1 / m) \text { round }\left(m \lambda_i\right), \quad i=1, \ldots, p
$$
载体 $\tilde{\lambda}$ 满足每个条目都是以下整数倍的约束 $1 / \mathrm{m}$. 显然我们有 $\left|\lambda_i-\tilde{\lambda}_i\right| \leq 1 /(2 m)$ ,因此对于 $m$ 大,我 们有 $\lambda \approx \tilde{\lambda}$. 这意味着约束 $1^T \tilde{\lambda}=1$ 几乎是满意的,对于大 $m$ ,以及与相关联的误差协方差矩阵 $\tilde{\lambda}$ 和 $\lambda$ 很 近。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|MATH3204

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础

数学代写|凸优化作业代写Convex Optimization代考|Chernoff bounds

Let $X$ be a random variable on $\mathbf{R}$. The Chernoff bound states that
$$
\operatorname{prob}(X \geq u) \leq \inf {\lambda \geq 0} \mathbf{E} e^{\lambda(X-u)} $$ which can be expressed as $$ \log \operatorname{prob}(X \geq u) \leq \inf {\lambda \geq 0}\left{-\lambda u+\log \mathbf{E} e^{\lambda X}\right}
$$
Recall (from example 3.41, page 106) that the righthand term, $\log \mathbf{E} e^{\lambda X}$, is called the cumulant generating function of the distribution, and is always convex, so the function to be minimized is convex. The bound (7.20) is most useful in cases when the cumulant generating function has an analytical expression, and the minimization over $\lambda$ can be carried out analytically.

For example, if $X$ is Gaussian with zero mean and unit variance, the cumulant generating function is
$$
\log \mathbf{E} e^{\lambda X}=\lambda^2 / 2
$$
and the infimum over $\lambda \geq 0$ of $-\lambda u+\lambda^2 / 2$ occurs with $\lambda=u$ (if $u \geq 0$ ), so the Chernoff bound is (for $u \geq 0$ )
$$
\operatorname{prob}(X \geq u) \leq e^{-u^2 / 2}
$$
The idea behind the Chernoff bound can be extended to a more general setting, in which convex optimization is used to compute a bound on the probability of a set in $\mathbf{R}^m$. Let $C \subseteq \mathbf{R}^m$, and as in the description of Chebyshev bounds above, let $1_C$ denote the $0-1$ indicator function of $C$. We will derive an upper bound on $\operatorname{prob}(X \in C)$. (In principle we can compute $\operatorname{prob}(X \in C)$, for example by Monte Carlo simulation, or numerical integration, but either of these can be a daunting computational task, and neither method produces guaranteed bounds.)
Let $\lambda \in \mathbf{R}^m$ and $\mu \in \mathbf{R}$, and consider the function $f: \mathbf{R}^m \rightarrow \mathbf{R}$ given by
$$
f(z)=e^{\lambda^T z+\mu}
$$

数学代写|凸优化作业代写Convex Optimization代考|Chernoff bound for a Gaussian variable on a polyhedron

As a specific example, suppose that $X$ is a Gaussian random vector on $\mathbf{R}^m$ with zero mean and covariance $I$, so its cumulant generating function is
$$
\log \mathbf{E} \exp \left(\lambda^T X\right)=\lambda^T \lambda / 2
$$
We take $C$ to be a polyhedron described by inequalities:
$$
C={x \mid A x \preceq b}
$$
which we assume is nonempty.
For use in the Chernoff bound, we use a dual characterization of the support function $S_C$ :
$$
\begin{aligned}
S_C(y) & =\sup \left{y^T x \mid A x \preceq b\right} \
& =-\inf \left{-y^T x \mid A x \preceq b\right} \
& =-\sup \left{-b^T u \mid A^T u=y, u \succeq 0\right} \
& =\inf \left{b^T u \mid A^T u=y, u \succeq 0\right}
\end{aligned}
$$
where in the third line we use LP duality:
$$
\inf \left{c^T x \mid A x \preceq b\right}=\sup \left{-b^T u \mid A^T u+c=0, u \succeq 0\right}
$$
with $c=-y$. Using this expression for $S_C$ in the Chernoff bound we obtain
$$
\begin{aligned}
\log \operatorname{prob}(X \in C) & \leq \inf \lambda\left(S_C(-\lambda)+\log \mathbf{E} \exp \left(\lambda^T X\right)\right) \ & =\inf \lambda \inf _u\left{b^T u+\lambda^T \lambda / 2 \mid u \succeq 0, A^T u+\lambda=0\right} .
\end{aligned}
$$
Thus, the Chernoff bound on $\operatorname{prob}(X \in C)$ is the exponential of the optimal value of the $\mathrm{QP}$
$$
\begin{array}{ll}
\text { minimize } & b^T u+\lambda^T \lambda / 2 \
\text { subject to } & u \succeq 0, \quad A^T u+\lambda=0,
\end{array}
$$
where the variables are $u$ and $\lambda$.

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Chernoff bounds

让 $X$ 是一个随机变量 $\mathbf{R}$. 切尔诺夫界指出
$$
\operatorname{prob}(X \geq u) \leq \inf \lambda \geq 0 \mathbf{E} e^{\lambda(X-u)}
$$
可以表示为
回想一下 (来自示例 3.41,第 106 页) 右侧的术语, $\log \mathbf{E} e^{\lambda X}$ ,称为分布的侽积生成函数,并且始终是 凸函数,因此要最小化的函数是凸函数。界限 (7.20) 在侽积量生成函数具有解析表达式且最小化超过 $\lambda$ 可 以进行解析。
例如,如果 $X$ 是零均值和单位方差的高斯分布,侽积量生成函数是
$$
\log \mathbf{E} e^{\lambda X}=\lambda^2 / 2
$$
和下限结束 $\lambda \geq 0$ 的 $-\lambda u+\lambda^2 / 2$ 发生在 $\lambda=u$ (如果 $u \geq 0$ ), 所以切尔诺夫界是 (对于 $u \geq 0$ )
$$
\operatorname{prob}(X \geq u) \leq e^{-u^2 / 2}
$$
切尔诺夫界限背后的想法可以扩展到更一般的设置,其中凸优化用于计算集合概率的界限 $\mathbf{R}^m$. 让 $C \subseteq \mathbf{R}^m$ ,正如上面对切比雪夫界限的描述,让 $1_C$ 表示 $0-1$ 的指标函数 $C$. 我们将得出一个上限 $\operatorname{prob}(X \in C)$. (原则上我们可以计算prob $(X \in C)$ ,例如通过蒙特卡洛模拟或数值积分,但其中任 何一种都可能是一项艰巨的计算任务,并且两种方法都不会产生有保证的界限。)
让 $\lambda \in \mathbf{R}^m$ 和 $\mu \in \mathbf{R}$ ,并考虑函数 $f: \mathbf{R}^m \rightarrow \mathbf{R}$ 由
$$
f(z)=e^{\lambda^T z+\mu}
$$

数学代写|凸优化作业代写Convex Optimization代考|Chernoff bound for a Gaussian variable on a polyhedron

作为一个具体的例子,假设 $X$ 是一个高斯随机向量 $\mathbf{R}^m$ 具有零均值和协方差 $I$ ,所以它的㽧积生成函数是
$$
\log \mathbf{E} \exp \left(\lambda^T X\right)=\lambda^T \lambda / 2
$$
我们采取 $C$ 是由不等式描述的多面体:
$$
C=x \mid A x \preceq b
$$
我们假设它是非空的。
为了在 Chernoff 界中使用,我们使用支持函数的双重特征 $S_C$ :
在第三行中我们使用 LP 对偶性:
和 $c=-y$. 将此表达式用于 $S_C$ 在切尔诺夫界我们得到
因此,切尔诺夫约束 $\operatorname{prob}(X \in C)$ 是最优值的指数 $\mathrm{QP}$
$$
\text { minimize } \quad b^T u+\lambda^T \lambda / 2 \text { subject to } \quad u \succeq 0, \quad A^T u+\lambda=0
$$
变量在哪里 $u$ 和 $\lambda$.

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|CPD131

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础

数学代写|凸优化作业代写Convex Optimization代考|Sparse descriptions and basis pursuit

In basis pursuit, there is a very large number of basis functions, and the goal is to find a good fit of the given data as a linear combination of a small number of the basis functions. (In this context the function family is linearly dependent, and is sometimes referred to as an over-complete basis or dictionary.) This is called basis pursuit since we are selecting a much smaller basis, from the given over-complete basis, to model the data.

Thus we seek a function $f \in \mathcal{F}$ that fits the data well,
$$
f\left(u_i\right) \approx y_i, \quad i=1, \ldots, m
$$
with a sparse coefficient vector $x$, i.e., $\operatorname{card}(x)$ small. In this case we refer to
$$
f=x_1 f_1+\cdots+x_n f_n=\sum_{i \in \mathcal{B}} x_i f_i
$$
where $\mathcal{B}=\left{i \mid x_i \neq 0\right}$ is the set of indices of the chosen basis elements, as a sparse description of the data. Mathematically, basis pursuit is the same as the regressor selection problem (see $\S 6.4$ ), but the interpretation (and scale) of the optimization problem are different.

Sparse descriptions and basis pursuit have many uses. They can be used for de-noising or smoothing, or data compression for efficient transmission or storage of a signal. In data compression, the sender and receiver both know the dictionary, or basis elements. To send a signal to the receiver, the sender first finds a sparse representation of the signal, and then sends to the receiver only the nonzero coefficients (to some precision). Using these coefficients, the receiver can reconstruct (an approximation of) the original signal.

One common approach to basis pursuit is the same as the method for regressor selection described in $\S 6.4$, and based on $\ell_1$-norm regularization as a heuristic for finding sparse descriptions. We first solve the convex problem
$$
\operatorname{minimize} \sum_{i=1}^m\left(f\left(u_i\right)-y_i\right)^2+\gamma|x|_1,
$$
where $\gamma>0$ is a parameter used to trade off the quality of the fit to the data, and the sparsity of the coefficient vector. The solution of this problem can be used directly, or followed by a refinement step, in which the best fit is found, using the sparsity pattern of the solution of (6.18). In other words, we first solve (6.18), to obtain $\hat{x}$. We then set $\mathcal{B}=\left{i \mid \hat{x}i \neq 0\right}$, i.e., the set of indices corresponding to nonzero coefficients. Then we solve the least-squares problem $$ \operatorname{minimize} \sum{i=1}^m\left(f\left(u_i\right)-y_i\right)^2
$$
with variables $x_i, i \in \mathcal{B}$, and $x_i=0$ for $i \notin \mathcal{B}$.
In basis pursuit and sparse description applications it is not uncommon to have a very large dictionary, with $n$ on the order of $10^4$ or much more. To be effective, algorithms for solving (6.18) must exploit problem structure, which derives from the structure of the dictionary signals.

数学代写|凸优化作业代写Convex Optimization代考|Interpolation with convex functions

In some special cases we can solve interpolation problems involving an infinitedimensional set of functions, using finite-dimensional convex optimization. In this section we describe an example.

We start with the following question: When does there exist a convex function $f: \mathbf{R}^k \rightarrow \mathbf{R}$, with $\operatorname{dom} f=\mathbf{R}^k$, that satisfies the interpolation conditions
$$
f\left(u_i\right)=y_i, \quad i=1, \ldots, m
$$ at given points $u_i \in \mathbf{R}^k$ ? (Here we do not restrict $f$ to lie in any finite-dimensional subspace of functions.) The answer is: if and only if there exist $g_1, \ldots, g_m$ such that
$$
y_j \geq y_i+g_i^T\left(u_j-u_i\right), \quad i, j=1, \ldots, m
$$
To see this, first suppose that $f$ is convex, $\operatorname{dom} f=\mathbf{R}^k$, and $f\left(u_i\right)=y_i$, $i=1, \ldots, m$. At each $u_i$ we can find a vector $g_i$ such that
$$
f(z) \geq f\left(u_i\right)+g_i^T\left(z-u_i\right)
$$
for all $z$. If $f$ is differentiable, we can take $g_i=\nabla f\left(u_i\right)$; in the more general case, we can construct $g_i$ by finding a supporting hyperplane to epi $f$ at $\left(u_i, y_i\right)$. (The vectors $g_i$ are called subgradients.) By applying (6.20) to $z=u_j$, we obtain (6.19).
Conversely, suppose $g_1, \ldots, g_m$ satisfy (6.19). Define $f$ as
$$
f(z)=\max _{i=1, \ldots, m}\left(y_i+g_i^T\left(z-u_i\right)\right)
$$
for all $z \in \mathbf{R}^k$. Clearly, $f$ is a (piecewise-linear) convex function. The inequalities $(6.19)$ imply that $f\left(u_i\right)=y_i$, for $i=1, \ldots, m$.

We can use this result to solve several problems involving interpolation, approximation, or bounding, with convex functions.

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Sparse descriptions and basis pursuit

在基追踪中,基函数的数量非常多,目标是找到给定数据的良好拟合作为少量基函数的线性组合。(在这 种情况下,函数族是线性相关的,有时称为超完备基础或字典。)这称为基础追求,因为我们从给定的超 完备基础中选择一个更小的基础来建模数据。
因此我们寻求一个函数 $f \in \mathcal{F}$ 非常适合数据,
$$
f\left(u_i\right) \approx y_i, \quad i=1, \ldots, m
$$
具有稀疏系数向量 $x$ ,那是, $\operatorname{card}(x)$ 小的。在这种情况下,我们指的是
$$
f=x_1 f_1+\cdots+x_n f_n=\sum_{i \in \mathcal{B}} x_i f_i
$$
在哪里 \mathcal ${B}=\backslash l \mid f t\left{i \backslash m i d x _i \backslash n e q\right.$ 0 $\backslash$ right $}$ 是所选基本元素的索引集,作为数据的稀疏描述。在数学 上,基追求与回归量选择问题相同 (参见 $\$ 6.4$ ),但优化问题的解释 (和尺度) 不同。
稀疏描述和基础追求有很多用途。它们可用于降噪或平滑,或数据压缩以有效传输或存储信号。在数据压 缩中,发送方和接收方都知道字典或基本元素。为了向接收方发送信号,发送方首先找到信号的稀疏表 示,然后仅向接收方发送非零系数(以某种精度)。使用这些系数,接收器可以重建(近似)原始信号。
一种常见的基础追踪方法与中描述的回归量选择方法相同 $\S 6.4$, 并基于 $\ell_1$-范数正则化作为寻找稀疏描述 的启发式方法。我们首先解决凸问题
$$
\operatorname{minimize} \sum_{i=1}^m\left(f\left(u_i\right)-y_i\right)^2+\gamma|x|_1
$$
在哪里 $\gamma>0$ 是一个参数,用于权衡数据的拟合质量和系数向量的稀疏性。这个问题的解决方案可以直接 使用,或者在细化步骤之后使用 (6.18) 的解决方案的稀疏模式找到最佳拟合。也就是说,我们先求解 (6.18),得到 $\hat{x}$. 然后我们设置 \mathcal ${B}=\backslash$ eft ${i \backslash m i d \backslash h a t{x} i \backslash n e q$ O right $}$ ,即对应于非零系数的一组索 引。然后我们解决最小二乘问题
$$
\operatorname{minimize} \sum i=1^m\left(f\left(u_i\right)-y_i\right)^2
$$
有变量 $x_i, i \in \mathcal{B}$ ,和 $x_i=0$ 为了 $i \notin \mathcal{B}$.
在基础追踪和稀疏描述应用中,有一个非常大的字典并不少见,其中 $n$ 按顺序 $10^4$ 或更多。为了有效,求 解 (6.18) 的算法必须利用问题结构,它源自字典信号的结构。

数学代写|凸优化作业代写Convex Optimization代考|Interpolation with convex functions

在某些特殊情况下,我们可以使用有限维凸优化来解决涉及无限维函数集的揷值问题。在本节中,我们描 述了一个示例。
我们从以下问题开始:什么时候存在凸函数 $f: \mathbf{R}^k \rightarrow \mathbf{R}$ ,和dom $f=\mathbf{R}^k$ ,即满足揷值条件
$$
f\left(u_i\right)=y_i, \quad i=1, \ldots, m
$$
在给定点 $u_i \in \mathbf{R}^k$ ? (这里不限制 $f$ 位于函数的任何有限维子空间中。)答案是:当且仅当存在 $g_1, \ldots, g_m$ 这样
$$
y_j \geq y_i+g_i^T\left(u_j-u_i\right), \quad i, j=1, \ldots, m
$$
要看到这一点,首先假设 $f$ 是凸的, $\operatorname{dom} f=\mathbf{R}^k$ ,和 $f\left(u_i\right)=y_i, i=1, \ldots, m$. 在每一个 $u_i$ 我们可 以找到一个向量 $g_i$ 这样
$$
f(z) \geq f\left(u_i\right)+g_i^T\left(z-u_i\right)
$$
对全部 $z$. 如果 $f$ 是可微的,我们可以取 $g_i=\nabla f\left(u_i\right)$; 在更一般的情况下,我们可以构建 $g_i$ 通过找到 epi 的支持超平面 $f$ 在 $\left(u_i, y_i\right)$. (向量 $g_i$ 称为子梯度。) 通过将 (6.20) 应用于 $z=u_j$ ,我们得到 (6.19)。 相反,假设 $g_1, \ldots, g_m$ 满足 (6.19)。定义 $f$ 作为
$$
f(z)=\max _{i=1, \ldots, m}\left(y_i+g_i^T\left(z-u_i\right)\right)
$$
对全部 $z \in \mathbf{R}^k$. 清楚地, $f$ 是一个 (分段线性) 凸函数。不平等现象 $(6.19)$ 暗示 $f\left(u_i\right)=y_i$ ,为了 $i=1, \ldots, m$.
我们可以使用这个结果来解决几个涉及凸函数的揷值、近似或边界的问题。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写