标签: EE364a

数学代写|凸优化作业代写Convex Optimization代考|EE364a

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization由于在大规模资源分配、信号处理和机器学习等领域的广泛应用,人们对凸优化的兴趣越来越浓厚。本书旨在解决凸优化问题的算法的最新和可访问的发展。

凸优化Convex optimization无约束可以很容易地用梯度下降(最陡下降的特殊情况)或牛顿方法解决,结合线搜索适当的步长;这些可以在数学上证明收敛速度很快,尤其是后一种方法。如果目标函数是二次函数,也可以使用KKT矩阵技术求解具有线性等式约束的凸优化(它推广到牛顿方法的一种变化,即使初始化点不满足约束也有效),但通常也可以通过线性代数消除等式约束或解决对偶问题来解决。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

数学代写|凸优化作业代写Convex Optimization代考|EE364a

数学代写|凸优化作业代写Convex Optimization代考|DUALITY OF INNER AND OUTER LINEARIZATION

We have considered so far cutting plane and simplicial decomposition methods, and we will now aim to connect them via duality. To this end, we define in this section outer and inner linearizations, and we formalize their conjugacy relation and other related properties. An outer linearization of a closed proper convex function $f: \Re^n \mapsto(-\infty, \infty]$ is defined by a finite set of vectors $\left{y_1, \ldots, y_{\ell}\right}$ such that for every $j=1, \ldots, \ell$, we have $y_j \in \partial f\left(x_j\right)$ for some $x_j \in \Re^n$. It is given by
$$
F(x)=\max _{j=1, \ldots, \ell}\left{f\left(x_j\right)+\left(x-x_j\right)^{\prime} y_j\right}, \quad x \in \Re^n,
$$

and it is illustrated in the left side of Fig. 4.3.1. The choices of $x_j$ such that $y_j \in \partial f\left(x_j\right)$ may not be unique, but result in the same function $F(x)$ : the epigraph of $F$ is determined by the supporting hyperplanes to the epigraph of $f$ with normals defined by $y_j$, and the points of support $x_j$ are immaterial. In particular, the definition (4.14) can be equivalently written in terms of the conjugate $f^{\star}$ of $f$ as
$$
F(x)=\max _{j=1, \ldots, \ell}\left{x^{\prime} y_j-f^{\star}\left(y_j\right)\right},
$$
using the relation $x_j^{\prime} y_j=f\left(x_j\right)+f^{\star}\left(y_j\right)$, which is implied by $y_j \in \partial f\left(x_j\right)$ (the Conjugate Subgradient Theorem, Prop. 5.4.3 in Appendix B).

Note that $F(x) \leq f(x)$ for all $x$, so as is true for any outer approximation of $f$, the conjugate $F^{\star}$ satisfies $F^{\star}(y) \geq f^{\star}(y)$ for all $y$. Moreover, it can be shown that $F^{\star}$ is an inner linearization of the conjugate $f^{\star}$, as illustrated in the right side of Fig. 4.3.1. Indeed we have, using Eq. (4.15),
$$
\begin{aligned}
F^{\star}(y)= & \sup {x \in \Re^n}\left{y^{\prime} x-F(x)\right} \ & =\sup {x \in \Re^n}\left{y^{\prime} x-\max {j=1, \ldots, \ell}\left{y_j^{\prime} x-f^{\star}\left(y_j\right)\right}\right}, \ & =\sup {\substack{x \in \Re^n, \xi \in \Re \
y_j^{\prime} x-f^{\star}\left(y_j\right) \leq \xi, j=1, \ldots, \ell}}\left{y^{\prime} x-\xi\right} .
\end{aligned}
$$

数学代写|凸优化作业代写Convex Optimization代考|GENERALIZED POLYHEDRAL APPROXIMATION

We will now consider a unified framework for polyhedral approximation, which combines the cutting plane and simplicial decomposition methods. We consider the problem
$$
\begin{array}{ll}
\operatorname{minimize} & \sum_{i=1}^m f_i\left(x_i\right) \
\text { subject to } & x \in S,
\end{array}
$$
where
$$
x \stackrel{\text { def }}{=}\left(x_1, \ldots, x_m\right),
$$

is a vector in $\Re^{n_1+\cdots+n_m}$, with components $x_i \in \Re^{n_i}, i=1, \ldots, m$, and
$f_i: \Re^{n_i} \mapsto(-\infty, \infty]$ is a closed proper convex function for each $i$, $S$ is a subspace of $\Re^{n_1+\cdots+n_m}$.

We refer to this as an extended monotropic program (EMP for short). $\dagger$
A classical example of EMP is a single commodity network optimization problem, where $x_i$ represents the (scalar) flow of an arc of a directed graph and $S$ is the circulation subspace of the graph (see e.g., [Ber98]). Also problems involving general linear constraints and an additive extended realvalued convex cost function can be converted to EMP. In particular, the problem
$$
\begin{array}{ll}
\text { minimize } & \sum_{i=1}^m f_i\left(x_i\right) \
\text { subject to } & A x=b,
\end{array}
$$
where $A$ is a given matrix and $b$ is a given vector, is equivalent to
$$
\begin{array}{ll}
\text { minimize } & \sum_{i=1}^m f_i\left(x_i\right)+\delta_Z(z) \
\text { subject to } & A x-z=0,
\end{array}
$$
where $z$ is a vector of artificial variables, and $\delta_Z$ is the indicator function of the set $Z={z \mid z=b}$. This is an EMP with constraint subspace
$$
S={(x, z) \mid A x-z=0} .
$$

数学代写|凸优化作业代写Convex Optimization代考|EE364a

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|DUALITY OF INNER AND OUTER LINEARIZATION

到目前为止,我们已经考虑了切割平面和简单分解方法,现在我们的目标是通过对偶将它们连接起来。为此,我们在本节中定义了外线性化和内线性化,并形式化了它们的共轭关系和其他相关性质。闭固有凸函数$f: \Re^n \mapsto(-\infty, \infty]$的外线性化由一个有限向量集$\left{y_1, \ldots, y_{\ell}\right}$定义,使得对于每个$j=1, \ldots, \ell$,对于某些$x_j \in \Re^n$,我们有$y_j \in \partial f\left(x_j\right)$。它是由
$$
F(x)=\max _{j=1, \ldots, \ell}\left{f\left(x_j\right)+\left(x-x_j\right)^{\prime} y_j\right}, \quad x \in \Re^n,
$$

如图4.3.1左侧所示。对$x_j$的选择使得$y_j \in \partial f\left(x_j\right)$可能不是唯一的,但会产生相同的函数$F(x)$: $F$的题词是由对$f$题词的支持超平面与$y_j$定义的法线确定的,并且支持$x_j$的点是无关紧要的。特别地,定义(4.14)可以等价地写成$f$ as的共轭$f^{\star}$
$$
F(x)=\max _{j=1, \ldots, \ell}\left{x^{\prime} y_j-f^{\star}\left(y_j\right)\right},
$$
利用$y_j \in \partial f\left(x_j\right)$(共轭次梯度定理,附录B第5.4.3节)隐含的关系$x_j^{\prime} y_j=f\left(x_j\right)+f^{\star}\left(y_j\right)$。

注意,对于所有$x$, $F(x) \leq f(x)$,对于$f$的任何外部近似,共轭$F^{\star}$对所有$y$都满足$F^{\star}(y) \geq f^{\star}(y)$。此外,可以看出$F^{\star}$是共轭方程$f^{\star}$的内线性化,如图4.3.1右侧所示。事实上,我们有,使用式(4.15),
$$
\begin{aligned}
F^{\star}(y)= & \sup {x \in \Re^n}\left{y^{\prime} x-F(x)\right} \ & =\sup {x \in \Re^n}\left{y^{\prime} x-\max {j=1, \ldots, \ell}\left{y_j^{\prime} x-f^{\star}\left(y_j\right)\right}\right}, \ & =\sup {\substack{x \in \Re^n, \xi \in \Re \
y_j^{\prime} x-f^{\star}\left(y_j\right) \leq \xi, j=1, \ldots, \ell}}\left{y^{\prime} x-\xi\right} .
\end{aligned}
$$

数学代写|凸优化作业代写Convex Optimization代考|GENERALIZED POLYHEDRAL APPROXIMATION

现在我们将考虑一个统一的多面体逼近框架,它结合了切割平面和简单分解方法。我们考虑这个问题
$$
\begin{array}{ll}
\operatorname{minimize} & \sum_{i=1}^m f_i\left(x_i\right) \
\text { subject to } & x \in S,
\end{array}
$$
在哪里
$$
x \stackrel{\text { def }}{=}\left(x_1, \ldots, x_m\right),
$$

是一个向量在$\Re^{n_1+\cdots+n_m}$,与组件$x_i \in \Re^{n_i}, i=1, \ldots, m$,和
$f_i: \Re^{n_i} \mapsto(-\infty, \infty]$是每个$i$的闭固有凸函数,$S$是$\Re^{n_1+\cdots+n_m}$的一个子空间。

我们将其称为扩展单性程序(简称EMP)。$\dagger$
EMP的一个经典例子是单个商品网络优化问题,其中$x_i$表示有向图的弧线的(标量)流,$S$是图的循环子空间(参见示例[Ber98])。此外,涉及一般线性约束和可加扩展重值凸代价函数的问题也可以转换为EMP
$$
\begin{array}{ll}
\text { minimize } & \sum_{i=1}^m f_i\left(x_i\right) \
\text { subject to } & A x=b,
\end{array}
$$
其中$A$是一个给定的矩阵$b$是一个给定的向量,等价于
$$
\begin{array}{ll}
\text { minimize } & \sum_{i=1}^m f_i\left(x_i\right)+\delta_Z(z) \
\text { subject to } & A x-z=0,
\end{array}
$$
式中$z$为人工变量向量,$\delta_Z$为集合$Z={z \mid z=b}$的指标函数。这是一个有约束子空间的EMP
$$
S={(x, z) \mid A x-z=0} .
$$

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

微观经济学代写

微观经济学是主流经济学的一个分支,研究个人和企业在做出有关稀缺资源分配的决策时的行为以及这些个人和企业之间的相互作用。my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在图论代写Graph Theory代写方面经验极为丰富,各种图论代写Graph Theory相关的作业也就用不着 说。

线性代数代写

线性代数是数学的一个分支,涉及线性方程,如:线性图,如:以及它们在向量空间和通过矩阵的表示。线性代数是几乎所有数学领域的核心。

博弈论代写

现代博弈论始于约翰-冯-诺伊曼(John von Neumann)提出的两人零和博弈中的混合策略均衡的观点及其证明。冯-诺依曼的原始证明使用了关于连续映射到紧凑凸集的布劳威尔定点定理,这成为博弈论和数学经济学的标准方法。在他的论文之后,1944年,他与奥斯卡-莫根斯特恩(Oskar Morgenstern)共同撰写了《游戏和经济行为理论》一书,该书考虑了几个参与者的合作游戏。这本书的第二版提供了预期效用的公理理论,使数理统计学家和经济学家能够处理不确定性下的决策。

微积分代写

微积分,最初被称为无穷小微积分或 “无穷小的微积分”,是对连续变化的数学研究,就像几何学是对形状的研究,而代数是对算术运算的概括研究一样。

它有两个主要分支,微分和积分;微分涉及瞬时变化率和曲线的斜率,而积分涉及数量的累积,以及曲线下或曲线之间的面积。这两个分支通过微积分的基本定理相互联系,它们利用了无限序列和无限级数收敛到一个明确定义的极限的基本概念 。

计量经济学代写

什么是计量经济学?
计量经济学是统计学和数学模型的定量应用,使用数据来发展理论或测试经济学中的现有假设,并根据历史数据预测未来趋势。它对现实世界的数据进行统计试验,然后将结果与被测试的理论进行比较和对比。

根据你是对测试现有理论感兴趣,还是对利用现有数据在这些观察的基础上提出新的假设感兴趣,计量经济学可以细分为两大类:理论和应用。那些经常从事这种实践的人通常被称为计量经济学家。

Matlab代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|ECE6270 Convex optimization

Statistics-lab™可以为您提供gatech.edu ECE6270 Convex optimization凸优化课程的代写代考辅导服务!

ECE6270 Convex optimization课程简介

This is a graduate-level course on optimization. The course covers mathematical programming and combinatorial optimization from the perspective of convex optimization, which is a central tool for solving large-scale problems. In recent years convex optimization has had a profound impact on statistical machine learning, data analysis, mathematical finance, signal processing, control, theoretical computer science, and many other areas. The first part will be dedicated to the theory of convex optimization and its direct applications. The second part will focus on advanced techniques in combinatorial optimization using machinery developed in the first part.

PREREQUISITES 

Instructor: Yaron Singer (OH: Wednesdays 4-5pm, MD239)
Teaching fellows:

  • Thibaut Horel (OH: Tuesdays 4:30-5:30pm, MD’s 2nd floor lounge)
  • Rajko Radovanovic (OH: Mondays 5:30-6:30pm, MD’s 2nd floor lounge)
    Time: Monday \& Wednesday, 2:30pm-4:00pm
    Room: MD119
    Sections: Wednesdays 5:30-7:00pm in MD221

ECE6270 Convex optimization HELP(EXAM HELP, ONLINE TUTOR)

问题 1.

4.51 Monotone transformation of objective in vector optimization. Consider the vector optimization problem (4.56). Suppose we form a new vector optimization problem by replacing the objective $f_0$ with $\phi \circ f_0$, where $\phi: \mathbf{R}^q \rightarrow \mathbf{R}^q$ satisfies
$$
u \preceq K v, u \neq v \Longrightarrow \phi(u) \preceq_K \phi(v), \phi(u) \neq \phi(v) \text {. }
$$
Show that a point $x$ is Pareto optimal (or optimal) for one problem if and only if it is Pareto optimal (optimal) for the other, so the two problems are equivalent. In particular, composing each objective in a multicriterion problem with an increasing function does not affect the Pareto optimal points.

问题 2.

4.52 Pareto optimal points and the boundary of the set of achievable values. Consider a vector optimization problem with cone $K$. Let $\mathcal{P}$ denote the set of Pareto optimal values, and let $\mathcal{O}$ denote the set of achievable objective values. Show that $\mathcal{P} \subseteq \mathcal{O} \cap \mathbf{b d} \mathcal{O}$, i.e., every Pareto optimal value is an achievable objective value that lies in the boundary of the set of achievable objective values.

问题 3.

4.53 Suppose the vector optimization problem (4.56) is convex. Show that the set
$$
\mathcal{A}=\mathcal{O}+K=\left{t \in \mathbf{R}^q \mid f_0(x) \preceq_K t \text { for some feasible } x\right},
$$
is convex. Also show that the minimal elements of $\mathcal{A}$ are the same as the minimal points of $\mathcal{O}$.

问题 4.

4.54 Scalarization and optimal points. Suppose a (not necessarily convex) vector optimization problem has an optimal point $x^$. Show that $x^$ is a solution of the associated scalarized problem for any choice of $\lambda \succ K * 0$. Also show the converse: If a point $x$ is a solution of the scalarized problem for any choice of $\lambda \succ \kappa * 0$, then it is an optimal point for the (not necessarily convex) vector optimization problem.

Textbooks


• An Introduction to Stochastic Modeling, Fourth Edition by Pinsky and Karlin (freely
available through the university library here)
• Essentials of Stochastic Processes, Third Edition by Durrett (freely available through
the university library here)
To reiterate, the textbooks are freely available through the university library. Note that
you must be connected to the university Wi-Fi or VPN to access the ebooks from the library
links. Furthermore, the library links take some time to populate, so do not be alarmed if
the webpage looks bare for a few seconds.

此图像的alt属性为空;文件名为%E7%B2%89%E7%AC%94%E5%AD%97%E6%B5%B7%E6%8A%A5-1024x575-10.png
数学代写|ECE6270 Convex optimization

Statistics-lab™可以为您提供gatech.edu ECE6270 Convex optimization凸优化课程的代写代考辅导服务! 请认准Statistics-lab™. Statistics-lab™为您的留学生涯保驾护航。

数学代写|凸优化作业代写Convex Optimization代考|ESE 605

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|ESE 605

数学代写|凸优化作业代写Convex Optimization代考|Supremum and infimum

In mathematics, given a subset $S$ of a partially ordered set $T$, the supremum (sup) of $S$, if it exists, is the least element of $T$ that is greater than or equal to each element of $S$. Consequently, the supremum is also referred to as the least upper bound, lub or $L U B$. If the supremum exists, it may or may not belong to $S$. On the other hand, the infimum (inf) of $S$ is the greatest element in $T$, not necessarily in $S$, that is less than or equal to all elements of $S$. Consequently the

term greatest lower bound (also abbreviated as glb or GLB) is also commonly used. Consider a set $C \subseteq \mathbb{R}$.

  • A number $a$ is an upper bound (lower bound) on $C$ if for each $x \in C, x \leq$ $a(x \geq a)$.
  • A number $b$ is the least upper bound (greatest lower bound) or the supremum (infimum) of $C$ if
    (i) $b$ is an upper bound (lower bound) on $C$, and
    (ii) $b \leq a(b \geq a)$ for every upper bound (lower bound) $a$ on $C$.
    Remark $1.8$ An infimum is in a precise sense dual to the concept of a supremum and vice versa. For instance, sup $C=\infty$ if $C$ is unbounded above and inf $C=$ $-\infty$ if $C$ is unbounded below.

数学代写|凸优化作业代写Convex Optimization代考|Derivative and gradient

Since vector limits are computed by taking the limit of each coordinate function, we can write the function $f: \mathbb{R}^{n} \rightarrow \mathbb{R}^{m}$ for a point $\mathbf{x} \in \mathbb{R}^{n}$ as follows:
$$
\boldsymbol{f}(\mathbf{x})=\left[\begin{array}{c}
f_{1}(\mathbf{x}) \
f_{2}(\mathbf{x}) \
\vdots \
f_{m}(\mathbf{x})
\end{array}\right]=\left(f_{1}(\mathbf{x}), f_{2}(\mathbf{x}), \ldots, f_{m}(\mathbf{x})\right)
$$
where each $f_{i}(\mathbf{x})$ is a function from $\mathbb{R}^{n}$ to $\mathbb{R}$. Now, $\frac{\partial \boldsymbol{f}(\mathbf{x})}{\partial x_{j}}$ can be defined as
$$
\frac{\partial \boldsymbol{f}(\mathbf{x})}{\partial x_{j}}=\left[\begin{array}{c}
\frac{\partial f_{1}(\mathbf{x})}{\partial x_{j}} \
\frac{\partial f_{2}(\mathbf{x})}{\partial x_{j}} \
\vdots \
\frac{\partial f_{m}(\mathbf{x})}{\partial x_{j}}
\end{array}\right]=\left(\frac{\partial f_{1}(\mathbf{x})}{\partial x_{j}}, \frac{\partial f_{2}(\mathbf{x})}{\partial x_{j}}, \ldots, \frac{\partial f_{m}(\mathbf{x})}{\partial x_{j}}\right)
$$
The above vector is a tangent vector at the point $\mathbf{x}$ of the curve $\boldsymbol{f}$ obtained by varying only $x_{j}$ (the $j$ th coordinate of $\mathbf{x}$ ) with $x_{i}$ fixed for all $i \neq j$.

数学代写|凸优化作业代写Convex Optimization代考|ESE 605

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Supremum and infimum

在数学中,给定一个子集 $S$ 偏序集的 $T$ ,的上确界 (sup) $S$ ,如果存在,是最小的元素 $T$ 大于或等于的每个元素 $S$. 因此,上界也称为最小上界,lub 或 $L U B$. 如果上界存在,它可能属于也可能不属于 $S$. 另一方面,下确界 (inf) $S$ 是最大的元素 $T$ ,不一定在 $S$ ,即小于或等于所有元素 $S$. 因此
术语最大下限(也缩写为 $g l b$ 或 $G L B$ )也常用。考虑一个集合 $C \subseteq \mathbb{R}$.

  • 一个号码 $a$ 是上界 (下界) $C$ 如果对于每个 $x \in C, x \leq a(x \geq a)$.
  • 一个号码 $b$ 是最小上界 (最大下界) 或上确界 (下确界) $C$ 如果
    (一) $b$ 是上界 (下界) $C$, 和
    (ii) $b \leq a(b \geq a)$ 对于每个上限 (下限) $a$ 上 $C$.
    评论1.8在精确意义上,下确界与上确界概念是对偶的,反之亦然。例如,苏 $C=\infty$ 如果 $C$ 在上面和inf 上是无界的 $C=-\infty$ 如果 $C$ 下面是无界的。

数学代写|凸优化作业代写Convex Optimization代考|Derivative and gradient

由于向量限制是通过获取每个坐标函数的限制来计算的,所以我们可以编写函数 $f: \mathbb{R}^{n} \rightarrow \mathbb{R}^{m}$ 为了一点 $\mathbf{x} \in \mathbb{R}^{n}$ 如下:
$$
\boldsymbol{f}(\mathbf{x})=\left[f_{1}(\mathbf{x}) f_{2}(\mathbf{x}) \vdots f_{m}(\mathbf{x})\right]=\left(f_{1}(\mathbf{x}), f_{2}(\mathbf{x}), \ldots, f_{m}(\mathbf{x})\right)
$$
其中每个 $f_{i}(\mathbf{x})$ 是一个函数 $\mathbb{R}^{n}$ 至 $\mathbb{R}$. 现在, $\frac{\partial f(\mathbf{x})}{\partial x_{j}}$ 可以定义为
$$
\frac{\partial \boldsymbol{f}(\mathbf{x})}{\partial x_{j}}=\left[\frac{\partial f_{1}(\mathbf{x})}{\partial x_{j}} \frac{\partial f_{2}(\mathbf{x})}{\partial x_{j}}: \frac{\partial f_{m}(\mathbf{x})}{\partial x_{j}}\right]=\left(\frac{\partial f_{1}(\mathbf{x})}{\partial x_{j}}, \frac{\partial f_{2}(\mathbf{x})}{\partial x_{j}}, \ldots, \frac{\partial f_{m}(\mathbf{x})}{\partial x_{j}}\right)
$$
上面的向量是该点的切向量 $\mathbf{x}$ 曲线的 $\boldsymbol{f}$ 仅通过变化获得 $x_{j}$ (这 $j$ 的坐标 $\left.\mathbf{x}\right)$ 和 $x_{i}$ 为所有人固定 $i \neq j$.

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|CS 531

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|CS 531

数学代写|凸优化作业代写Convex Optimization代考|Norm ball

The norm ball of a point $\mathbf{x} \in \mathbb{R}^{n}$ is defined as the following set ${ }^{1}$
$$
B(\mathbf{x}, r)=\left{\mathbf{y} \in \mathbb{R}^{n} \mid|\mathbf{y}-\mathbf{x}| \leq r\right} .
$$
where $r$ is the radius and $\mathbf{x}$ is the center of the norm ball. It is also called the neighborhood of the point $\mathbf{x}$. For the case of $n=2, \mathbf{x}=\mathbf{0}{2}$, and $r=1$, the 2 norm ball is $B(\mathbf{x}, r)=\left{\mathbf{y} \mid y{1}^{2}+y_{2}^{2} \leq 1\right}$ (a circular disk of radius equal to 1 ), the 1-norm ball is $B(\mathbf{x}, r)=\left{\mathbf{y}|| y_{1}|+| y_{2} \mid \leq 1\right}$ (a 2-dimensional cross-polytope of area equal to 2 ), and the $\infty$-norm ball is $B(\mathbf{x}, r)=\left{\mathbf{y}|| y_{1}|\leq 1,| y_{2} \mid \leq 1\right$,$} (a$ square of area equal to 4) (see Figure 1.1). Note that the norm ball is symmetric with respect to (w.r.t.) the origin, convex, closed, bounded and has nonempty interior. Moreover, the 1-norm ball is a subset of the 2-norm ball which is a subset of $\infty$-norm ball, due to the following inequality:
$$
|\mathbf{v}|_{p} \leq|\mathbf{v}|_{q}
$$
where $\mathbf{v} \in \mathbb{R}^{n}, p$ and $q$ are real and $p>q \geq 1$, and the equality holds when $\mathbf{v}=$ re $_{i}$, i.e., all the $p$-norm balls of constant radius $r$ have intersections at $r \mathbf{e}{i}, i=$ $1, \ldots, n$. For instance, in Figure 1.1, $\left|\mathbf{x}{1}\right|_{p}=1$ for all $p \geq 1$, and $\left|\mathbf{x}{2}\right|{\infty}=1<$ $\left|\mathbf{x}{2}\right|{2}=\sqrt{2}<\left|\mathbf{x}{2}\right|{1}=2$. The inequality (1.17) is proven as follows.

数学代写|凸优化作业代写Convex Optimization代考|Interior point

A point $\mathbf{x}$ in a set $C \subseteq \mathbb{R}^{n}$ is an interior point of the set $C$ if there exists an $\epsilon>0$ for which $B(\mathbf{x}, \epsilon) \subseteq C$ (see Figure 1.3). In other words, a point $\mathbf{x} \in C$ is said to be an interior point of the set $C$ if the set $C$ contains some neighborhood of $\mathbf{x}$, that is, if all points within some neighborhood of $\mathbf{x}$ are also in $C$.

Remark $1.7$ The set of all the interior points of $C$ is called the interior of $C$ and is represented as int $C$, which can also be expressed as
$$
\text { int } C={\mathbf{x} \in C \mid B(\mathbf{x}, r) \subseteq C \text {, for some } r>0} \text {, }
$$
which will be frequently used in many proofs directly or indirectly in the ensuing chapters.
Complement, scaled sets, and sum of sets
The complement of a set $C \subset \mathbb{R}^{n}$ is defined as follows (see Figure 1.3):
$$
\mathbb{R}^{n} \backslash C=\left{\mathbf{x} \in \mathbb{R}^{n} \mid \mathbf{x} \notin C\right},
$$
where ” $\backslash$ ” denotes the set difference, i.e., $A \backslash B={\mathbf{x} \in A \mid \mathbf{x} \notin B}$. The set $C \subset$ $\mathbb{R}^{n}$ scaled by a real number $\alpha$ is a set defined as
$$
\alpha \cdot C \triangleq{\alpha \mathbf{x} \mid \mathbf{x} \in C}
$$

数学代写|凸优化作业代写Convex Optimization代考|CS 531

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Matrix norm

在数学中,矩阵范数是向量范数概念对矩阵的自然扩展。接下来介绍整本书所需的一些有用的矩阵范数。的 Frobenius 范数 $m \times n$ 矩阵 $\mathbf{A}$ 定义为
$$
|\mathbf{A}| \mathbf{F}=\left(\sum i=1^{m} \sum_{j=1}^{n}|[\mathbf{A}] i j|^{2}\right)^{1 / 2}=\sqrt{\operatorname{Tr}\left(\mathbf{A}^{T} \mathbf{A}\right)}
$$
在哪里
$$
\operatorname{Tr}(\mathbf{X})=\sum i=1^{n}[\mathbf{X}] i i
$$
表示方阵的迹 $\mathbf{X} \in \mathbb{R}^{n \times n}$. 作为 $n=1, \mathrm{~A}$ 减少为一个维度的列向量 $m$ 并且它的 Frobenius 范数也简化为向 量的 2 范数。另一类范数称为诱导范数或算子范数。假设 $|\cdot| a$ 和 $|\cdot| b$ 是关于 $\mathbb{R}^{m}$ 和 $\mathbb{R}^{n}$ ,分别。那么算子/ 诱导范数 $\mathbf{A} \in \mathbb{R}^{m \times n}$ ,由规范诱导 $|\cdot| a$ 和 ||$_{b}$ ,定义为
$\mid \backslash$ mathbf $A \mid-a, b=\backslash$ sup $\backslash$ left
在哪里 $\sup (C)$ 表示集合的最小上界 $C .$ 作为 $a=b$ ,我们简单地表示 $|\mathbf{A}| a, b$ 经过 $|\mathbf{A}| a$. 常用的诱导范数 $m \times n$ 矩阵如下面所述:
$|\mathbf{A}| 1=\max |\mathbf{u}| 1 \leq 1 \sum_{j=1}^{n} u_{j} \mathbf{a} j|1, \quad(a=b=1) \quad \leq \max | \mathbf{u}\left|1 \leq 1 \sum_{j=1}^{n}\right| u_{j}|\cdot| \mathbf{a} j \mid 1$ (by triangle in

数学代写|凸优化作业代写Convex Optimization代考|Inner product

两个实向量的内积 $\mathbf{x} \in \mathbb{R}^{n}$ 和 $\mathbf{y} \in \mathbb{R}^{n}$ 是实数标量,定义为
$$
\langle\mathbf{x}, \mathbf{y}\rangle=\mathbf{y}^{T} \mathbf{x}=\sum_{i=1}^{n} x_{i} y_{i}
$$
如果 $\mathbf{x}$ 和 $\mathbf{y}$ 是复数向量,则上式中的转置将被 Hermitian 代替。请注意,向量的内积的平方根 $\mathbf{x w i t h}$ 本身给 出了 该向量的欧几里得范数。
Cauchy-Schwartz 不等式:对于任意两个向量 $\mathbf{x}$ 和 $\mathbf{y}$ 在 $\mathbb{R}^{n}$ , CauchySchwartz 不等式
$$
|\langle\mathbf{x}, \mathbf{y}\rangle| \leq|\mathbf{x}| 2 \cdot|\mathbf{y}| 2
$$
持有。此外,等式成立当且仅当 $\mathbf{x}=\alpha \mathbf{y}$ 对于一些 $\alpha \in \mathbb{R}$. 勾股定理: 如果两个向量 $\mathbf{x}$ 和 $\mathbf{y}$ 在 $\mathbb{R}^{n}$ 是正交的, 即 $\langle\mathbf{x}, \mathbf{y}\rangle=0$, 然后
$$
|\mathbf{x}+\mathbf{y}| 2^{2}=(\mathbf{x}+\mathbf{y})^{T}(\mathbf{x}+\mathbf{y})=|\mathbf{x}| 2^{2}+2(\mathbf{x}, \mathbf{y}\rangle+|\mathbf{y}| 2^{2}=|\mathbf{x}| 2^{2}+|\mathbf{y}|_{2}^{2}
$$

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|EECS 559

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|EECS 559

数学代写|凸优化作业代写Convex Optimization代考|Matrix norm

In mathematics, a matrix norm is a natural extension of the notion of a vector norm to matrices. Some useful matrix norms needed throughout the book are introduced next.
The Frobenius norm of an $m \times n$ matrix $\mathbf{A}$ is defined as
$$
|\mathbf{A}|_{\mathrm{F}}=\left(\sum_{i=1}^{m} \sum_{j=1}^{n}\left|[\mathbf{A}]{i j}\right|^{2}\right)^{1 / 2}=\sqrt{\operatorname{Tr}\left(\mathbf{A}^{T} \mathbf{A}\right)} $$ where $$ \operatorname{Tr}(\mathbf{X})=\sum{i=1}^{n}[\mathbf{X}]_{i i}
$$
denotes the trace of a square matrix $\mathbf{X} \in \mathbb{R}^{n \times n}$. As $n=1$, A reduces to a column vector of dimension $m$ and its Frobenius norm also reduces to the 2 -norm of the vector.

The other class of norm is known as the induced norm or operator norm. Suppose that $|\cdot|_{a}$ and $|\cdot|_{b}$ are norms on $\mathbb{R}^{m}$ and $\mathbb{R}^{n}$, respectively. Then the operator/induced norm of $\mathbf{A} \in \mathbb{R}^{m \times n}$, induced by the norms $|\cdot|_{a}$ and $\left|_{\cdot}\right|_{b}$, is defined as
$$
|\mathbf{A}|_{a, b}=\sup \left{|\mathbf{A} \mathbf{u}|_{a} \mid|\mathbf{u}|_{b} \leq 1\right}
$$
where $\sup (C)$ denotes the least upper bound of the set $C$. As $a=b$, we simply denote $|\mathbf{A}|_{a, b}$ by $|\mathbf{A}|_{a}$.
Commonly used induced norms of an $m \times n$ matrix
$$
\mathbf{A}=\left{a_{i j}\right}_{m \times n}=\left[\mathbf{a}{1}, \ldots, \mathbf{a}{n}\right]
$$
are as follows:
$$
\begin{aligned}
|\mathbf{A}|_{1} &=\max {|\mathbf{u}|{1} \leq 1} \sum_{j=1}^{n} u_{j} \mathbf{a}{j} |{1}, \quad(a=b=1) \
& \leq \max {|\mathbf{u}|{1} \leq 1} \sum_{j=1}^{n}\left|u_{j}\right| \cdot\left|\mathbf{a}{j}\right|{1} \text { (by triangle inequality) } \
&=\max {1 \leq j \leq n}\left|\mathbf{a}{j}\right|_{1}=\max {1 \leq j \leq n} \sum{i=1}^{m}\left|a_{i j}\right|
\end{aligned}
$$

数学代写|凸优化作业代写Convex Optimization代考|Inner product

The inner product of two real vectors $\mathbf{x} \in \mathbb{R}^{n}$ and $\mathbf{y} \in \mathbb{R}^{n}$ is a real scalar and is defined as
$$
\langle\mathbf{x}, \mathbf{y}\rangle=\mathbf{y}^{T} \mathbf{x}=\sum_{i=1}^{n} x_{i} y_{i}
$$
If $\mathbf{x}$ and $\mathbf{y}$ are complex vectors, then the transpose in the above equation will be replaced by Hermitian. Note that the square root of the inner product of a vector $\mathbf{x}$ with itself gives the Euclidean norm of that vector.

Cauchy-Schwartz inequality: For any two vectors $\mathbf{x}$ and $\mathbf{y}$ in $\mathbb{R}^{n}$, the CauchySchwartz inequality
$$
|\langle\mathbf{x}, \mathbf{y}\rangle| \leq|\mathbf{x}|_{2} \cdot|\mathbf{y}|_{2}
$$
holds. Furthermore, the equality holds if and only if $\mathbf{x}=\alpha \mathbf{y}$ for some $\alpha \in \mathbb{R}$. Pythagorean theorem: If two vectors $\mathbf{x}$ and $\mathbf{y}$ in $\mathbb{R}^{n}$ are orthogonal, i.e., $\langle\mathbf{x}, \mathbf{y}\rangle=0$, then
$$
|\mathbf{x}+\mathbf{y}|_{2}^{2}=(\mathbf{x}+\mathbf{y})^{T}(\mathbf{x}+\mathbf{y})=|\mathbf{x}|_{2}^{2}+2(\mathbf{x}, \mathbf{y}\rangle+|\mathbf{y}|_{2}^{2}=|\mathbf{x}|_{2}^{2}+|\mathbf{y}|_{2}^{2}
$$

数学代写|凸优化作业代写Convex Optimization代考|EECS 559

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Matrix norm

在数学中,矩阵范数是向量范数概念对矩阵的自然扩展。接下来介绍整本书所需的一些有用的矩阵范数。 的 Frobenius 范数 $m \times n$ 矩阵 $\mathbf{A}$ 定义为
$$
|\mathbf{A}|{\mathrm{F}}=\left(\sum{i=1}^{m} \sum_{j=1}^{n}|[\mathbf{A}] i j|^{2}\right)^{1 / 2}=\sqrt{\operatorname{Tr}\left(\mathbf{A}^{T} \mathbf{A}\right)}
$$
在哪里
$$
\operatorname{Tr}(\mathbf{X})=\sum i=1^{n}[\mathbf{X}]{i i} $$ 表示方阵的迹 $\mathbf{X} \in \mathbb{R}^{n \times n}$. 作为 $n=1, \mathrm{~A}$ 减少为一个维度的列向量 $m$ 并且它的 Frobenius 范数也简化为向量的 2 范数。 另一类范数称为诱导范数或算子范数。假设 $|\cdot|{a}$ 和 $|\cdot|{b}$ 是关于 $\mathbb{R}^{m}$ 和 $\mathbb{R}^{n}$ ,分别。那么算子/诱导范数 $\mathbf{A} \in \mathbb{R}^{m \times n}$ ,由规范诱导 $|\cdot|{a}$ 和 ||$_{b}$ ,定义为
$\mid \backslash$ mathbf $\left.{A}\right|{-}{a, b}=\backslash$ sup $\backslash$ left $\left{\mid \backslash\right.$ mathbf ${A} \backslash$ mathbf $\left.{u}\right|{-}{a} \backslash$ mid $\mid \backslash$ mathbf $\left.{u}\right|{-}{b} \backslash l e q$ 1 右 $}$ 在哪里 $\sup (C)$ 表示集合的最小上界 $C$. 作为 $a=b$ ,我们简单地表示 $|\mathbf{A}|{a, b}$ 经过 $|\mathbf{A}|{a}$. 常用的诱导范数 $m \times n$ 矩阵 如下面所述: $$ |\mathbf{A}|{1}=\max |\mathbf{u}| 1 \leq 1 \sum_{j=1}^{n} u_{j} \mathbf{a} j|1, \quad(a=b=1) \quad \leq \max | \mathbf{u}\left|1 \leq 1 \sum_{j=1}^{n}\right| u_{j}|\cdot| \mathbf{a} j \mid 1 \text { (by triangle in }
$$

数学代写|凸优化作业代写Convex Optimization代考|Inner product

两个实向量的内积 $\mathbf{x} \in \mathbb{R}^{n}$ 和 $\mathbf{y} \in \mathbb{R}^{n}$ 是实数标量,定义为
$$
\langle\mathbf{x}, \mathbf{y}\rangle=\mathbf{y}^{T} \mathbf{x}=\sum_{i=1}^{n} x_{i} y_{i}
$$
如果 $\mathbf{x}$ 和 $\mathbf{y}$ 是复数向量,则上式中的转置将被 Hermitian 代替。请注意,向量的内积的平方根 $\mathbf{x w i t h}$ 本身给出了 该向量的欧几里得范数。
Cauchy-Schwartz 不等式:对于任意两个向量 $\mathbf{x}$ 和 $\mathbf{y}$ 在 $\mathbb{R}^{n}$, CauchySchwartz 不等式
$$
|\langle\mathbf{x}, \mathbf{y}\rangle| \leq|\mathbf{x}|{2} \cdot|\mathbf{y}|{2}
$$
持有。此外,等式成立当且仅当 $\mathbf{x}=\alpha \mathbf{y}$ 对于一些 $\alpha \in \mathbb{R}$. 勾股定理:如果两个向量 $\mathbf{x}$ 和 $\mathbf{y}$ 在 $\mathbb{R}^{n}$ 是正交的,即 $\langle\mathbf{x}, \mathbf{y}\rangle=0 ,$ 然后
$$
|\mathbf{x}+\mathbf{y}|{2}^{2}=(\mathbf{x}+\mathbf{y})^{T}(\mathbf{x}+\mathbf{y})=|\mathbf{x}|{2}^{2}+2(\mathbf{x}, \mathbf{y}\rangle+|\mathbf{y}|{2}^{2}=|\mathbf{x}|{2}^{2}+|\mathbf{y}|_{2}^{2}
$$

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|Quasiconvex functions

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|Quasiconvex functions

数学代写|凸优化作业代写Convex Optimization代考|Definition and examples

A function $f: \mathbb{R}^{n} \rightarrow \mathbb{R}$ is said to be quasiconvex if its domain and all its $\alpha$ sublevel sets defined as
$$
S_{a}={\mathbf{x} \mid \mathbf{x} \in \operatorname{dom} f, f(\mathbf{x}) \leq \alpha}
$$
(see Figure $3.8$ ) are convex for every $\alpha$. Moreover,

  • $f$ is quasiconvex if $f$ is convex since every sublevel set of convex functions is a convex set (cf. Remark 3.5), but the converse is not necessarily true.
  • $f$ is quasiconcave if $-f$ is quasiconvex. It is also true that $f$ is quasiconcave if its domain and all the $\alpha$-superlevel sets defined as
  • $$
  • \mathcal{S}_{\alpha}={\mathbf{x} \mid \mathbf{x} \in \operatorname{dom} f, f(\mathbf{x}) \geq \alpha}
  • $$
  • are convex for every $\alpha$.
  • $f$ is quasilinear if $f$ is both quasiconvex and quasiconcave.
  • The relationships among convex functions, quasiconvex functions, concave functions, and quasiconcave functions are illustrated in Figure 3.9.

数学代写|凸优化作业代写Convex Optimization代考|Modified Jensen’s inequality

A function $f: \mathbb{R}^{n} \rightarrow \mathbb{R}$ is quasiconvex if and only if
$$
f(\theta \mathbf{x}+(1-\theta) \mathbf{y}) \leq \max {f(\mathbf{x}), f(\mathbf{y})}
$$
for all $\mathbf{x}, \mathbf{y} \in \operatorname{dom} f$, and $0 \leq \theta \leq 1$ (see Figure $3.8$ ).
Proof: Let us prove the necessity followed by sufficiency.

  • Necessity: Let $\mathbf{x}, \mathbf{y} \in \operatorname{dom} f$. Choose $\alpha=\max {f(\mathbf{x}), f(\mathbf{y})}$. Then $\mathbf{x}, \mathbf{y} \in S_{\alpha}$. Since $f$ is quasiconvex by assumption, $S_{\alpha}$ is convex, that is, for $\theta \in[0,1]$,
    $$
    \begin{aligned}
    &\theta \mathbf{x}+(1-\theta) \mathbf{y} \in S_{\alpha} \
    &\Rightarrow f(\theta \mathbf{x}+(1-\theta) \mathbf{y}) \leq \alpha=\max {f(\mathbf{x}), f(\mathbf{y})}
    \end{aligned}
    $$
  • Sufficiency: For every $\alpha$, pick two points $\mathbf{x}, \mathbf{y} \in S_{\alpha} \Rightarrow f(\mathbf{x}) \leq \alpha, f(\mathbf{y}) \leq \alpha$. Since for $0 \leq \theta \leq 1, f(\theta \mathbf{x}+(1-\theta) \mathbf{y}) \leq \max {f(\mathbf{x}), f(\mathbf{y})} \leq \alpha($ by $(3.106))$, we have
    $$
    \theta \mathbf{x}+(1-\theta) \mathbf{y} \in S_{\alpha}
    $$
    Therefore, $S_{\alpha}$ is convex and thus the function $f$ is quasiconvex.
    Remark 3.33 $f$ is quasiconcave if and only if
    $$
    f(\theta \mathbf{x}+(1-\theta) \mathbf{y}) \geq \min {f(\mathbf{x}), f(\mathbf{y})}
    $$
    for all $\mathbf{x}, \mathbf{y} \in \operatorname{dom} f$, and $0 \leq \theta \leq 1$. This is also the modified Jensen’s inequality for quasiconcave functions. If the inequality (3.106) holds strictly for $0<\theta<1$, then $f$ is strictly quasiconvex. Similarly, if the inequality (3.107) holds strictly for $0<\theta<1$, then $f$ is strictly quasiconcave.
    Remark 3.34 Since the rank of a PSD matrix is quasiconcave,
    $$
    \operatorname{rank}(\mathbf{X}+\mathbf{Y}) \geq \min {\operatorname{rank}(\mathbf{X}), \operatorname{rank}(\mathbf{Y})}, \mathbf{X}, \mathbf{Y} \in \mathbb{S}{+}^{\mathrm{n}} $$ holds true. This can be proved by (3.107), by which we get $$ \operatorname{rank}(\theta \mathbf{X}+(1-\theta) \mathbf{Y}) \geq \min {\operatorname{rank}(\mathbf{X}), \operatorname{rank}(\mathbf{Y})} $$ for all $\mathbf{X} \in \mathbb{S}{+}^{n}, \mathbf{Y} \in \mathbb{S}_{+}^{n}$, and $0 \leq \theta \leq 1$. Then replacing $\mathbf{X}$ by $\mathbf{X} / \theta$ and $\mathbf{Y}$ by $\mathbf{Y} /(1-\theta)$ where $\theta \neq 0$ and $\theta \neq 1$ gives rise to (3.108).

Remark $3.35 \operatorname{card}(\mathbf{x}+\mathbf{y}) \geq \min {\operatorname{card}(\mathbf{x}), \operatorname{card}(\mathbf{y})}, \mathbf{x}, \mathbf{y} \in \mathbb{R}_{+}^{n}$. Similar to the proof of (3.108) in Remark $3.34$, this inequality can be shown to be true by using $(3.107)$ again, since $\operatorname{card}(\mathrm{x})$ is quasiconcave.

数学代写|凸优化作业代写Convex Optimization代考|First-order condition

Suppose that $f$ is differentiable. Then $f$ is quasiconvex if and only if dom $f$ is convex and for all $\mathbf{x}, \mathbf{y} \in \operatorname{dom} f$
$$
f(\mathbf{y}) \leq f(\mathbf{x}) \Rightarrow \nabla f(\mathbf{x})^{T}(\mathbf{y}-\mathbf{x}) \leq 0,
$$
that is, $\nabla f(\mathbf{x})$ defines a supporting hyperplane to the sublevel set
$$
S_{\alpha=f(\mathbf{x})}={\mathbf{y} \mid f(\mathbf{y}) \leq \alpha=f(\mathbf{x})}
$$
at the point $\mathbf{x}$ (see Figure 3.11). Moreover, the first-order condition given by (3.110) means that the first-order term in the Taylor series of $f(\mathbf{y})$ at the point $\mathbf{x}$ is no greater than zero whenever $f(\mathbf{y}) \leq f(\mathbf{x})$.
Proof: Let us prove the necessity followed by the sufficiency.

  • Necessity: Suppose $f(\mathbf{x}) \geq f(\mathbf{y})$. Then, by modified Jensen’s inequality, we have
    $$
    f(t \mathbf{y}+(1-t) \mathbf{x}) \leq f(\mathbf{x}) \text { for all } 0 \leq t \leq 1
    $$
    Therefore,
    $$
    \begin{aligned}
    \lim {t \rightarrow 0^{+}} \frac{f(\mathbf{x}+t(\mathbf{y}-\mathbf{x}))-f(\mathbf{x})}{t} &=\lim {t \rightarrow 0^{+}} \frac{1}{t}\left(f(\mathbf{x})+t \nabla f(\mathbf{x})^{T}(\mathbf{y}-\mathbf{x})-f(\mathbf{x})\right) \
    &=\nabla f(\mathbf{x})^{T}(\mathbf{y}-\mathbf{x}) \leq 0
    \end{aligned}
    $$
    where we have used the first-order Taylor series approximation in the first equality.
  • Sufficiency: Suppose that $f(\mathbf{x})$ is not quasiconvex. Then there exists a nonconvex sublevel set of $f$,
    $$
    S_{\alpha}={\mathbf{x} \mid f(\mathbf{x}) \leq \alpha},
    $$
    and two distinct points $\mathbf{x}{1}, \mathbf{x}{2} \in S_{\alpha}$ such that $\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2} \notin$ $S_{\alpha}$, for some $0<\theta<1$, i.e., $$ f\left(\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2}\right)>\alpha \text { for some } 0<\theta<1 . $$ Since $f$ is differentiable, hence continuous, (3.112) implies that, as illustrated in Figure 3.12, there exist distinct $\theta_{1}, \theta_{2} \in(0,1)$ such that $$ \begin{aligned} &f\left(\theta \mathbf{x}_{1}+(1-\theta) \mathbf{x}_{2}\right)>\alpha \text { for all } \theta_{1}<\theta<\theta_{2} \ &f\left(\theta_{1} \mathbf{x}{1}+\left(1-\theta{1}\right) \mathbf{x}{2}\right)=f\left(\theta{2} \mathbf{x}{1}+\left(1-\theta{2}\right) \mathbf{x}{2}\right)=\alpha . \end{aligned} $$ Let $\mathbf{x}=\theta{1} \mathbf{x}{1}+\left(1-\theta{1}\right) \mathbf{x}{2}$ and $\mathbf{y}=\theta{2} \mathbf{x}{1}+\left(1-\theta{2}\right) \mathbf{x}_{2}$, and so $$ f(\mathbf{x})=f(\mathbf{y})=\alpha, $$ and $$ g(t)=f(t \mathbf{y}+(1-t) \mathbf{x})>\alpha \text { for all } 0<t<1
    $$

is a differentiable function of $t$ and $\partial g(t) / \partial t>0$ for $t \in[0, \varepsilon)$ where $0<\varepsilon \ll 1$, as illustrated in Figure 3.12. Then, it can be inferred that $$ \begin{aligned} (1-t) \frac{\partial g(t)}{\partial t} &=\nabla f(\mathbf{x}+t(\mathbf{y}-\mathbf{x}))^{T}[(1-t)(\mathbf{y}-\mathbf{x})]>0 \text { for all } t \in[0, \varepsilon) \
&=\nabla f(\boldsymbol{x})^{T}(\mathbf{y}-\boldsymbol{x})>0 \text { for all } t \in[0, \varepsilon)
\end{aligned}
$$
where
$$
\begin{aligned}
\boldsymbol{x} &=\mathbf{x}+t(\mathbf{y}-\mathbf{x}), \quad t \in[0, \varepsilon] \
\Rightarrow g(t) &=f(\boldsymbol{x}) \geq f(\mathbf{y})=\alpha(\text { by }(3.113) \text { and }(3.114))
\end{aligned}
$$
Therefore, if $f$ is not quasiconvex, there exist $\boldsymbol{x}, \mathbf{y}$ such that $f(\mathbf{y}) \leq f(\boldsymbol{x})$ and $\nabla f(\boldsymbol{x})^{T}(\mathbf{y}-\boldsymbol{x})>0$, which contradicts with the implication (3.110). Thus we have completed the proof of sufficiency.

数学代写|凸优化作业代写Convex Optimization代考|Quasiconvex functions

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Definition and examples

一个函数F:Rn→R如果它的域及其所有一种子级别集定义为
小号一种=X∣X∈dom⁡F,F(X)≤一种
(见图3.8) 对每个都是凸的一种. 而且,

  • F是拟凸的,如果F是凸的,因为凸函数的每个子级集都是凸集(参见备注 3.5),但反过来不一定成立。
  • F是准凹的,如果−F是准凸的。这也是事实F是准凹的,如果它的域和所有一种-superlevel 集定义为
  • $$
  • \mathcal{S}_{\alpha}={\mathbf{x}\mid \mathbf{x}\in \operatorname{dom}f,f(\mathbf{x})\geq\alpha}
  • $$
  • 对每个都是凸的一种.
  • F是拟线性的,如果F既是拟凸的又是拟凹的。
  • 凸函数、拟凸函数、凹函数和拟凹函数之间的关系如图 3.9 所示。

数学代写|凸优化作业代写Convex Optimization代考|Modified Jensen’s inequality

一个函数F:Rn→R是拟凸的当且仅当
F(θX+(1−θ)是)≤最大限度F(X),F(是)
对全部X,是∈dom⁡F, 和0≤θ≤1(见图3.8)。
证明:让我们证明必要性,然后证明充分性。

  • 必要性:让X,是∈dom⁡F. 选择一种=最大限度F(X),F(是). 然后X,是∈小号一种. 自从F通过假设是准凸的,小号一种是凸的,也就是说,对于θ∈[0,1],
    θX+(1−θ)是∈小号一种 ⇒F(θX+(1−θ)是)≤一种=最大限度F(X),F(是)
  • 充足性:对于每个一种, 选取两点X,是∈小号一种⇒F(X)≤一种,F(是)≤一种. 因此0≤θ≤1,F(θX+(1−θ)是)≤最大限度F(X),F(是)≤一种(经过(3.106)), 我们有
    θX+(1−θ)是∈小号一种
    所以,小号一种是凸的,因此函数F是准凸的。
    备注 3.33F是准凹的当且仅当
    F(θX+(1−θ)是)≥分钟F(X),F(是)
    对全部X,是∈dom⁡F, 和0≤θ≤1. 这也是拟凹函数的修正 Jensen 不等式。如果不等式 (3.106) 严格成立0<θ<1, 然后F是严格准凸的。类似地,如果不等式 (3.107) 严格成立0<θ<1, 然后F是严格准凹的。
    备注 3.34 由于 PSD 矩阵的秩是拟凹的,
    秩⁡(X+是)≥分钟秩⁡(X),秩⁡(是),X,是∈小号+n成立。这可以由 (3.107) 证明,由此我们得到秩⁡(θX+(1−θ)是)≥分钟秩⁡(X),秩⁡(是)对全部X∈小号+n,是∈小号+n, 和0≤θ≤1. 然后更换X经过X/θ和是经过是/(1−θ)在哪里θ≠0和θ≠1产生 (3.108)。

评论3.35卡片⁡(X+是)≥分钟卡片⁡(X),卡片⁡(是),X,是∈R+n. 类似于 Remark 中 (3.108) 的证明3.34, 这个不等式可以通过使用来证明是正确的(3.107)再次,因为卡片⁡(X)是准凹的。

数学代写|凸优化作业代写Convex Optimization代考|First-order condition

假设F是可微的。然后F是拟凸的当且仅当 domF是凸的并且对于所有人X,是∈dom⁡F
F(是)≤F(X)⇒∇F(X)吨(是−X)≤0,
那是,∇F(X)为子水平集定义一个支持超平面
小号一种=F(X)=是∣F(是)≤一种=F(X)
在这一点上X(见图 3.11)。此外,由 (3.110) 给出的一阶条件意味着泰勒级数中的一阶项F(是)在这一点上X不大于零F(是)≤F(X).
证明:让我们证明必要性,然后证明充分性。

  • 必要性:假设F(X)≥F(是). 然后,通过修正 Jensen 不等式,我们有
    F(吨是+(1−吨)X)≤F(X) 对全部 0≤吨≤1
    所以,
    林吨→0+F(X+吨(是−X))−F(X)吨=林吨→0+1吨(F(X)+吨∇F(X)吨(是−X)−F(X)) =∇F(X)吨(是−X)≤0
    我们在第一个等式中使用了一阶泰勒级数近似。
  • 充分性:假设F(X)不是准凸的。那么存在一个非凸子水平集F,
    小号一种=X∣F(X)≤一种,
    和两个不同的点X1,X2∈小号一种这样θX1+(1−θ)X2∉ 小号一种, 对于一些0<θ<1, IE,F(θX1+(1−θ)X2)>一种 对于一些 0<θ<1.自从F是可微的,因此是连续的,(3.112) 意味着,如图 3.12 所示,存在不同的θ1,θ2∈(0,1)这样F(θX1+(1−θ)X2)>一种 对全部 θ1<θ<θ2 F(θ1X1+(1−θ1)X2)=F(θ2X1+(1−θ2)X2)=一种.让X=θ1X1+(1−θ1)X2和是=θ2X1+(1−θ2)X2, 所以F(X)=F(是)=一种,和G(吨)=F(吨是+(1−吨)X)>一种 对全部 0<吨<1

是一个可微函数吨和∂G(吨)/∂吨>0为了吨∈[0,e)在哪里0<e≪1,如图 3.12 所示。那么,可以推断出(1−吨)∂G(吨)∂吨=∇F(X+吨(是−X))吨[(1−吨)(是−X)]>0 对全部 吨∈[0,e) =∇F(X)吨(是−X)>0 对全部 吨∈[0,e)
在哪里
X=X+吨(是−X),吨∈[0,e] ⇒G(吨)=F(X)≥F(是)=一种( 经过 (3.113) 和 (3.114))
因此,如果F不是拟凸的,存在的X,是这样F(是)≤F(X)和∇F(X)吨(是−X)>0,这与蕴涵(3.110)相矛盾。至此,我们完成了充分性证明。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|Convexity preserving operations

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|Convexity preserving operations

数学代写|凸优化作业代写Convex Optimization代考|Nonnegative weighted sum

Let $f_{1}, \ldots, f_{m}$ be convex functions and $w_{1}, \ldots, w_{m} \geq 0$. Then $\sum_{i=1}^{m} w_{i} f_{i}$ is convex.

Proof: $\operatorname{dom}\left(\sum_{i=1}^{m} w_{i} f_{i}\right)=\bigcap_{i=1}^{m}$ dom $f_{i}$ is convex because dom $f_{i}$ is convex for all $i$. For $0 \leq \theta \leq 1$, and $\mathbf{x}, \mathbf{y} \in \operatorname{dom}\left(\sum_{i=1}^{m} w_{i} f_{i}\right)$, we have
$$
\begin{aligned}
\sum_{i=1}^{m} w_{i} f_{i}(\theta \mathbf{x}+(1-\theta) \mathbf{y}) & \leq \sum_{i=1}^{m} w_{i}\left(\theta f_{i}(\mathbf{x})+(1-\theta) f_{i}(\mathbf{y})\right) \
&=\theta \sum_{i=1}^{m} w_{i} f_{i}(\mathbf{x})+(1-\theta) \sum_{i=1}^{m} w_{i} f_{i}(\mathbf{y})
\end{aligned}
$$
Hence proved.
Remark 3.27 $f(\mathbf{x}, \mathbf{y})$ is convex in $\mathbf{x}$ for each $\mathbf{y} \in \mathcal{A}$ and $w(\mathbf{y}) \geq 0$. Then,
$$
g(\mathbf{x})=\int_{\mathcal{A}} w(\mathbf{y}) f(\mathbf{x}, \mathbf{y}) d \mathbf{y}
$$
is convex on $\bigcap_{y \in \mathcal{A}} \operatorname{dom} f$.
Composition with affine mapping
If $f: \mathbb{R}^{n} \rightarrow \mathbb{R}$ is a convex function, then for $\mathbf{A} \in \mathbb{R}^{n \times m}$ and $\mathbf{b} \in \mathbb{R}^{n}$, the function $g: \mathbb{R}^{m} \rightarrow \mathbb{R}$, defined as
$$
g(\mathbf{x})=f(\mathbf{A} \mathbf{x}+\mathbf{b}),
$$
is also convex and its domain can be expressed as
$$
\begin{aligned}
\operatorname{dom} g &=\left{\mathbf{x} \in \mathbb{R}^{m} \mid \mathbf{A} \mathbf{x}+\mathbf{b} \in \operatorname{dom} f\right} \
&=\left{\mathbf{A}^{\dagger}(\mathbf{y}-\mathbf{b}) \mid \mathbf{y} \in \mathbf{d o m} f\right}+\mathcal{N}(\mathbf{A}) \quad(\text { cf. }(2.62))
\end{aligned}
$$
which is also a convex set by Remark $2.9$.
Proof (using epigraph): Since $g(\mathbf{x})=f(\mathbf{A x}+\mathbf{b})$ and epi $f={(\mathbf{y}, t) \mid f(\mathbf{y}) \leq t}$, we have
$$
\text { epi } \begin{aligned}
g &=\left{(\mathbf{x}, t) \in \mathbb{R}^{m+1} \mid f(\mathbf{A} \mathbf{x}+\mathbf{b}) \leq t\right} \
&=\left{(\mathbf{x}, t) \in \mathbb{R}^{m+1} \mid(\mathbf{A} \mathbf{x}+\mathbf{b}, t) \in \mathbf{e p i} f\right}
\end{aligned}
$$

Now, define
$$
\mathcal{S}=\left{(\mathbf{x}, \mathbf{y}, t) \in \mathbb{R}^{m+n+1} \mid \mathbf{y}=\mathbf{A} \mathbf{x}+\mathbf{b}, f(\mathbf{y}) \leq t\right}
$$
so that
$$
\text { epi } g=\left{\left[\begin{array}{lll}
\mathbf{I}{m} & \mathbf{0}{m \times n} & \mathbf{0}{m} \ \mathbf{0}{m}^{T} & \mathbf{0}{\mathrm{n}}^{T} & 1 \end{array}\right](\mathbf{x}, \mathbf{y}, t) \mid(\mathbf{x}, \mathbf{y}, t) \in \mathcal{S}\right} $$ which is nothing but the image of $\mathcal{S}$ via an affine mapping. It can be easily shown, by the definition of convex sets, that $\mathcal{S}$ is convex if $f$ is convex. Therefore epi $g$ is convex (due to affine mapping from the convex set $\mathcal{S}$ ) implying that $g$ is convex (by Fact 3.2). Alternative proof: For $0 \leq \theta \leq 1$, we have $$ \begin{aligned} g\left(\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2}\right) &=f\left(\mathbf{A}\left(\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2}\right)+\mathbf{b}\right) \ &=f\left(\theta\left(\mathbf{A} \mathbf{x}{1}+\mathbf{b}\right)+(1-\theta)\left(\mathbf{A} \mathbf{x}{2}+\mathbf{b}\right)\right) \ & \leq \theta f\left(\mathbf{A} \mathbf{x}{1}+\mathbf{b}\right)+(1-\theta) f\left(\mathbf{A} \mathbf{x}{2}+\mathbf{b}\right) \ &=\theta g\left(\mathbf{x}{1}\right)+(1-\theta) g\left(\mathbf{x}_{2}\right)
\end{aligned}
$$
Moreover, dom $g$ (cf. (3.72)) is also a convex set, and so we conclude that $f(\mathbf{A} \mathbf{x}+\mathbf{b})$ is a convex function.

数学代写|凸优化作业代写Convex Optimization代考|Composition (scalar)

Suppose that $h: \operatorname{dom} h \rightarrow \mathbb{R}$ is a convex (concave) function and dom $h \subset \mathbb{R}^{n}$. The extended-value extension of $h$, denoted as $\tilde{h}$, with $\operatorname{dom} \tilde{h}=\mathbb{R}^{n}$ aids in simple representation as its domain is the entire $\mathbb{R}^{n}$, which need not be explicitly mentioned. The extended-valued function $\tilde{h}$ is a function taking the same value of $h(\mathbf{x})$ for $\mathbf{x} \in$ dom $h$, otherwise taking the value of $+\infty(-\infty)$. Specifically, if $h$ is convex,
$$
\tilde{h}(\mathbf{x})=\left{\begin{array}{l}
h(\mathbf{x}), \mathbf{x} \in \operatorname{dom} h \
+\infty, \mathbf{x} \notin \operatorname{dom} h
\end{array}\right.
$$
and if $h$ is concave,
$$
\tilde{h}(\mathbf{x})=\left{\begin{array}{l}
h(\mathbf{x}), \mathbf{x} \in \operatorname{dom} h \
-\infty, \mathbf{x} \notin \operatorname{dom} h
\end{array}\right.
$$
Then the extended-valued function $\tilde{h}$ does not affect the convexity (or concavity) of the original function $h$ and Eff-dom $\tilde{h}=$ Eff-dom $h$.

Some examples for illustrating properties of an extended-value extension of a function are as follows.

  • $h(x)=\log x$, $\operatorname{dom} h=\mathbb{R}_{++}$. Then $h(x)$ is concave and $\tilde{h}(x)$ is concave and nondecreasing.
  • $h(x)=x^{1 / 2}$, dom $h=\mathbb{R}_{+}$. Then $h(x)$ is concave and $\tilde{h}(x)$ is concave and nondecreasing.
  • In the function
    $$
    h(x)=x^{2}, x \geq 0,
    $$
    i.e., dom $h=\mathbb{R}_{+}, h(x)$ is convex and $\tilde{h}(x)$ is convex but neither nondecreasing nor nonincreasing.

Let $f(\mathbf{x})=h(g(\mathbf{x}))$, where $h: \mathbb{R} \rightarrow \mathbb{R}$ and $g: \mathbb{R}^{n} \rightarrow \mathbb{R}$. Then we have the following four composition rules about the convexity or concavity of $f$.
(a) $f$ is convex if $h$ is convex, $\bar{h}$ nondecreasing, and $g$ convex.
(3.76a)
(b) $f$ is convex if $h$ is convex, $\tilde{h}$ nonincreasing, and $g$ concave.
(3.76b)
(c) $f$ is concave if $h$ is concave, $\tilde{h}$ nondecreasing, and $g$ concave.
(3.76c)
(d) $f$ is concave if $h$ is concave, $\tilde{h}$ nonincreasing, and $g$ convex.
(3.76d)
Consider the case that $g$ and $h$ are twice differentiable and $\tilde{h}(x)=h(x)$. Then,
$$
\nabla f(\mathbf{x})=h^{\prime}(g(\mathbf{x})) \nabla g(\mathbf{x})
$$
and
$$
\begin{aligned}
\nabla^{2} f(\mathbf{x}) &=D(\nabla f(\mathbf{x}))=D\left(h^{\prime}(g(\mathbf{x})) \cdot \nabla g(\mathbf{x})\right) \quad(\text { by }(1.46)) \
&=\nabla g(\mathbf{x}) D\left(h^{\prime}(g(\mathbf{x}))\right)+h^{\prime}(g(\mathbf{x})) \cdot D(\nabla g(\mathbf{x})) \
&=h^{\prime \prime}(g(\mathbf{x})) \nabla g(\mathbf{x}) \nabla g(\mathbf{x})^{T}+h^{\prime}(g(\mathbf{x})) \nabla^{2} g(\mathbf{x})
\end{aligned}
$$
The composition rules (a) (cf. (3.76a)) and (b) (cf. (3.76b)) can be proven for convexity of $f$ by checking if $\nabla^{2} f(\mathbf{x}) \succeq \mathbf{0}$, and the composition rules (c) (cf. $(3.76 \mathrm{c}))$ and (d) (cf. $(3.76 \mathrm{~d}))$ for concavity of $f$ by checking if $\nabla^{2} f(\mathbf{x}) \preceq \mathbf{0}$. Let us conclude this subsection with a simple example.
Example $3.3$ Let $g(\mathbf{x})=|\mathbf{x}|_{2}$ (convex) and
$$
h(x)= \begin{cases}x^{2}, & x \geq 0 \ 0, & \text { otherwise }\end{cases}
$$
which is convex. So $\tilde{h}(x)=h(x)$ is nondecreasing. Then, $f(\mathbf{x})=h(g(\mathbf{x}))=$ $|\mathbf{x}|_{2}^{2}=\mathbf{x}^{T} \mathbf{x}$ is convex by $(3.76 \mathrm{a})$, or by the second-order condition $\nabla^{2} f(\mathbf{x})=$ $2 \mathbf{I}_{n} \succ \mathbf{0}, f$ is indeed convex.

数学代写|凸优化作业代写Convex Optimization代考|Pointwise minimum and infimum

If $f(\mathbf{x}, \mathbf{y})$ is convex in $(\mathbf{x}, \mathbf{y}) \in \mathbb{R}^{m} \times \mathbb{R}^{n}$ and $C \subset \mathbb{R}^{n}$ is convex and nonempty, then
$$
g(\mathbf{x})=\inf {\mathbf{y} \in C} f(\mathbf{x}, \mathbf{y}) $$ is convex, provided that $g(\mathbf{x})>-\infty$ for some $\mathbf{x}$. Similarly, if $f(\mathbf{x}, \mathbf{y})$ is concave in $(\mathbf{x}, \mathbf{y}) \in \mathbb{R}^{m} \times \mathbb{R}^{n}$, then $$ \tilde{g}(\mathbf{x})=\sup {\mathbf{y} \in C} f(\mathbf{x}, \mathbf{y})
$$
is concave provided that $C \subset \mathbb{R}^{n}$ is convex and nonempty and $\tilde{g}(\mathbf{x})<\infty$ for some $\mathbf{x}$. Next, we present the proof for the former.

Proof of (3.87): Since $f$ is continuous over int(dom $f$ ) (cf. Remark 3.7), for any $\epsilon>0$ and $\mathbf{x}{1}, \mathbf{x}{2} \in \operatorname{dom} g$, there exist $\mathbf{y}{1}, \mathbf{y}{2} \in C$ (depending on $\epsilon$ ) such that
$$
f\left(\mathbf{x}{i}, \mathbf{y}{i}\right) \leq g\left(\mathbf{x}{i}\right)+\epsilon, i=1,2 . $$ Let $\left(\mathbf{x}{1}, t_{1}\right),\left(\mathbf{x}{2}, t{2}\right) \in$ epi $g$. Then $g\left(\mathbf{x}{i}\right)=\inf {\mathbf{y} \in C} f\left(\mathbf{x}{i}, \mathbf{y}\right) \leq t{i}, i=1,2$. Then for any $\theta \in[0,1]$, we have
$$
\begin{aligned}
g\left(\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2}\right) &=\inf {\mathbf{y} \in C} f\left(\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2}, \mathbf{y}\right) \ & \leq f\left(\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2}, \theta \mathbf{y}{1}+(1-\theta) \mathbf{y}{2}\right) \ & \leq \theta f\left(\mathbf{x}{1}, \mathbf{y}{1}\right)+(1-\theta) f\left(\mathbf{x}{2}, \mathbf{y}{2}\right) \quad \text { (since } f \text { is convex) } \ & \leq \theta g\left(\mathbf{x}{1}\right)+(1-\theta) g\left(\mathbf{x}{2}\right)+\epsilon \quad \text { (by (3.89)) } \ & \leq \theta t{1}+(1-\theta) t_{2}+\epsilon .
\end{aligned}
$$
It can be seen that as $\epsilon \rightarrow 0, g\left(\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2}\right) \leq \theta t_{1}+(1-\theta) t_{2}$, implying $\left(\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2}, \theta t_{1}+(1-\theta) t_{2}\right) \in$ epi $g$. Hence epi $g$ is a convex set, and thus $g(\mathbf{x})$ is a convex function by Fact 3.2.

Alternative proof of (3.87): Because dom $g={\mathbf{x} \mid(\mathbf{x}, \mathbf{y}) \in \operatorname{dom} f, \mathbf{y} \in C}$ is the projection of the convex set ${(\mathbf{x}, \mathbf{y}) \mid(\mathbf{x}, \mathbf{y}) \in \operatorname{dom} f, \mathbf{y} \in C}$ on the $\mathbf{x}-$ coordinate, it must be a convex set (cf. Remark 2.11).

数学代写|凸优化作业代写Convex Optimization代考|Convexity preserving operations

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Nonnegative weighted sum

让F1,…,F米是凸函数和在1,…,在米≥0. 然后∑一世=1米在一世F一世是凸的。

证明:dom⁡(∑一世=1米在一世F一世)=⋂一世=1米domF一世是凸的,因为 domF一世对所有人都是凸的一世. 为了0≤θ≤1, 和X,是∈dom⁡(∑一世=1米在一世F一世), 我们有
∑一世=1米在一世F一世(θX+(1−θ)是)≤∑一世=1米在一世(θF一世(X)+(1−θ)F一世(是)) =θ∑一世=1米在一世F一世(X)+(1−θ)∑一世=1米在一世F一世(是)
因此证明。
备注 3.27F(X,是)是凸的X对于每个是∈一种和在(是)≥0. 然后,
G(X)=∫一种在(是)F(X,是)d是
是凸的⋂是∈一种dom⁡F.
具有仿射映射的组合
IfF:Rn→R是一个凸函数,那么对于一种∈Rn×米和b∈Rn, 功能G:R米→R, 定义为
G(X)=F(一种X+b),
也是凸的,其域可以表示为
\begin{aligned} \operatorname{dom} g &=\left{\mathbf{x} \in \mathbb{R}^{m} \mid \mathbf{A} \mathbf{x}+\mathbf{b} \in \operatorname{dom} f\right} \ &=\left{\mathbf{A}^{\dagger}(\mathbf{y}-\mathbf{b}) \mid \mathbf{y} \in \ mathbf{d o m} f\right}+\mathcal{N}(\mathbf{A}) \quad(\text { cf. }(2.62)) \end{aligned}\begin{aligned} \operatorname{dom} g &=\left{\mathbf{x} \in \mathbb{R}^{m} \mid \mathbf{A} \mathbf{x}+\mathbf{b} \in \operatorname{dom} f\right} \ &=\left{\mathbf{A}^{\dagger}(\mathbf{y}-\mathbf{b}) \mid \mathbf{y} \in \ mathbf{d o m} f\right}+\mathcal{N}(\mathbf{A}) \quad(\text { cf. }(2.62)) \end{aligned}
这也是 Remark 的凸集2.9.
证明(使用题词):因为G(X)=F(一种X+b)和外延F=(是,吨)∣F(是)≤吨, 我们有
\text { epi } \begin{aligned} g &=\left{(\mathbf{x}, t) \in \mathbb{R}^{m+1} \mid f(\mathbf{A} \mathbf{ x}+\mathbf{b}) \leq t\right} \ &=\left{(\mathbf{x}, t) \in \mathbb{R}^{m+1} \mid(\mathbf{A } \mathbf{x}+\mathbf{b}, t) \in \mathbf{e p i} f\right} \end{aligned}\text { epi } \begin{aligned} g &=\left{(\mathbf{x}, t) \in \mathbb{R}^{m+1} \mid f(\mathbf{A} \mathbf{ x}+\mathbf{b}) \leq t\right} \ &=\left{(\mathbf{x}, t) \in \mathbb{R}^{m+1} \mid(\mathbf{A } \mathbf{x}+\mathbf{b}, t) \in \mathbf{e p i} f\right} \end{aligned}

现在,定义
\mathcal{S}=\left{(\mathbf{x}, \mathbf{y}, t) \in \mathbb{R}^{m+n+1} \mid \mathbf{y}=\mathbf{ A} \mathbf{x}+\mathbf{b}, f(\mathbf{y}) \leq t\right}\mathcal{S}=\left{(\mathbf{x}, \mathbf{y}, t) \in \mathbb{R}^{m+n+1} \mid \mathbf{y}=\mathbf{ A} \mathbf{x}+\mathbf{b}, f(\mathbf{y}) \leq t\right}
以便
\text { epi } g=\left{\left[\begin{array}{lll} \mathbf{I}{m} & \mathbf{0}{m \times n} & \mathbf{0}{m} \ \mathbf{0}{m}^{T} & \mathbf{0}{\mathrm{n}}^{T} & 1 \end{array}\right](\mathbf{x}, \mathbf{ y}, t) \mid(\mathbf{x}, \mathbf{y}, t) \in \mathcal{S}\right}\text { epi } g=\left{\left[\begin{array}{lll} \mathbf{I}{m} & \mathbf{0}{m \times n} & \mathbf{0}{m} \ \mathbf{0}{m}^{T} & \mathbf{0}{\mathrm{n}}^{T} & 1 \end{array}\right](\mathbf{x}, \mathbf{ y}, t) \mid(\mathbf{x}, \mathbf{y}, t) \in \mathcal{S}\right}这不过是小号通过仿射映射。通过凸集的定义可以很容易地证明,小号是凸的,如果F是凸的。因此epiG是凸的(由于来自凸集的仿射映射小号) 暗示G是凸的(根据事实 3.2)。替代证明:对于0≤θ≤1, 我们有G(θX1+(1−θ)X2)=F(一种(θX1+(1−θ)X2)+b) =F(θ(一种X1+b)+(1−θ)(一种X2+b)) ≤θF(一种X1+b)+(1−θ)F(一种X2+b) =θG(X1)+(1−θ)G(X2)
此外,domG(cf. (3.72)) 也是一个凸集,因此我们得出结论F(一种X+b)是一个凸函数。

数学代写|凸优化作业代写Convex Optimization代考|Composition (scalar)

假设H:dom⁡H→R是凸(凹)函数和domH⊂Rn. 的外延值扩展H,记为H~, 和dom⁡H~=Rn有助于简单表示,因为它的域是整个Rn, 无需明确提及。扩展值函数H~是一个取相同值的函数H(X)为了X∈domH,否则取值为+∞(−∞). 具体来说,如果H是凸的,
$$
\tilde{h}(\mathbf{x})=\left{H(X),X∈dom⁡H +∞,X∉dom⁡H\对。
一种nd一世F$H$一世sC这nC一种在和,
\波浪号{h}(\mathbf{x})=\left{H(X),X∈dom⁡H −∞,X∉dom⁡H\对。
$$
然后是扩展值函数H~不影响原函数的凸度(或凹度)H和效应H~=效率H.

用于说明函数的扩展值扩展属性的一些示例如下。

  • H(X)=日志⁡X, dom⁡H=R++. 然后H(X)是凹的并且H~(X)是凹的且不减的。
  • H(X)=X1/2, 域H=R+. 然后H(X)是凹的并且H~(X)是凹的且不减的。
  • 在函数中
    H(X)=X2,X≥0,
    即,domH=R+,H(X)是凸的并且H~(X)是凸的,但既非非减也非非增。

让F(X)=H(G(X)), 在哪里H:R→R和G:Rn→R. 那么我们有以下四个关于凸或凹的组合规则F.
(一种)F是凸的,如果H是凸的,H¯非递减,并且G凸的。
(3.76a)
(b)F是凸的,如果H是凸的,H~不增加,和G凹。
(3.76b)
(c)F如果是凹的H是凹的,H~非递减,并且G凹。
(3.76c)
(d)F如果是凹的H是凹的,H~不增加,和G凸的。
(3.76d)
考虑以下情况G和H是两次可微的并且H~(X)=H(X). 然后,
∇F(X)=H′(G(X))∇G(X)

∇2F(X)=D(∇F(X))=D(H′(G(X))⋅∇G(X))( 经过 (1.46)) =∇G(X)D(H′(G(X)))+H′(G(X))⋅D(∇G(X)) =H′′(G(X))∇G(X)∇G(X)吨+H′(G(X))∇2G(X)
组合规则 (a) (cf. (3.76a)) 和 (b) (cf. (3.76b)) 可以证明F通过检查是否∇2F(X)⪰0, 和组成规则 (c) (cf.(3.76C))(d) (cf.(3.76 d))对于凹度F通过检查是否∇2F(X)⪯0. 让我们用一个简单的例子来结束这个小节。
例子3.3让G(X)=|X|2(凸)和
H(X)={X2,X≥0 0, 除此以外 
这是凸的。所以H~(X)=H(X)是不减的。然后,F(X)=H(G(X))= |X|22=X吨X是凸的(3.76一种),或通过二阶条件∇2F(X)= 2一世n≻0,F确实是凸的。

数学代写|凸优化作业代写Convex Optimization代考|Pointwise minimum and infimum

如果F(X,是)是凸的(X,是)∈R米×Rn和C⊂Rn是凸且非空的,那么
G(X)=信息是∈CF(X,是)是凸的,前提是G(X)>−∞对于一些X. 同样,如果F(X,是)是凹进去的(X,是)∈R米×Rn, 然后G~(X)=支持是∈CF(X,是)
是凹的,前提是C⊂Rn是凸的且非空的并且G~(X)<∞对于一些X. 接下来,我们给出前者的证明。

(3.87) 的证明:因为F在 int(dom 上是连续的F)(参见备注 3.7),对于任何ε>0和X1,X2∈dom⁡G, 存在是1,是2∈C(根据ε) 使得
F(X一世,是一世)≤G(X一世)+ε,一世=1,2.让(X1,吨1),(X2,吨2)∈和G. 然后G(X一世)=信息是∈CF(X一世,是)≤吨一世,一世=1,2. 那么对于任何θ∈[0,1], 我们有
G(θX1+(1−θ)X2)=信息是∈CF(θX1+(1−θ)X2,是) ≤F(θX1+(1−θ)X2,θ是1+(1−θ)是2) ≤θF(X1,是1)+(1−θ)F(X2,是2) (自从 F 是凸的)  ≤θG(X1)+(1−θ)G(X2)+ε (由(3.89))  ≤θ吨1+(1−θ)吨2+ε.
可以看出,作为ε→0,G(θX1+(1−θ)X2)≤θ吨1+(1−θ)吨2, 暗示(θX1+(1−θ)X2,θ吨1+(1−θ)吨2)∈和G. 因此epiG是一个凸集,因此G(X)是事实 3.2 的凸函数。

(3.87) 的替代证明:因为 domG=X∣(X,是)∈dom⁡F,是∈C是凸集的投影(X,是)∣(X,是)∈dom⁡F,是∈C在X−坐标,它必须是一个凸集(参见备注 2.11)。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|Convex Functions

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|Convex Functions

数学代写|凸优化作业代写Convex Optimization代考|Basic properties and examples of convex functions

Prior to introducing the definition, properties and various conditions of convex functions together with illustrative examples, we need to clarify the role of $+\infty$ and $-\infty$ for a function $f: \mathbb{R}^{n} \rightarrow \mathbb{R}$. In spite of $+\infty,-\infty \notin \mathbb{R}, f(\mathbf{x})$ is allowed to take a value of $+\infty$ or $-\infty$ for some $\mathrm{x} \in \operatorname{dom} f$, hereafter. For instance, the following functions
$f_{1}(\mathbf{x})=\left{\begin{array}{l}|\mathbf{x}|_{2}^{2},|\mathbf{x}|_{2} \leq 1 \ +\infty, \quad 1<|\mathbf{x}|_{2} \leq 2\end{array}, \quad\right.$ dom $f_{1}=\left{\mathbf{x} \in \mathbb{R}^{n} \mid|\mathbf{x}|_{2} \leq 2\right}$ $f_{2}(x)=\left{\begin{array}{l}-\infty, x=0 \ \log x, x>0\end{array}, \quad \operatorname{dom} f_{2}=\mathbb{R}{+}\right.$ are well-defined functions, and $f{1}$ is a convex function and $f_{2}$ is a concave function. The convexity of functions will be presented next in detail.
Definition and fundamental properties
A function $f: \mathbb{R}^{n} \rightarrow \mathbb{R}$ is said to be convex if the following conditions are satisfied

  • dom $f$ is convex.
  • For all $\mathbf{x}, \mathbf{y} \in \operatorname{dom} f, \theta \in[0,1]$.
    $$
    f(\theta \mathbf{x}+(1-\theta) \mathbf{y}) \leq \theta f(\mathbf{x})+(1-\theta) f(\mathbf{y})
    $$

A convex function basically looks like a faceup bowl as illustrated in Figure 3.1, and it may be differentiable, or continuous but nonsmooth or a nondifferentiable function (e.g., with some discontinuities or with $f(\mathbf{x})=+\infty$ for some $\mathbf{x}$ ). Note that for a given $\theta \in[0,1], \mathbf{z} \triangleq \theta \mathbf{x}+(1-\theta) \mathbf{y}$ is a point on the line segment from $\mathbf{x}$ to $\mathbf{y}$ with
$$
\frac{|\mathbf{z}-\mathbf{y}|_{2}}{|\mathbf{y}-\mathbf{x}|_{2}}=\theta \text {, and } \frac{|\mathbf{z}-\mathbf{x}|_{2}}{|\mathbf{y}-\mathbf{x}|_{2}}=1-\theta \text {, }
$$
and $f(\mathbf{z})$ is upper bounded by the sum of $100 \times \theta \%$ of $f(\mathbf{x})$ and $100 \times(1-\theta) \%$ of $f(\mathbf{y})$ (i.e., the closer (further) the $\mathbf{z}$ to $\mathbf{x}$, the larger (smaller) the contribution of $f(\mathbf{x})$ to the upper bound of $f(\mathbf{z})$, and this also applies to the contribution of $f(\mathbf{y})$ as shown in Figure 3.1). Note that when $\mathbf{z}$ is given instead of $\theta$, the value of $\theta$ in the upper bound of $f(\mathbf{z})$ can also be determined by (3.4). Various convex function examples will be provided in Subsection 3.1.4.

数学代写|凸优化作业代写Convex Optimization代考|First-order condition

Suppose that $f$ is differentiable. Then $f$ is convex if and only if $\operatorname{dom} f$ is convex and
$$
f(\mathbf{y}) \geq f(\mathbf{x})+\nabla f(\mathbf{x})^{T}(\mathbf{y}-\mathbf{x}) \quad \forall \mathbf{x}, \mathbf{y} \in \operatorname{dom} f
$$
This is called the first-order condition, which means that the first-order Taylor series approximation of $f(\mathbf{y})$ w.r.t. $\mathbf{y}=\mathbf{x}$ is always below the original function (see Figure $3.3$ for the one-dimensional case), i.e., the first-order condition (3.16) provides a tight lower bound (which is an affine function in $\mathbf{y}$ ) over the entire domain for a differentiable convex function. Moreover, it can be seen from (3.16) that
$$
f(\mathbf{y})=\max _{\mathbf{x} \in \operatorname{dom} f} f(\mathbf{x})+\nabla f(\mathbf{x})^{T}(\mathbf{y}-\mathbf{x}) \quad \forall \mathbf{y} \in \operatorname{dom} f
$$
For instance, as illustrated in Figure $3.3, f(b) \geq f(a)+f^{\prime}(a)(b-a)$ for any $a$ and the equality holds only when $a=b$. Next, let us prove the first-order condition.

Proof of (3.16): Let us prove the sufficiency followed by necessity.

  • Sufficiency: (i.e., if (3.16) holds, then $f$ is convex) From (3.16), we have, for all $\mathbf{x}, \mathbf{y}, \mathbf{z} \in \operatorname{dom} f$ which is convex and $0 \leq \lambda \leq 1$,
    $$
    \begin{aligned}
    f(\mathbf{y}) & \geq f(\mathbf{x})+\nabla f(\mathbf{x})^{T}(\mathbf{y}-\mathbf{x}), \
    f(\mathbf{z}) & \geq f(\mathbf{x})+\nabla f(\mathbf{x})^{T}(\mathbf{z}-\mathbf{x}), \
    \Rightarrow \lambda f(\mathbf{y})+(1-\lambda) f(\mathbf{z}) & \geq f(\mathbf{x})+\nabla f(\mathbf{x})^{T}(\lambda \mathbf{y}+(1-\lambda) \mathbf{z}-\mathbf{x}) .
    \end{aligned}
    $$

By setting $\mathbf{x}=\lambda \mathbf{y}+(1-\lambda) \mathbf{z} \in \operatorname{dom} f$ in the above inequality, we obtain $\lambda f(\mathbf{y})+(1-\lambda) f(\mathbf{z}) \geq f(\lambda \mathbf{y}+(1-\lambda) \mathbf{z})$. So $f$ is convex.

  • Necessity: (i.e., if $f$ is convex, then (3.16) holds) For $\mathbf{x}, \mathbf{y} \in \mathbf{d o m} f$ and $0 \leq$ $\lambda \leq 1$,
    $$
    \begin{aligned}
    f((1-\lambda) \mathbf{x}+\lambda \mathbf{y}) &=f(\mathbf{x}+\lambda(\mathbf{y}-\mathbf{x})) \
    &=f(\mathbf{x})+\lambda \nabla f(\mathbf{x}+\theta \lambda(\mathbf{y}-\mathbf{x}))^{T}(\mathbf{y}-\mathbf{x})
    \end{aligned}
    $$
    for some $\theta \in[0,1]$ (from the first-order expansion of Taylor series (1.53)). Since $f$ is convex, we have
    $$
    f((1-\lambda) \mathbf{x}+\lambda \mathbf{y}) \leq(1-\lambda) f(\mathbf{x})+\lambda f(\mathbf{y})
    $$
    Substituting (3.18) on the left-hand side of this inequality yields
    $$
    \lambda f(\mathbf{y}) \geq \lambda f(\mathbf{x})+\lambda \nabla f(\mathbf{x}+\theta \lambda(\mathbf{y}-\mathbf{x}))^{T}(\mathbf{y}-\mathbf{x})
    $$
    For $\lambda>0$, we get (after dividing by $\lambda$ ),
    $$
    \begin{aligned}
    f(\mathbf{y}) & \geq f(\mathbf{x})+\nabla f(\mathbf{x}+\theta \lambda(\mathbf{y}-\mathbf{x}))^{T}(\mathbf{y}-\mathbf{x}) \
    &=f(\mathbf{x})+\nabla f(\mathbf{x})^{T}(\mathbf{y}-\mathbf{x}) \quad\left(\text { as } \lambda \rightarrow 0^{+}\right)
    \end{aligned}
    $$
    because $\nabla f$ is continuous due to the fact that $f$ is differentiable and convex (cf. Remark $3.13$ below). Hence (3.16) has been proved.

数学代写|凸优化作业代写Convex Optimization代考|Second-order condition

Suppose that $f$ is twice differentiable. Then $f$ is convex if and only if dom $f$ is convex and the Hessian of $f$ is PSD for all $\mathbf{x} \in \operatorname{dom} f$, that is,
$$
\nabla^{2} f(\mathbf{x}) \succeq \mathbf{0}, \forall \mathbf{x} \in \operatorname{dom} f
$$
Proof: Let us prove the sufficiency followed by necessity.

  • Sufficiency: (i.e., if $\nabla^{2} f(\mathbf{x}) \succeq \mathbf{0}, \forall \mathbf{x} \in \operatorname{dom} f$, then $f$ is convex) From the second-order expansion of Taylor series of $f(\mathrm{x})$ (cf. (1.54)), we have
    $$
    \begin{aligned}
    f(\mathbf{x}+\mathbf{v}) &=f(\mathbf{x})+\nabla f(\mathbf{x})^{T} \mathbf{v}+\frac{1}{2} \mathbf{v}^{T} \nabla^{2} f(\mathbf{x}+\theta \mathbf{v}) \mathbf{v} \
    & \geq f(\mathbf{x})+\nabla f(\mathbf{x})^{T} \mathbf{v} \quad(\text { by }(3.27))
    \end{aligned}
    $$
    for some $\theta \in[0,1]$. Let $\mathbf{y}=\mathbf{x}+\mathbf{v}$, i.e., $\mathbf{v}=\mathbf{y}-\mathbf{x}$. Then we have
    $$
    f(\mathbf{y}) \geq f(\mathbf{x})+\nabla f(\mathbf{x})^{T}(\mathbf{y}-\mathbf{x})
    $$
    which is the exactly first-order condition for the convexity of $f(\mathbf{x})$, implying that $f$ is convex.
  • Necessity: Since $f(\mathbf{x})$ is convex, from the first-order condition we have
    $$
    f(\mathbf{x}+\mathbf{v}) \geq f(\mathbf{x})+\nabla f(\mathbf{x})^{T} \mathbf{v}
    $$
    which together with the second-order expansion of Taylor series of $f(\mathbf{x})$ given by (3.28) implies
    $$
    \mathbf{v}^{T} \nabla^{2} f(\mathbf{x}+\theta \mathbf{v}) \mathbf{v} \geq 0
    $$
    By letting $|\mathbf{v}|_{2} \rightarrow 0$, it can be inferred that $\nabla^{2} f(\mathbf{x}) \succeq \mathbf{0}$ because $\nabla^{2} f(\mathbf{x})$ is continuous for a convex twice differentiable function $f(\mathbf{x})$.

Remark 3.16 If the second-order condition given by (3.27) holds true with the strict inequality for all $\mathbf{x} \in \operatorname{dom} f$, the function $f$ is strictly convex; moreover, under the second-order condition given by (3.27) for the case that $f: \mathbb{R} \rightarrow \mathbb{R}$,

the first derivative $f^{\prime}$ must be continuous and nondecreasing if $f$ is convex, and continuous and strictly increasing if $f$ is strictly convex.

Remark $3.17$ (Strong convexity) A convex function $f$ is strongly convex on a set $C$ if there exists an $m>0$ such that either $\nabla^{2} f(\mathbf{x}) \succeq m \mathbf{I}$ for all $\mathbf{x} \in C$, or equivalently the following second-order condition holds true:
$$
f(\mathbf{y}) \geq f(\mathbf{x})+\nabla f(\mathbf{x})^{T}(\mathbf{y}-\mathbf{x})+\frac{m}{2}|\mathbf{y}-\mathbf{x}|_{2}^{2} \quad \forall \mathbf{x}, \mathbf{y} \in C
$$
which is directly implied from (3.28). So if $f$ is strongly convex, it must be strictly convex, but the reverse is not necessarily true.

数学代写|凸优化作业代写Convex Optimization代考|Convex Functions

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Basic properties and examples of convex functions

在介绍凸函数的定义、性质和各种条件以及举例说明之前,我们需要阐明凸函数的作用。+∞和−∞对于一个函数F:Rn→R. 尽管+∞,−∞∉R,F(X)允许取值+∞或者−∞对于一些X∈dom⁡F,以后。例如,以下函数
$f_{1}(\mathbf{x})=\left{|X|22,|X|2≤1 +∞,1<|X|2≤2, \四\右。d这米f_{1}=\left{\mathbf{x} \in \mathbb{R}^{n} \mid|\mathbf{x}|_{2} \leq 2\right}f_{2}(x)=\左{−∞,X=0 日志⁡X,X>0, \quad \operatorname{dom} f_{2}=\mathbb{R}{+}\right.一种r和在和ll−d和F一世n和dF在nC吨一世这ns,一种ndf{1}一世s一种C这n在和XF在nC吨一世这n一种ndf_{2}一世s一种C这nC一种在和F在nC吨一世这n.吨H和C这n在和X一世吨是这FF在nC吨一世这ns在一世llb和pr和s和n吨和dn和X吨一世nd和吨一种一世l.D和F一世n一世吨一世这n一种ndF在nd一种米和n吨一种lpr这p和r吨一世和s一种F在nC吨一世这nf: \mathbb{R}^{n} \rightarrow \mathbb{R}$ 如果满足以下条件,则称其为凸的

  • domF是凸的。
  • 对全部X,是∈dom⁡F,θ∈[0,1].
    F(θX+(1−θ)是)≤θF(X)+(1−θ)F(是)

凸函数基本上看起来像一个面朝上的碗,如图 3.1 所示,它可能是可微的、连续但非光滑或不可微的函数(例如,有一些不连续性或F(X)=+∞对于一些X)。请注意,对于给定的θ∈[0,1],和≜θX+(1−θ)是是线段上的一个点X到是和
|和−是|2|是−X|2=θ, 和 |和−X|2|是−X|2=1−θ, 
和F(和)上限为100×θ%的F(X)和100×(1−θ)%的F(是)(即,越接近(越远)和到X, 的贡献越大(越小)F(X)到上限F(和),这也适用于F(是)如图 3.1 所示)。请注意,当和给出而不是θ, 的价值θ在的上限F(和)也可以由(3.4)确定。3.1.4 小节将提供各种凸函数示例。

数学代写|凸优化作业代写Convex Optimization代考|First-order condition

假设F是可微的。然后F是凸的当且仅当dom⁡F是凸的并且
F(是)≥F(X)+∇F(X)吨(是−X)∀X,是∈dom⁡F
这称为一阶条件,这意味着一阶泰勒级数逼近F(是)写是=X总是低于原始函数(见图3.3对于一维情况),即一阶条件(3.16)提供了一个紧密的下界(这是一个仿射函数是) 在整个域上得到一个可微的凸函数。此外,从(3.16)可以看出
F(是)=最大限度X∈dom⁡FF(X)+∇F(X)吨(是−X)∀是∈dom⁡F
例如,如图所示3.3,F(b)≥F(一种)+F′(一种)(b−一种)对于任何一种并且等式仅在一种=b. 接下来,让我们证明一阶条件。

(3.16) 的证明:让我们证明充分性和必然性。

  • 充分性:(即,如果 (3.16) 成立,则F是凸的)从(3.16),我们有,对于所有X,是,和∈dom⁡F这是凸的并且0≤λ≤1,
    F(是)≥F(X)+∇F(X)吨(是−X), F(和)≥F(X)+∇F(X)吨(和−X), ⇒λF(是)+(1−λ)F(和)≥F(X)+∇F(X)吨(λ是+(1−λ)和−X).

通过设置X=λ是+(1−λ)和∈dom⁡F在上述不等式中,我们得到λF(是)+(1−λ)F(和)≥F(λ是+(1−λ)和). 所以F是凸的。

  • 必要性:(即,如果F是凸的,那么 (3.16) 成立)对于X,是∈d这米F和0≤ λ≤1,
    F((1−λ)X+λ是)=F(X+λ(是−X)) =F(X)+λ∇F(X+θλ(是−X))吨(是−X)
    对于一些θ∈[0,1](来自泰勒级数(1.53)的一阶展开式)。自从F是凸的,我们有
    F((1−λ)X+λ是)≤(1−λ)F(X)+λF(是)
    将 (3.18) 代入该不等式的左侧,得到
    λF(是)≥λF(X)+λ∇F(X+θλ(是−X))吨(是−X)
    为了λ>0,我们得到(除以λ ),
    F(是)≥F(X)+∇F(X+θλ(是−X))吨(是−X) =F(X)+∇F(X)吨(是−X)( 作为 λ→0+)
    因为∇F是连续的,因为F是可微的和凸的(参见备注3.13以下)。因此 (3.16) 已被证明。

数学代写|凸优化作业代写Convex Optimization代考|Second-order condition

假设F是二次可微的。然后F是凸的当且仅当 domF是凸的,而 Hessian 的F是所有人的PSDX∈dom⁡F, 那是,
∇2F(X)⪰0,∀X∈dom⁡F
证明:让我们证明充分性和必然性。

  • 充分性:(即,如果∇2F(X)⪰0,∀X∈dom⁡F, 然后F是凸的)从泰勒级数的二阶展开F(X)(参见(1.54)),我们有
    F(X+在)=F(X)+∇F(X)吨在+12在吨∇2F(X+θ在)在 ≥F(X)+∇F(X)吨在( 经过 (3.27))
    对于一些θ∈[0,1]. 让是=X+在, IE,在=是−X. 然后我们有
    F(是)≥F(X)+∇F(X)吨(是−X)
    这正是凸性的一阶条件F(X), 意味着F是凸的。
  • 必要性:因为F(X)是凸的,从我们有的一阶条件
    F(X+在)≥F(X)+∇F(X)吨在
    连同泰勒级数的二阶展开F(X)(3.28) 给出的暗示
    在吨∇2F(X+θ在)在≥0
    通过让|在|2→0, 可以推断出∇2F(X)⪰0因为∇2F(X)对于凸两次可微函数是连续的F(X).

备注 3.16 如果 (3.27) 给出的二阶条件在所有严格不等式的情况下成立X∈dom⁡F, 功能F是严格凸的;此外,在 (3.27) 给出的二阶条件下,F:R→R,

一阶导数F′必须是连续且非递减的,如果F是凸的,并且连续且严格递增,如果F是严格凸的。

评论3.17(强凸性)一个凸函数F在集合上是强凸的C如果存在一个米>0这样要么∇2F(X)⪰米一世对全部X∈C,或者等效地,以下二阶条件成立:
F(是)≥F(X)+∇F(X)吨(是−X)+米2|是−X|22∀X,是∈C
这直接从(3.28)中暗示。因此,如果F是强凸的,它必须是严格凸的,但反过来不一定是正确的。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|Separating and supporting hyperplanes

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|Separating and supporting hyperplanes

数学代写|凸优化作业代写Convex Optimization代考|Separating hyperplane theorem

Suppose that $C$ and $D$ are convex sets in $\mathbb{R}^{n}$ and $C \cap D=\emptyset$. Then there exists a hyperplane $H(\mathbf{a}, b)=\left{\mathbf{x} \mid \mathbf{a}^{T} \mathbf{x}=b\right}$ where $\mathbf{a} \in \mathbb{R}^{n}$ is a nonzero vector and $b \in \mathbb{R}$ such that
$$
C \subseteq H_{-}(\mathbf{a}, b) \text {, i.e., } \mathbf{a}^{T} \mathbf{x} \leq b, \forall \mathbf{x} \in C
$$
and
$$
D \subseteq H_{+}(\mathbf{a}, b), \text { i.e., } \mathbf{a}^{T} \mathbf{x} \geq b, \forall \mathbf{x} \in D
$$
Only the proof of (2.123) will be given below since the proof of (2.122) can be proven similarly. In the proof, we implicitly assume that the two convex sets $C$ and $D$ are closed without loss of generality. The reasons are that $\mathbf{c l} C$, int $C$, cl $D$, and int $D$ are also convex by Property $2.5$ in Subsection 2.1.4, and thus the same hyperplane that separates $\mathbf{c l} C$ (or int $C$ ) and $\mathbf{c l} D$ (or int $D$ ) can also separate $C$ and $D$.
Proof: Let
$$
\operatorname{dist}(C, D)=\inf \left{|\mathbf{u}-\mathbf{v}|_{2} \mid \mathbf{v} \in C, \mathbf{u} \in D\right} .
$$
Assume that $\operatorname{dist}(C, D)>0$, and that there exists a point $\mathbf{c} \in C$ and a point $\mathbf{d} \in D$ such that
$$
|\mathbf{c}-\mathbf{d}|_{2}=\operatorname{dist}(C, D)
$$
(as illustrated in Figure $2.20$ ). These assumptions will be satisfied if $C$ and $D$ are closed, and one of $C$ and $D$ is bounded. Note that it is possible that if both $C$ and $D$ are not bounded, such $\mathbf{c} \in C$ and $\mathbf{d} \in D$ may not exist. For instance, $C=\left{(x, y) \in \mathbb{R}^{2} \mid y \geq e^{-x}+1, x \geq 0\right}$ and $D=\left{(x, y) \in \mathbb{R}^{2} \mid y \leq-e^{-x}, x \geq 0\right}$ are convex, closed, and unbounded with $\operatorname{dist}(C, D)=1$, but $\mathbf{c} \in C$ and $\mathbf{d} \in D$ satisfying (2.125) do not exist.

数学代写|凸优化作业代写Convex Optimization代考|Supporting hyperplanes

For any nonempty convex set $C$ and for any $\mathbf{x}{0} \in \mathbf{b d} C$, there exists an $\mathbf{a} \neq \mathbf{0}$, such that $\mathbf{a}^{T} \mathbf{x} \leq \mathbf{a}^{T} \mathbf{x}{0}$, for all $\mathbf{x} \in C$; namely, the convex set $C$ is supported by

Proof: Assume that $C$ is a convex set, $A=$ int $C$ (which is open and convex), and $\mathbf{x}{0} \in \mathbf{b d} C$. Let $B=\left{\mathbf{x}{0}\right}$ (which is convex). Then $A \cap B=\emptyset$. By the separating hyperplane theorem, there exists a separating hyperplane $H={\mathbf{x} \mid$ $\left.\mathbf{a}^{T} \mathbf{x}=\mathbf{a}^{T} \mathbf{x}{0}\right}$ (since the distance between the set $A$ and the set $B$ is equal to zero), where $\mathbf{a} \neq \mathbf{0}$, between $A$ and $B$, such that $\mathbf{a}^{T}\left(\mathbf{x}-\mathbf{x}{0}\right) \leq 0$ for all $\mathbf{x} \in C$ (i.e., $C \subseteq H_{-}$by Remark $2.23$ ). Therefore, the hyperplane $H$ is a supporting hyperplane of the convex set $C$ which passes $\mathbf{x}_{0} \in$ bd $C$.

It is now easy to prove, by the supporting hyperplane theorem, that a closed convex set $S$ with int $S \neq \emptyset$ is the intersection of all (possibly an infinite number of) closed halfspaces that contain it (cf. Remark 2.8). Let
$$
\mathcal{H}\left(\mathbf{x}{0}\right) \triangleq\left{\mathbf{x} \mid \mathbf{a}^{T}\left(\mathbf{x}-\mathbf{x}{0}\right)=0\right}
$$
be a supporting hyperplane of $S$ passing $\mathbf{x}{0} \in \mathbf{b d} S$. This implies, by the hyperplane supporting theorem, that the associated closed halfspace $\mathcal{H}{-}\left(\mathbf{x}{0}\right)$, which contains the closed convex set $S$, is given by $$ \mathcal{H}{-}\left(\mathbf{x}{0}\right) \triangleq\left{\mathbf{x} \mid \mathbf{a}^{T}\left(\mathbf{x}-\mathbf{x}{0}\right) \leq 0\right}, \quad \mathbf{x}{0} \in \mathbf{b d} S $$ Thus it must be true that $$ S=\bigcap{\mathbf{x}{0} \in \mathbf{b d} S} \mathcal{H}{-}\left(\mathbf{x}{0}\right) $$ implying that a closed convex set $S$ can be defined by all of its supporting hyperplanes $\mathcal{H}\left(\mathrm{x}{0}\right)$, though the expression (2.136) may not be unique, thereby justifying Remark $2.8$. When the number of supporting halfspaces containing the closed convex set $S$ is finite, $S$ is a polyhedron. When $S$ is compact and convex,

the supporting hyperplane representation (2.136) can also be expressed as
$$
\left.S=\bigcap_{\mathbf{x}{0} \in S{\text {extr }}} \mathcal{H}{-}\left(\mathbf{x}{0}\right) \text { (cf. }(2.24)\right)
$$
where the intersection also contains those halfspaces whose boundaries may contain multiple extreme points of $S$. Let us conclude this section with the following three remarks.

数学代写|凸优化作业代写Convex Optimization代考|Summary and discussion

In this chapter, we have introduced convex sets and their properties (mostly geometric properties). Various convexity preserving operations were introduced together with many examples. In addition, the concepts of proper cones on which the generalized equality is defined, dual norms, and dual cones were introduced in detail. Finally, we presented the separating hyperplane theorem, which corroborates the existence of a hyperplane separating two disjoint convex sets, and the existence of the supporting hyperplane of any nonempty convex set. These fundamentals on convex sets along with convex functions to be introduced in the next chapter will be highly instrumental in understanding the concepts of convex optimization. The convex geometry properties introduced in this chapter have been applied to blind hyperspectral unmixing for material identification in remote sensing. Some will be introduced in Chapter 6 .

数学代写|凸优化作业代写Convex Optimization代考|Separating and supporting hyperplanes

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Separating hyperplane theorem

假设C和D是凸集Rn和C∩D=∅. 那么存在一个超平面H(\mathbf{a}, b)=\left{\mathbf{x} \mid \mathbf{a}^{T} \mathbf{x}=b\right}H(\mathbf{a}, b)=\left{\mathbf{x} \mid \mathbf{a}^{T} \mathbf{x}=b\right}在哪里一种∈Rn是一个非零向量并且b∈R这样
C⊆H−(一种,b), IE, 一种吨X≤b,∀X∈C

D⊆H+(一种,b), IE, 一种吨X≥b,∀X∈D
下面只给出 (2.123) 的证明,因为 (2.122) 的证明可以类似地证明。在证明中,我们隐含地假设两个凸集C和D在不失一般性的情况下是封闭的。原因是ClC, 整数C, 分类D, 和 intD按属性也是凸的2.5在 2.1.4 小节中,因此分离的同一个超平面ClC(或整数C) 和ClD(或整数D) 也可以分开C和D.
证明:让
\operatorname{dist}(C, D)=\inf \left{|\mathbf{u}-\mathbf{v}|_{2} \mid \mathbf{v} \in C, \mathbf{u} \在 D\right} 中。\operatorname{dist}(C, D)=\inf \left{|\mathbf{u}-\mathbf{v}|_{2} \mid \mathbf{v} \in C, \mathbf{u} \在 D\right} 中。
假使,假设距离⁡(C,D)>0, 并且存在一个点C∈C和一点d∈D这样
|C−d|2=距离⁡(C,D)
(如图所示2.20)。如果满足这些假设C和D关闭,并且其中之一C和D是有界的。请注意,如果两者都C和D没有界限,例如C∈C和d∈D可能不存在。例如,C=\left{(x, y) \in \mathbb{R}^{2} \mid y \geq e^{-x}+1, x \geq 0\right}C=\left{(x, y) \in \mathbb{R}^{2} \mid y \geq e^{-x}+1, x \geq 0\right}和D=\left{(x, y) \in \mathbb{R}^{2} \mid y \leq-e^{-x}, x \geq 0\right}D=\left{(x, y) \in \mathbb{R}^{2} \mid y \leq-e^{-x}, x \geq 0\right}是凸的、封闭的和无界的距离⁡(C,D)=1, 但C∈C和d∈D满足 (2.125) 不存在。

数学代写|凸优化作业代写Convex Optimization代考|Supporting hyperplanes

对于任何非空凸集C并且对于任何X0∈bdC, 存在一个一种≠0, 这样一种吨X≤一种吨X0, 对全部X∈C; 即凸集C支持

证明:假设C是一个凸集,一种=整数C(它是开放和凸的),和X0∈bdC. 让B=\left{\mathbf{x}{0}\right}B=\left{\mathbf{x}{0}\right}(这是凸的)。然后一种∩乙=∅. 根据分离超平面定理,存在一个分离超平面H={\mathbf{x} \mid$ $\left.\mathbf{a}^{T} \mathbf{x}=\mathbf{a}^{T} \mathbf{x}{0}\right}H={\mathbf{x} \mid$ $\left.\mathbf{a}^{T} \mathbf{x}=\mathbf{a}^{T} \mathbf{x}{0}\right}(由于集合之间的距离一种和集合乙等于零),其中一种≠0, 之间一种和乙, 这样一种吨(X−X0)≤0对全部X∈C(IE,C⊆H−按备注2.23)。因此,超平面H是凸集的支持超平面C通过X0∈BDC.

现在很容易证明,通过支持超平面定理,一个闭凸集小号带整数小号≠∅是包含它的所有(可能是无数个)封闭半空间的交集(参见备注 2.8)。让
\mathcal{H}\left(\mathbf{x}{0}\right) \triangleq\left{\mathbf{x} \mid \mathbf{a}^{T}\left(\mathbf{x}-\数学bf{x}{0}\right)=0\right}\mathcal{H}\left(\mathbf{x}{0}\right) \triangleq\left{\mathbf{x} \mid \mathbf{a}^{T}\left(\mathbf{x}-\数学bf{x}{0}\right)=0\right}
是一个支持超平面小号通过X0∈bd小号. 这意味着,通过超平面支持定理,相关的封闭半空间H−(X0),其中包含闭凸集小号, 是(谁)给的\mathcal{H}{-}\left(\mathbf{x}{0}\right) \triangleq\left{\mathbf{x} \mid \mathbf{a}^{T}\left(\mathbf{x }-\mathbf{x}{0}\right) \leq 0\right}, \quad \mathbf{x}{0} \in \mathbf{b d} S\mathcal{H}{-}\left(\mathbf{x}{0}\right) \triangleq\left{\mathbf{x} \mid \mathbf{a}^{T}\left(\mathbf{x }-\mathbf{x}{0}\right) \leq 0\right}, \quad \mathbf{x}{0} \in \mathbf{b d} S因此,它必须是真的小号=⋂X0∈bd小号H−(X0)暗示闭凸集小号可以由所有支持的超平面定义H(X0), 虽然表达式 (2.136) 可能不是唯一的, 从而证明了 Remark2.8. 当包含闭合凸集的支持半空间数小号是有限的,小号是一个多面体。什么时候小号是紧凑和凸的,

支持的超平面表示(2.136)也可以表示为
小号=⋂X0∈小号提取物 H−(X0) (参见 (2.24))
其中交集还包含那些边界可能包含多个极值点的半空间小号. 让我们用以下三个评论来结束本节。

数学代写|凸优化作业代写Convex Optimization代考|Summary and discussion

在本章中,我们介绍了凸集及其性质(主要是几何性质)。结合许多例子介绍了各种保凸性操作。此外,还详细介绍了定义广义等式的真锥、对偶范数和对偶锥等概念。最后,我们提出了分离超平面定理,它证实了分离两个不相交凸集的超平面的存在,以及任何非空凸集的支持超平面的存在。这些关于凸集的基础知识以及将在下一章中介绍的凸函数将有助于理解凸优化的概念。本章介绍的凸几何特性已应用于遥感材料识别的盲高光谱分解。一些将在第 6 章中介绍。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|Convexity preserving operations

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|Convexity preserving operations

数学代写|凸优化作业代写Convex Optimization代考|Intersection

If $S_{1}$ and $S_{2}$ are convex sets, then $S_{1} \cap S_{2}$ is also convex. This property extends to the intersection of an infinite number of convex sets, i.e., if $S_{a}$ is convex for every $\alpha \in \mathcal{A}$, then $\cap_{\alpha \in \mathcal{A}} S_{\alpha}$ is convex. Let us illuminate the usefulness of this convexity preserving operation with the following remarks and examples.

Remark 2.6 A polyhedron can be considered as intersection of a finite number of halfspaces and hyperplanes (which are convex) and hence the polyhedron is convex.

Remark 2.7 Subspaces are closed under arbitrary intersections; so are affine sets and convex cones. So they all are convex sets.

Remark 2.8 A closed convex set $S$ is the intersection of all (possibly an infinite number of) closed halfspaces that contain $S$. This can be proven by the separating hyperplane theory (to be introduced in Subsection 2.6.1).

Example 2.4 The PSD cone $\mathbb{S}{+}^{n}$ is known to be convex. The proof of its convexity by the intersection property is given as follows. It is easy to see that $S{+}^{n}$ can be expressed as
$$
\mathbb{S}{+}^{n}=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \mathbf{z}^{T} \mathbf{X} \mathbf{z} \geq 0, \forall \mathbf{z} \in \mathbb{R}^{n}\right}=\bigcap{\mathbf{z} \in \mathbb{R}^{n}} S_{\mathbf{z}}
$$
where
$$
\begin{aligned}
S_{\mathbf{z}} &=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \mathbf{z}^{T} \mathbf{X} \mathbf{z} \geq 0\right}=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \operatorname{Tr}\left(\mathbf{z}^{T} \mathbf{X} \mathbf{z}\right) \geq 0\right} \
&=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \operatorname{Tr}\left(\mathbf{X} \mathbf{z z}^{T}\right) \geq 0\right}=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \operatorname{Tr}(\mathbf{X} \mathbf{Z}) \geq 0\right}
\end{aligned}
$$
in which $\mathbf{Z}=\mathbf{z z}^{T}$, implying that $S_{\mathbf{z}}$ is a halfspace if $\mathbf{z} \neq \mathbf{0}{n}$. As the intersection of halfspaces is also convex, $\mathbb{S}{+}^{n}$ (intersection of infinite number of halfspaces) is a convex set. It is even easier to prove the convexity of $S_{\mathbf{z}}$ by the definition of convex sets.
Example 2.5 Consider
$$
P(\mathbf{x}, \omega)=\sum_{i=1}^{n} x_{i} \cos (i \omega)
$$
and a set
$$
\begin{aligned}
C &=\left{\mathbf{x} \in \mathbb{R}^{n} \mid l(\omega) \leq P(\mathbf{x}, \omega) \leq u(\omega) \quad \forall \omega \in \Omega\right} \
&=\bigcap_{\omega \in \Omega}\left{\mathbf{x} \in \mathbb{R}^{n} \mid l(\omega) \leq \sum_{i=1}^{n} x_{i} \cos (i \omega) \leq u(\omega)\right}
\end{aligned}
$$
Let
$$
\mathbf{a}(\omega)=[\cos (\omega), \cos (2 \omega), \ldots, \cos (n \omega)]^{T}
$$

Then we have
$C=\bigcap_{\omega \in \Omega}\left{\mathbf{x} \in \mathbb{R}^{n} \mid \mathbf{a}^{T}(\omega) \mathbf{x} \geq l(\omega), \mathbf{a}^{T}(\omega) \mathbf{x} \leq u(\omega)\right}$ (intersection of halfspaces), which implies that $C$ is convex. Note that the set $C$ is a polyhedron only when the set size $|\Omega|$ is finite.

数学代写|凸优化作业代写Convex Optimization代考|Affine function

A function $f: \mathbb{R}^{n} \rightarrow \mathbb{R}^{m}$ is affine if it takes the form
$$
\boldsymbol{f}(\mathbf{x})=\mathbf{A} \mathbf{x}+\mathbf{b}
$$
where $\mathbf{A} \in \mathbb{R}^{m \times n}$ and $\mathbf{b} \in \mathbb{R}^{m}$. The affine function, for which $\boldsymbol{f}$ (dom $\boldsymbol{f}$ ) is an affine set if dom $f$ is an affine set, also called the affine transformation or the affine mapping, has been implicitly used in defining the affine hull given by (2.7) in the preceding Subsection 2.1.2. It preserves points, straight lines, and planes, but not necessarily preserves angles between lines or distances between points. The affine mapping plays an important role in a variety of convex sets and convex functions, problem reformulations to be introduced in the subsequent chapters.
Suppose $S \subseteq \mathbb{R}^{n}$ is convex and $f: \mathbb{R}^{n} \rightarrow \mathbb{R}^{m}$ is an affine function (see Figure 2.12). Then the image of $S$ under $f$,
$$
f(S)={f(\mathbf{x}) \mid \mathbf{x} \in S}
$$
is convex. The converse is also true, i.e., the inverse image of the convex set $C$
$$
\boldsymbol{f}^{-1}(C)={\mathbf{x} \mid \boldsymbol{f}(\mathbf{x}) \in C}
$$
is convex. The proof is given below.
Proof: Let $\mathbf{y}{1}$ and $\mathbf{y}{2} \in C$. Then there exist $\mathbf{x}{1}$ and $\mathbf{x}{2} \in f^{-1}(C)$ such that $\mathbf{y}{1}=\mathbf{A} \mathbf{x}{1}+\mathbf{b}$ and $\mathbf{y}{2}=\mathbf{A} \mathbf{x}{2}+\mathbf{b}$. Our aim is to show that the set $f^{-1}(C)$, which is the inverse image of $\boldsymbol{f}$, is convex. For $\theta \in[0,1]$,
$$
\begin{aligned}
\theta \mathbf{y}{1}+(1-\theta) \mathbf{y}{2} &=\theta\left(\mathbf{A} \mathbf{x}{1}+\mathbf{b}\right)+(1-\theta)\left(\mathbf{A \mathbf { x } { 2 }}+\mathbf{b}\right) \
&=\mathbf{A}\left(\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2}\right)+\mathbf{b} \in C
\end{aligned}
$$
which implies that $\theta \mathbf{x}{1}+(1-\theta) \mathbf{x}{2} \in f^{-1}(C)$, and that the convex combination of $\mathbf{x}{1}$ and $\mathbf{x}{2}$ is in $f^{-1}(C)$, and hence $f^{-1}(C)$ is convex.

Remark 2.9 If $S_{1} \subset \mathbb{R}^{n}$ and $S_{2} \subset \mathbb{R}^{n}$ are convex and $\alpha_{1}, \alpha_{2} \in \mathbb{R}$, then the set $S=\left{(\mathbf{x}, \mathbf{y}) \mid \mathbf{x} \in S_{1}, \mathbf{y} \in S_{2}\right}$ is convex. Furthermore, the set
$$
\alpha_{1} S_{1}+\alpha_{2} S_{2}=\left{\mathbf{z}=\alpha_{1} \mathbf{x}+\alpha_{2} \mathbf{y} \mid \mathbf{x} \in S_{1}, \mathbf{y} \in S_{2}\right} \quad(\text { cf. (1.22) and (1.23)) }
$$
is also convex (since this set can be thought of as the image of the convex set $S$ through the affine mapping given by (2.58) from $S$ to $\alpha_{1} S_{1}+\alpha_{2} S_{2}$ with

数学代写|凸优化作业代写Convex Optimization代考|Perspective function and linear-fractional function

Linear-fractional functions are functions which are more general than affine but still preserve convexity. The perspective function scales or normalizes vectors so that the last component is one, and then drops the last component.

The perspective function $\boldsymbol{p}: \mathbb{R}^{n+1} \rightarrow \mathbb{R}^{n}$, with $\operatorname{dom} \boldsymbol{p}=\mathbb{R}^{n} \times \mathbb{R}{++}$, is defined as $$ \boldsymbol{p}(\mathbf{z}, t)=\frac{\mathbf{z}}{t} . $$ The perspective function $\boldsymbol{p}$ preserves the convexity of the convex set. Proof: Consider two points $\left(\mathbf{z}{1}, t_{1}\right)$ and $\left(\mathbf{z}{2}, t{2}\right)$ in a convex set $C$ and so $\mathbf{z}{1} / t{1}$ and $\mathbf{z}{2} / t{2} \in \boldsymbol{p}(C)$. Then
$$
\theta\left(\mathbf{z}{1}, t{1}\right)+(1-\theta)\left(\mathbf{z}{2}, t{2}\right)=\left(\theta \mathbf{z}{1}+(1-\theta) \mathbf{z}{2}, \theta t_{1}+(1-\theta) t_{2}\right) \in C,
$$
for any $\theta \in[0,1]$ implying
$$
\frac{\theta \mathbf{z}{1}+(1-\theta) \mathbf{z}{2}}{\theta t_{1}+(1-\theta) t_{2}} \in \boldsymbol{p}(C)
$$
Now, by defining
$$
\mu=\frac{\theta t_{1}}{\theta t_{1}+(1-\theta) t_{2}} \in[0,1],
$$
we get
$$
\frac{\theta \mathbf{z}{1}+(1-\theta) \mathbf{z}{2}}{\theta t_{1}+(1-\theta) t_{2}}=\mu \frac{\mathbf{z}{1}}{t{1}}+(1-\mu) \frac{\mathbf{z}{2}}{t{2}} \in \boldsymbol{p}(C),
$$
which implies $\boldsymbol{p}(C)$ is convex.
A linear-fractional function is formed by composing the perspective function with an affine function. Suppose $\boldsymbol{g}: \mathbb{R}^{n} \rightarrow \mathbb{R}^{m+1}$ is affine, i.e.,
$$
\boldsymbol{g}(\mathbf{x})=\left[\begin{array}{c}
\mathbf{A} \
\mathbf{c}^{T}
\end{array}\right] \mathbf{x}+\left[\begin{array}{l}
\mathbf{b} \
d
\end{array}\right]
$$

where $\mathbf{A} \in \mathbb{R}^{m \times n}, \mathbf{b} \in \mathbb{R}^{m}, \mathbf{c} \in \mathbb{R}^{n}$, and $d \in \mathbb{R}$. The function $\boldsymbol{f}: \mathbb{R}^{n} \rightarrow \mathbb{R}^{m}$ is given by $f=\boldsymbol{p} \circ \boldsymbol{g}$, i.e.,
$$
\boldsymbol{f}(\mathbf{x})=\boldsymbol{p}(\boldsymbol{g}(\mathbf{x}))=\frac{\mathbf{A} \mathbf{x}+\mathbf{b}}{\mathbf{c}^{T} \mathbf{x}+d}, \quad \operatorname{dom} \boldsymbol{f}=\left{\mathbf{x} \mid \mathbf{c}^{T} \mathbf{x}+d>0\right},
$$
is called a linear-fractional (or projective) function. Hence, linear-fractional functions preserve the convexity.

数学代写|凸优化作业代写Convex Optimization代考|Convexity preserving operations

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Intersection

如果小号1和小号2是凸集,那么小号1∩小号2也是凸的。这个性质扩展到无限数量的凸集的交集,即,如果小号一种对每个都是凸的一种∈一种, 然后∩一种∈一种小号一种是凸的。让我们用下面的评论和例子来说明这种保持凸性的操作的有用性。

备注 2.6 多面体可以被认为是有限数量的半空间和超平面(它们是凸的)的交集,因此多面体是凸的。

备注 2.7 子空间在任意交点下是封闭的;仿射集和凸锥也是如此。所以它们都是凸集。

备注 2.8 闭凸集小号是所有(可能是无数个)封闭半空间的交集,包含小号. 这可以通过分离超平面理论来证明(将在 2.6.1 小节中介绍)。

示例 2.4 PSD 锥体小号+n已知是凸的。通过交集性质对其凸性的证明如下。很容易看出小号+n可以表示为
\mathbb{S}{+}^{n}=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \mathbf{z}^{T} \mathbf{X} \mathbf {z} \geq 0, \forall \mathbf{z} \in \mathbb{R}^{n}\right}=\bigcap{\mathbf{z} \in \mathbb{R}^{n}} S_ {\mathbf{z}}\mathbb{S}{+}^{n}=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \mathbf{z}^{T} \mathbf{X} \mathbf {z} \geq 0, \forall \mathbf{z} \in \mathbb{R}^{n}\right}=\bigcap{\mathbf{z} \in \mathbb{R}^{n}} S_ {\mathbf{z}}
在哪里
\begin{aligned} S_{\mathbf{z}} &=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \mathbf{z}^{T} \mathbf{X} \mathbf{z} \geq 0\right}=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \operatorname{Tr}\left(\mathbf{z}^{T} \mathbf{X} \mathbf{z}\right) \geq 0\right} \ &=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \operatorname{Tr}\left (\mathbf{X} \mathbf{z z}^{T}\right) \geq 0\right}=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \operatorname{Tr }(\mathbf{X} \mathbf{Z}) \geq 0\right} \end{对齐}\begin{aligned} S_{\mathbf{z}} &=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \mathbf{z}^{T} \mathbf{X} \mathbf{z} \geq 0\right}=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \operatorname{Tr}\left(\mathbf{z}^{T} \mathbf{X} \mathbf{z}\right) \geq 0\right} \ &=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \operatorname{Tr}\left (\mathbf{X} \mathbf{z z}^{T}\right) \geq 0\right}=\left{\mathbf{X} \in \mathbb{S}^{n} \mid \operatorname{Tr }(\mathbf{X} \mathbf{Z}) \geq 0\right} \end{对齐}
其中从=和和吨, 意味着小号和是一个半空格如果和≠0n. 由于半空间的交集也是凸的,小号+n(无限个半空间的交集)是一个凸集。更容易证明凸性小号和根据凸集的定义。
例 2.5 考虑
磷(X,ω)=∑一世=1nX一世因⁡(一世ω)
和一套
\begin{aligned} C &=\left{\mathbf{x} \in \mathbb{R}^{n} \mid l(\omega) \leq P(\mathbf{x}, \omega) \leq u (\omega) \quad \forall \omega \in \Omega\right} \ &=\bigcap_{\omega \in \Omega}\left{\mathbf{x} \in \mathbb{R}^{n} \ mid l(\omega) \leq \sum_{i=1}^{n} x_{i} \cos (i \omega) \leq u(\omega)\right} \end{对齐}\begin{aligned} C &=\left{\mathbf{x} \in \mathbb{R}^{n} \mid l(\omega) \leq P(\mathbf{x}, \omega) \leq u (\omega) \quad \forall \omega \in \Omega\right} \ &=\bigcap_{\omega \in \Omega}\left{\mathbf{x} \in \mathbb{R}^{n} \ mid l(\omega) \leq \sum_{i=1}^{n} x_{i} \cos (i \omega) \leq u(\omega)\right} \end{对齐}

一种(ω)=[因⁡(ω),因⁡(2ω),…,因⁡(nω)]吨

然后我们有
C=\bigcap_{\omega \in \Omega}\left{\mathbf{x} \in \mathbb{R}^{n} \mid \mathbf{a}^{T}(\omega) \mathbf{x } \geq l(\omega), \mathbf{a}^{T}(\omega) \mathbf{x} \leq u(\omega)\right}C=\bigcap_{\omega \in \Omega}\left{\mathbf{x} \in \mathbb{R}^{n} \mid \mathbf{a}^{T}(\omega) \mathbf{x } \geq l(\omega), \mathbf{a}^{T}(\omega) \mathbf{x} \leq u(\omega)\right}(半空间的交集),这意味着C是凸的。请注意,集C仅当设定大小时才为多面体|Ω|是有限的。

数学代写|凸优化作业代写Convex Optimization代考|Affine function

一个函数F:Rn→R米如果它采用形式是仿射的
F(X)=一种X+b
在哪里一种∈R米×n和b∈R米. 仿射函数,其中F(domF) 是一个仿射集,如果 domF是一个仿射集,也称为仿射变换或仿射映射,已隐式用于定义前面 2.1.2 小节中 (2.7) 给出的仿射壳。它保留点、直线和平面,但不一定保留线之间的角度或点之间的距离。仿射映射在各种凸集和凸函数中发挥着重要作用,问题重构将在后续章节中介绍。
认为小号⊆Rn是凸的并且F:Rn→R米是一个仿射函数(见图 2.12)。然后的图像小号在下面F,
F(小号)=F(X)∣X∈小号
是凸的。反之亦然,即凸集的逆像C
F−1(C)=X∣F(X)∈C
是凸的。证明如下。
证明:让是1和是2∈C. 那么存在X1和X2∈F−1(C)这样是1=一种X1+b和是2=一种X2+b. 我们的目标是证明集合F−1(C),这是F, 是凸的。为了θ∈[0,1],
θ是1+(1−θ)是2=θ(一种X1+b)+(1−θ)(一种X2+b) =一种(θX1+(1−θ)X2)+b∈C
这意味着θX1+(1−θ)X2∈F−1(C), 并且凸组合X1和X2在F−1(C), 因此F−1(C)是凸的。

备注 2.9 如果小号1⊂Rn和小号2⊂Rn是凸的并且一种1,一种2∈R,那么集合S=\left{(\mathbf{x}, \mathbf{y}) \mid \mathbf{x} \in S_{1}, \mathbf{y} \in S_{2}\right}S=\left{(\mathbf{x}, \mathbf{y}) \mid \mathbf{x} \in S_{1}, \mathbf{y} \in S_{2}\right}是凸的。此外,该集
\alpha_{1} S_{1}+\alpha_{2} S_{2}=\left{\mathbf{z}=\alpha_{1} \mathbf{x}+\alpha_{2} \mathbf{y} \mid \mathbf{x} \in S_{1}, \mathbf{y} \in S_{2}\right} \quad(\text { 参见 (1.22) 和 (1.23)) }\alpha_{1} S_{1}+\alpha_{2} S_{2}=\left{\mathbf{z}=\alpha_{1} \mathbf{x}+\alpha_{2} \mathbf{y} \mid \mathbf{x} \in S_{1}, \mathbf{y} \in S_{2}\right} \quad(\text { 参见 (1.22) 和 (1.23)) }
也是凸的(因为这个集合可以被认为是凸集的图像小号通过 (2.58) 给出的仿射映射从小号到一种1小号1+一种2小号2和

数学代写|凸优化作业代写Convex Optimization代考|Perspective function and linear-fractional function

线性分数函数是比仿射更一般但仍保持凸性的函数。透视函数对向量进行缩放或归一化,使最后一个分量为 1,然后丢弃最后一个分量。

透视函数p:Rn+1→Rn, 和dom⁡p=Rn×R++, 定义为p(和,吨)=和吨.透视函数p保持凸集的凸性。证明:考虑两点(和1,吨1)和(和2,吨2)在凸集C所以和1/吨1和和2/吨2∈p(C). 然后
θ(和1,吨1)+(1−θ)(和2,吨2)=(θ和1+(1−θ)和2,θ吨1+(1−θ)吨2)∈C,
对于任何θ∈[0,1]暗示
θ和1+(1−θ)和2θ吨1+(1−θ)吨2∈p(C)
现在,通过定义
μ=θ吨1θ吨1+(1−θ)吨2∈[0,1],
我们得到
θ和1+(1−θ)和2θ吨1+(1−θ)吨2=μ和1吨1+(1−μ)和2吨2∈p(C),
这意味着p(C)是凸的。
通过将透视函数与仿射函数组合形成线性分数函数。认为G:Rn→R米+1是仿射的,即
G(X)=[一种 C吨]X+[b d]

在哪里一种∈R米×n,b∈R米,C∈Rn, 和d∈R. 功能F:Rn→R米是(谁)给的F=p∘G, IE,
\boldsymbol{f}(\mathbf{x})=\boldsymbol{p}(\boldsymbol{g}(\mathbf{x}))=\frac{\mathbf{A} \mathbf{x}+\mathbf{ b}}{\mathbf{c}^{T} \mathbf{x}+d}, \quad \operatorname{dom} \boldsymbol{f}=\left{\mathbf{x} \mid \mathbf{c} ^{T} \mathbf{x}+d>0\right},\boldsymbol{f}(\mathbf{x})=\boldsymbol{p}(\boldsymbol{g}(\mathbf{x}))=\frac{\mathbf{A} \mathbf{x}+\mathbf{ b}}{\mathbf{c}^{T} \mathbf{x}+d}, \quad \operatorname{dom} \boldsymbol{f}=\left{\mathbf{x} \mid \mathbf{c} ^{T} \mathbf{x}+d>0\right},
称为线性分数(或投影)函数。因此,线性分数函数保留了凸性。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写