数学代写|数值分析代写numerical analysis代考|Constrained Optimization

如果你也在 怎样代写数值分析numerical analysis这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

数值分析是数学的一个分支,使用数字近似法解决连续问题。它涉及到设计能给出近似但精确的数字解决方案的方法,这在精确解决方案不可能或计算成本过高的情况下很有用。

statistics-lab™ 为您的留学生涯保驾护航 在代写数值分析numerical analysis方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写数值分析numerical analysis代写方面经验极为丰富,各种代写数值分析numerical analysis相关的作业也就用不着说。

我们提供的数值分析numerical analysis及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础

数学代写|数值分析代写numerical analysis代考|Constrained Optimization

Constrained optimization can be represented most abstractly in terms of a feasible set, often denoted $\Omega \subseteq \mathbb{R}^n$ :
(8.6.1) $\min _x f(x) \quad$ subject to $x \in \Omega$
Solutions exist if $f$ is continuous and either $\Omega$ is a compact (closed and bounded) subset of $\mathbb{R}^n$, or if $\Omega$ is closed and $f$ is coercive. Usually $\Omega$ is represented by equations and inequalities:
(8.6.2) $\Omega=\left{\boldsymbol{x} \in \mathbb{R}^n \mid g_i(\boldsymbol{x})=0\right.$ for $i \in \mathcal{E}$, and $g_i(\boldsymbol{x}) \geq 0$ for $\left.i \in \mathcal{I}\right}$.
If $\mathcal{I}$ is empty but $\mathcal{E}$ is not empty, then we say (8.6.1) is an equality constrained optimization problem. If $\mathcal{I}$ is non-empty, we say (8.6.1) is an inequality constrained optimization problem.

For a general constrained optimization problem, first-order conditions can be given in terms of the tangent cone
$(8.6 .3)$
$$
T_{\Omega}(\boldsymbol{x})=\left{\lim _{k \rightarrow \infty} \frac{\boldsymbol{x}_k-\boldsymbol{x}}{t_k} \mid \boldsymbol{x}_k \in \Omega, \boldsymbol{x}_k \rightarrow \boldsymbol{x} \text { as } k \rightarrow \infty \text {, and } t_k \downarrow 0 \text { as } k \rightarrow \infty\right}
$$

Lemma 8.19 If $\boldsymbol{x}=x^$ minimizes $f(x)$ over $\boldsymbol{x} \in \Omega$ and $f$ is differentiable at $\boldsymbol{x}^$, then
(8.6.4) $\nabla f\left(x^\right)^T d \geq 0 \quad$ for all $d \in T_{\Omega}\left(x^\right)$.
Proof Suppose $x=x^* \in \Omega$ minimizes $f(x)$ over $x \in \Omega$ and $f$ is differentiable. Then for any $\boldsymbol{d} \in T_{\Omega}\left(\boldsymbol{x}^\right)$, there is a sequence $\boldsymbol{x}k \rightarrow \boldsymbol{x}^$ as $k \rightarrow \infty$ with $\boldsymbol{x}_k \in \Omega$ where $\boldsymbol{d}_k:=\left(\boldsymbol{x}_k-\boldsymbol{x}^\right) / t_k \rightarrow \boldsymbol{d}$ as $k \rightarrow \infty$. Since $f\left(\boldsymbol{x}^\right) \leq f\left(\boldsymbol{x}_k\right)=f\left(\boldsymbol{x}^+t_k \boldsymbol{d}_k\right)$, $$ 0 \leq \lim {k \rightarrow \infty} \frac{f\left(x^+t_k \boldsymbol{d}k\right)-f\left(x^\right)}{t_k}=\nabla f\left(x^\right)^T \lim {k \rightarrow \infty} \boldsymbol{d}k=\nabla f\left(x^\right)^T \boldsymbol{d} . $$ This holds for any $d \in T{\Omega}\left(x^\right)$ showing (8.6.4), as we wanted.
Constraint qualifications relate the tangent cone $T_{\Omega}(\boldsymbol{x})$ to the linearizations of the constraint functions:
$$
\begin{aligned}
& C_{\Omega}(\boldsymbol{x})=\left{\boldsymbol{d} \in \mathbb{R}^n \mid \nabla g_i(\boldsymbol{x})^T \boldsymbol{d}=0 \text { for all } i \in \mathcal{E},\right. \
& \left.\quad \nabla g_i(\boldsymbol{x})^T \boldsymbol{d} \geq 0 \text { for all } i \in \mathcal{I} \text { where } g_i(\boldsymbol{x})=0\right} .
\end{aligned}
$$
For equality constrained optimization $(\mathcal{I}=\emptyset)$, the LICQ (8.1.2) implies that $T_{\Omega}(\boldsymbol{x})=C_{\Omega}(\boldsymbol{x})$ as noted in Section 8.1.3.

数学代写|数值分析代写numerical analysis代考|Equality Constrained Optimization

The theory of Section 8.1.3 for Lagrange multipliers and equality constrained optimization (8.1.5) can be immediately turned into a numerical method. To solve
$$
\begin{aligned}
& \mathbf{0}=\nabla f(\boldsymbol{x})-\sum_{i \in \mathcal{E}} \lambda_i \nabla g(\boldsymbol{x}) \
& 0=g_i(\boldsymbol{x}), \quad i \in \mathcal{E}
\end{aligned}
$$
for $(\boldsymbol{x}, \boldsymbol{\lambda})$ with $\boldsymbol{\lambda}=\left[\lambda_i \mid i \in \mathcal{E}\right]$ we can apply, for example, Newton’s method. For unconstrained optimization, we can then perform a line search to ensure that the step improves the solution estimate. The issue in constrained optimization is that $f(\boldsymbol{x})$ alone is no longer suitable for measuring improvements. Constrained optimization problems have two objectives: staying on the feasible set, and minimizing $f(\boldsymbol{x})$. It may be necessary to increase $f(\boldsymbol{x})$ in order to return to the feasible set. Solving the Newton equations for $(8.6 .5,8.6 .6)$ gives a direction $\boldsymbol{d}$. Because of the curvature of the feasible set $\Omega$ for general functions $g_i$, moving in the direction $\boldsymbol{d}$ even if $\boldsymbol{x}$ is feasible may take the point $\boldsymbol{x}+s \boldsymbol{d}$ off the feasible set. This can be offset by having a second order correction step to move back toward the feasible set. This second order correction uses a least squares version of Newton’s method to solve $g(\boldsymbol{x})=\mathbf{0}$.

Since this is an under-determined system for $|\mathcal{E}|<n$, we find the solution $\delta \boldsymbol{x}$ for $\nabla g_i(\boldsymbol{x})^T \delta \boldsymbol{x}=-g_i(\boldsymbol{x}), i \in \mathcal{E}$, that minimizes $|\delta \boldsymbol{x}|_2$, which can be done using the QR factorization of $\left[\nabla g_i(\boldsymbol{x}) \mid i \in \mathcal{E}\right]$.

For line search algorithms, we can use a merit function to determine the quality of the result of the step. Often, merit functions of the form $\boldsymbol{x} \mapsto f(\boldsymbol{x})+\alpha \sum_{i \in \mathcal{E}}\left|g_i(\boldsymbol{x})\right|$ are used where $\alpha>\max _{i \in \mathcal{E}}\left|\lambda_i\right|$. A basic method for solving equality constrained optimization problems is shown in Algorithm 82.

If the second-order correction is skipped, then the Newton method may fail to give rapid convergence, as was noted by N. Maratos in his PhD thesis [170].

数值分析代考

数学代写|数值分析代写numerical analysis代考|Constrained Optimization

约束优化可以用可行集最抽象地表示,通常表示为 $\Omega \subseteq \mathbb{R}^n$ :
(8.6.1) $\min x f(x) \quad$ 受制于 $x \in \Omega$ 如果存在解决方案 $f$ 是连续的,并且 $\Omega$ 是一个紧凑的(封闭和有界的) 子集 $\mathbb{R}^n$ ,或者如果 $\Omega$ 关闭并且 $f$ 是强制性的。通常 $\Omega$ 由方程式和不等式表示: $(8.6 .2)$ \Omega $=\backslash$ \eft $\left{\backslash\right.$ boldsymbol ${x} \backslash$ in $\backslash m a t h b b{R} \wedge n \backslash m i d g _i(\wedge b o l d s y m b o l{x})=0 \backslash r i g h t . \$$ 对于 $\$ i \backslash$ in $\backslash m a t h c a \mid{E} \$$ 和 如果 $\mathcal{I}$ 是空的但是 $\mathcal{E}$ 不为空,那么我们说 (8.6.1) 是一个等式约束优化问题。如果 $\mathcal{I}$ 是非空的,我们说 (8.6.1) 是一个不等式约束优化问题。 对于一般的约束优化问题,可以根据切锥给出一阶条件 $T{_} _{\backslash \text { omega }}($ boldsymbol ${x})=\backslash$ left ${\backslash$ lim_{k $\backslash$ rightarrow $\backslash$ infty $} \backslash f r a c\left{\backslash b o l d s y m b o l{x} _k-l b o l d s y m b o l{x}\right}\left{t _k\right} \backslash m i$
证明假设 $x=x^* \in \Omega$ 最小化 $f(x)$ 超过 $x \in \Omega$ 和 $f$ 是可微分的。然后对于任何
Iboldsymbol{x}k \rightarrow \boldsymbol{{x}^ 作为 $k \rightarrow \infty$ 和 $x_k \in \Omega$ 在哪里
$k \rightarrow \infty$. 自从
这适用于任何 $d \backslash$ in $T{\backslash O m e g a} \backslash$ left( $\left.x^{\wedge} \backslash r i g h t\right)$ 显示 (8.6.4),如我们所愿。
约束条件与切锥相关 $T_{\Omega}(x)$ 约束函数的线性化:
\begin{aligned } } \text { \& C_{१Omega } } ( \backslash b o l d s y m b o l { x } ) = \backslash \text { left } { \text { boldsymbol{d } } \text { in } \backslash m a t h b b { R } ^ { \wedge } n \backslash m i d \backslash \text { nabla g_i(\boldsy }
对于等式约束优化 $(\mathcal{I}=\emptyset) ,$ LICQ (8.1.2) 意味着 $T_{\Omega}(\boldsymbol{x})=C_{\Omega}(\boldsymbol{x})$ 如第 8.1.3 节所述。

数学代写|数值分析代写numerical analysis代考|Equality Constrained Optimization

8.1.3 节关于拉格朗日乘数和等式约束优化 (8.1.5) 的理论可以立即转化为数值方法。解决
$$
\mathbf{0}=\nabla f(\boldsymbol{x})-\sum_{i \in \mathcal{E}} \lambda_i \nabla g(\boldsymbol{x}) \quad 0=g_i(\boldsymbol{x}), \quad i \in \mathcal{E}
$$
为了 $(\boldsymbol{x}, \boldsymbol{\lambda})$ 和 $\boldsymbol{\lambda}=\left[\lambda_i \mid i \in \mathcal{E}\right]$ 例如,我们可以应用牛顿法。对于无约束优化,我们可以执行线搜索以 确保该步骙改进解估计。约束优化的问题是 $f(\boldsymbol{x})$ 单独不再适合衡量改进。约束优化问题有两个目标:保 持在可行集上,并最小化 $f(\boldsymbol{x})$. 可能需要增加 $f(\boldsymbol{x})$ 为了回到可行集。求解牛顿方程 $(8.6 .5,8.6 .6)$ 给出 方向 $\boldsymbol{d}$. 由于可行集的曲率 $\Omega$ 用于一般功能 $g_i$, 朝着这个方向移动 $\boldsymbol{d}$ 即使 $\boldsymbol{x}$ 可行可以拿点 $\boldsymbol{x}+s \boldsymbol{d}$ 脱离可行 集。这可以通过使用二阶校正步骙返回可行集来抵消。此二阶校正使用牛顿法的最小二乘法来求解 $g(\boldsymbol{x})=\mathbf{0}$
因为这是一个欠定的系统 $|\mathcal{E}|2$ ,这可以使用 QR 因式分解来完成 $\left[\nabla g_i(\boldsymbol{x}) \mid i \in \mathcal{E}\right]$. 对于线搜索算法,我们可以使用评价函数来确定步骤结果的质量。通常,形式的评价函数 $\boldsymbol{x} \mapsto f(\boldsymbol{x})+\alpha \sum{i \in \mathcal{E}}\left|g_i(\boldsymbol{x})\right|$ 在哪里使用 $\alpha>\max _{i \in \mathcal{E}}\left|\lambda_i\right|$. 算法 82 显示了解决等式约束优化问题的 基本方法。
如果跳过二阶校正,那么牛顿法可能无法提供快速收敛,正如 N. Maratos 在他的博士论文 [170] 中指出 的那样。

数学代写|数值分析代写numerical analysis代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注