分类: 凸优化作业代写

数学代写|凸优化作业代写Convex Optimization代考|CPD131

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|CPD131

数学代写|凸优化作业代写Convex Optimization代考|Multi-Objective P-Algorithm

In this section, a single-objective global optimization algorithm, based on a statistical model of multimodal functions, namely the P-algorithm, is generalized for the case of black-box multi-objective optimization. For the axiomatic definition of statistical models of multimodal black-box functions and the single-objective Palgorithm, we refer to [242, 243].

The minimization is considered at the $n+1$-st minimization step. The points where the objective functions were computed are denoted by $\mathbf{x}i, i=1, \ldots, n$, and the corresponding objective vectors are denoted by $\mathbf{y}_i=\mathbf{f}\left(\mathbf{x}_i\right) ; \mathbf{y}_i=\left(y{i 1}, \ldots, y_{i m}\right)$. Based on the discussion in the previous section, the vector-valued Gaussian random field
$$
\Xi(\mathbf{x}) \in \mathbb{R}^m, \mathbf{x} \in \mathbf{A} \subset \mathbb{R}^d,
$$ is accepted as a model of the vector objective function. In the frame of that model, an unknown vector of objectives $\mathbf{f}(\mathbf{x}), \mathbf{x} \neq \mathbf{x}i, i=1, \ldots, n$, is interpreted as a random vector whose distribution is defined by the conditional distribution function of $\Xi(\mathbf{x})$ $$ \Pi_x^n(\mathbf{t})=P\left{\Xi(\mathbf{x}) \leq \mathbf{t} \mid \Xi\left(\mathbf{x}_i\right)=\mathbf{y}_i, i=1, \ldots, n\right} . $$ The choice of the current observation point, i.e., of the point where to compute the vector of objectives at the current minimization step, is a decision under uncertainty. The statistical model (7.2) represents the uncertainty in a result of the decision. With respect to the statistical model (7.2), the choice of the current observation point $\mathbf{x}{n+1} \in \mathbf{A}$ means a choice of a distribution function from the set of distribution functions $\Pi_x^n(\cdot), \quad \mathbf{x} \in \mathbf{A}$. To justify the choice, the methodology of rational decision making under uncertainty can be applied. If the preference of choice satisfies the rationality principles, then there exists a unique (to within a linear transformation) utility function $U(\cdot)$ compatible with the preference of choice [58]:
$$
\Pi_x^n(\cdot) \succ \Pi_z^n(\cdot) \text { iff } \int_{-\infty}^{\infty} \ldots \int_{-\infty}^{\infty} U(\mathbf{t}) \cdot d \Pi_x^n(\mathbf{t}) \geq \int_{-\infty}^{\infty} \ldots \int_{-\infty}^{\infty} U(\mathbf{t}) \cdot d \Pi_z^n(\mathbf{t}) .
$$
The problem of selection of a utility function for the case of single-objective minimization $\left(\min _{\mathbf{x} \in \mathbf{A}} f(\mathbf{x})\right)$ was considered in [243]. The classical axioms of rational decision making (see, e.g., $[58,182]$ ) are reformulated in terms of the rationality of search for the global minimum in [243], where it has also been shown that the following utility function
$$
u(t)=1 \text {, for } t \leq y^n \text {, and } u(t)=0 \text {, for } t>y^n
$$
is compatible with these axioms; $y^n$ denotes an improvement threshold: a new function value at the current step is considered an improvement if it is smaller than $y^n ; y^n<y_i, i=1, \ldots, n ; y_i=f\left(\mathbf{x}_i\right)$ are the function values computed at previous minimization steps.

数学代写|凸优化作业代写Convex Optimization代考|Multi-Objective Algorithm

In this section, a recently proposed approach [250] constructing multi-objective optimization algorithms, induced by the rational decision theory, is considered. The properties, to be satisfied by a rational decision concerning the current optimization step, are postulated. These properties are inherent for several well-known singleobjective optimization algorithms, e.g., for the P-algorithm [243]. The proposed approach, from a new more general perspective, substantiates the single-objective P-algorithm. For the multi-objective optimization, this approach not only constitutes a new, more general, substantiation of the known algorithms but also facilitates construction of a family of algorithms, similar in a sense to the multi-objective P-algorithm.

Let us consider the current minimization step, where $n$ function values have been computed at the previous steps: $y_i=f\left(\mathbf{x}_i\right), i=1, \ldots, n$. A rational choice of a point for the next computation of the objective function value cannot be performed without the assessment of the uncertainty in the result of the computation. The only objective information on $f(\cdot)$ is $\mathbf{x}_i, y_i, i=1, \ldots, n$. Besides that objective information, normally some subjective information is available, e.g., the experience of solution of similar problems in the past. As shown in [242], very general assumptions on the rational perception of uncertainty imply a random variable model for the objective function value to be computed, i.e. those assumptions imply that a random variable $\xi_x, \mathbf{x} \in \mathbf{A}, \mathbf{x} \neq \mathbf{x}_i, i=1, \ldots, n$, is acceptable as a statistical model of the unknown value of the objective function $f(\mathbf{x})$. We refer to $[216,239]$ for the axiomatic construction of a computationally simple statistical model of objective functions. In case a stochastic function is chosen as a statistical model of $f(\cdot)$, the corresponding random variable is defined by the conditional distribution of this stochastic function.

Let us consider the choice of a point for the current computation of the objective function value. Such a choice in the black-box situation is a decision under uncertainty, and the rational decision theory [58] can be applied to make the choice rationally. The theory suggests to make a decision by maximizing the average utility. To compute the average utility, a utility function is needed besides of a statistical model of uncertainty. A utility function corresponding to the conception of global optimization is proposed in [243]. However, a natural extension of the axioms proposed in [243] to the multi-objective case is difficult.

数学代写|凸优化作业代写Convex Optimization代考|CPD131

凸优化代写

数学代写|凸优化作业代写凸优化代考|多目标P-Algorithm


在本节中,推广了一种基于多模态函数统计模型的单目标全局优化算法,即p -算法,用于黑盒多目标优化的情况。关于多模态黑箱函数统计模型和单目标palgalgorithm的公理定义,参见[242,243]。


在$n+1$ -st最小化步骤考虑最小化。计算目标函数的点记为$\mathbf{x}i, i=1, \ldots, n$,对应的目标向量记为$\mathbf{y}i=\mathbf{f}\left(\mathbf{x}_i\right) ; \mathbf{y}_i=\left(y{i 1}, \ldots, y{i m}\right)$。基于上一节的讨论,我们接受向量值高斯随机场
$$
\Xi(\mathbf{x}) \in \mathbb{R}^m, \mathbf{x} \in \mathbf{A} \subset \mathbb{R}^d,
$$作为向量值目标函数的模型。在该模型框架中,目标的未知向量$\mathbf{f}(\mathbf{x}), \mathbf{x} \neq \mathbf{x}i, i=1, \ldots, n$被解释为随机向量,其分布由$\Xi(\mathbf{x})$$$ \Pi_x^n(\mathbf{t})=P\left{\Xi(\mathbf{x}) \leq \mathbf{t} \mid \Xi\left(\mathbf{x}i\right)=\mathbf{y}_i, i=1, \ldots, n\right} . $$的条件分布函数定义。当前观察点的选择,即在当前最小化步骤计算目标向量的点的选择,是不确定性下的决策。统计模型(7.2)表示决策结果的不确定性。对于统计模型(7.2),选择当前观察点$\mathbf{x}{n+1} \in \mathbf{A}$意味着从分布函数集$\Pi_x^n(\cdot), \quad \mathbf{x} \in \mathbf{A}$中选择一个分布函数。为了证明选择的合理性,可以应用不确定性下的理性决策方法。如果选择的偏好满足合理性原则,那么存在一个唯一的(在线性变换内)效用函数$U(\cdot)$与选择的偏好[58]相容:
$$
\Pi_x^n(\cdot) \succ \Pi_z^n(\cdot) \text { iff } \int{-\infty}^{\infty} \ldots \int_{-\infty}^{\infty} U(\mathbf{t}) \cdot d \Pi_x^n(\mathbf{t}) \geq \int_{-\infty}^{\infty} \ldots \int_{-\infty}^{\infty} U(\mathbf{t}) \cdot d \Pi_z^n(\mathbf{t}) .
$$
单目标最小化$\left(\min _{\mathbf{x} \in \mathbf{A}} f(\mathbf{x})\right)$情况下效用函数的选择问题[243]进行了考虑。根据[243]中搜索全局最小值的合理性,理性决策的经典公理(参见,$[58,182]$)被重新表述,其中也证明了以下效用函数
$$
u(t)=1 \text {, for } t \leq y^n \text {, and } u(t)=0 \text {, for } t>y^n
$$
与这些公理兼容;$y^n$表示改进阈值:如果当前步骤中的新函数值小于$y^n ; y^n<y_i, i=1, \ldots, n ; y_i=f\left(\mathbf{x}_i\right)$,则认为是改进,是在前面的最小化步骤中计算的函数值。

数学代写|凸优化作业代写凸优化代考|多目标算法

.


在本节中,考虑了最近提出的构建多目标优化算法的方法[250],该方法由理性决策理论诱导。假设了关于当前优化步骤的理性决策所满足的性质。这些特性是一些众所周知的单目标优化算法所固有的,例如p算法[243]。提出的方法,从一个新的更普遍的角度,充实了单目标p算法。对于多目标优化,这种方法不仅对已知算法进行了新的、更通用的充实,而且还促进了算法族的构建,在某种意义上类似于多目标p -算法


让我们考虑当前的最小化步骤,其中$n$函数值已经在前面的步骤中计算出来:$y_i=f\left(\mathbf{x}_i\right), i=1, \ldots, n$。如果不评估计算结果的不确定性,就不能对目标函数值的下一个计算点进行合理的选择。$f(\cdot)$上唯一的客观信息是$\mathbf{x}_i, y_i, i=1, \ldots, n$。除了这些客观信息之外,通常还有一些主观信息,例如过去解决类似问题的经验。如[242]所示,关于不确定性的理性感知的非常一般的假设意味着要计算的目标函数值的随机变量模型,即这些假设意味着随机变量$\xi_x, \mathbf{x} \in \mathbf{A}, \mathbf{x} \neq \mathbf{x}_i, i=1, \ldots, n$可以作为目标函数$f(\mathbf{x})$的未知值的统计模型。我们参考$[216,239]$了解一个计算简单的目标函数统计模型的公理化构造。如果选择一个随机函数作为$f(\cdot)$的统计模型,相应的随机变量由该随机函数的条件分布定义


让我们考虑一下当前计算目标函数值的点的选择。这种黑箱情况下的选择是一种不确定性下的决策,可以运用理性决策理论[58]进行理性选择。该理论建议通过平均效用最大化来进行决策。为了计算平均效用,除了不确定的统计模型外,还需要一个效用函数。[243]提出了一个与全局优化概念相对应的效用函数。然而,将[243]中提出的公理自然地扩展到多目标情况是困难的

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|МАTH4071

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|МАTH4071

数学代写|凸优化作业代写Convex Optimization代考|Statistical Models Based Algorithms

Multi-objective optimization problems with expensive objective functions are typical in engineering design, where time-consuming computations are involved for modeling technological processes. Frequently, the available software implements an algorithm to compute the values of objective functions, but neither details of implementation nor analytical properties of the objective functions are known. Nevertheless, the continuity of the objective functions can be normally assumed. The complexity of the computational model implies not only the expensiveness of the objective function but also the uncertainty in its properties, so that other analytical properties of $\mathbf{f}(\mathbf{x})$, besides the continuity, cannot be substantiated. Such unfavorable, from the optimization point of view, properties of $\mathbf{f}(\mathbf{x})$ as nondifferentiability, non-convexity, and multimodality cannot be excluded. Difficulties of the black-box global optimization of expensive functions are well known from the experience gained in the single-objective case.

The substantiation of an optimization algorithm based on the ideal black-box model would be hardly possible. To construct algorithms rationally, a hypothetic behavior of objective functions in question should be guessed. Therefore, the concept of black-box should be revisited. We will consider mathematical models of some transparency complemented black-box for which the term gray box seemingly would be suitable. However, following widely accepted tradition we will use the term black-box. Actually, we assume that the analytical properties of the objective functions are not available but some very general assumptions concerning the uncertainty of their behavior can be made. In the deterministic approach, typically an assumption is made which enables the construction of underestimates for function values, e.g., the assumption on Lipschitz continuity of the considered review of Lipschitz optimization, we refer to Section $4.2$ and for the details to [87]. Another approach, based on statistical models of objective functions, is validated in [242]; for a brief review of single-objective optimization methods based on statistical models, we refer to Section 4.3. Since the statistical models and the utility theory-based global optimization is a well theoretically justified approach to the single-objective global optimization of expensive functions, it seems worthwhile to generalize that approach also to the multi-objective case.
Let us recall the notation of the considered problem
$$
\min _{\mathbf{x} \in \mathbf{A}} \mathbf{f}(\mathbf{x}), \mathbf{f}(\mathbf{x})=\left(f_1(\mathbf{x}), f_2(x), \ldots, f_m(\mathbf{x})\right)^T, \mathbf{A} \subset \mathbb{R}^d,
$$
where the vector objective function $\mathbf{f}(\mathbf{x})$ is defined over a simple feasible region, e.g., for the concreteness it can be assumed that $\mathbf{A}$ is a hyper-rectangle. We aim at numerical approximation of the set of Pareto optimal solutions. Frequently, in the starting optimization phase, a rough approximation of the whole Pareto optimal set is of interest; in the intermediate phase, a subset of the Pareto optimal set of interest is intended to be approximated more precisely; finally, a specific Pareto optimal solution is sought. A similar strategy is also justified in single-objective global optimization: starting from a uniform search over the feasible region, concentrating the search in prospective subregions, and finishing with a local algorithm chosen according to the local properties of the objective function. Here, we consider the search for a discrete representation of the whole set of Pareto optimal solutions.
The situations favorable for statistical methods based single-objective optimization methods are discussed in Section 4.3. The multi-objective optimization methods based on statistical models are aimed at the problems with similar properties, namely, at the problems with black-box, multimodal, and expensive objectives. Let us recall that objective functions are supposed to be expensive if the computation of the (vector) value of $\mathbf{f}(\mathbf{x})$ is time consuming.

数学代写|凸优化作业代写Convex Optimization代考|Statistical Model

To validate, from the decision theory perspective, the selection of a site for current computation/observation of the vector of objectives, a model of objective functions is needed. We consider here an approach based on statistical models of the objective functions. For the consideration of functions under uncertainty, the stochastic function models are developed in the probability theory. Assuming such a classical probabilistic model we assume that the considered objective functions are random realizations of the chosen stochastic function. However, the algorithms considered below can also be interpreted in terms of more general statistical models constructed in [242], using the ideas of subjective probabilities that are discussed from all angles in [58] and [182]. To facilitate the implementation of the corresponding algorithms, the Gaussian stochastic functions normally are chosen for statistical models.

The accepted for the statistical models of separate objectives $f_j(\mathbf{x})$ stochastic functions comprise a vector-valued Gaussian random field $\Xi(\mathbf{x})$ which is accepted for the statistical model of $\mathbf{f}(\mathbf{x})$. In many real world applied problems as well as in the test problems, the objectives are not (or weakly) interrelated. Correspondingly, components of $\Xi(\mathbf{x})$ are supposed to be independent. The correlation between the components of $\Xi(\mathbf{x})$ could be included into the model; however. it would imply some numerical and statistical inference problems requiring a further investigation.
It is assumed that a priori information about the expected behavior (a form of variation over $\mathbf{A}$ ) of objective functions is not available. The heuristic assumption on the lack of a priori information is formalized as an assumption that $\xi_i(\mathbf{x}), i=$ $1, \ldots, m$, are homogeneous isotropic random fields, i.e., that their mean values $\mu_i$ and variances $\sigma_i^2$ are constants, and that the correlation between $\xi_i\left(\mathbf{x}_j\right)$ and $\xi_i\left(\mathbf{x}_k\right)$ depends only on $\left|\mathbf{x}_j-\mathbf{x}_k\right|_D$. The choice of the exponential correlation function $\rho(t)=\exp (-c t), c>0$, is motivated by the fact that, in the one-dimensional case, such a correlation function ensures Markovian property, and by the positive previous experience in use of the stochastic models with the exponential correlation function for the construction of single-objective global optimization; see, e.g., the monograph [139].

The parameters of the statistical model should be estimated using data on $\mathbf{f}(\cdot)$; since the components of $Z(\mathbf{x})$ are assumed to be independent, the parameters for each $\xi_j(\mathbf{x})$ can be estimated separately. In the further described implementation, mean values and variances of $\xi_j(\mathbf{x})$ are estimated using their values at random points generated uniformly over $\mathbf{A}$. Arithmetic means are used as the estimates of mean values, and sample variances are used as the estimates of variances. The choice of the value of the correlation function parameter $c$ depends on the scale of variables; in the case of $\mathbf{A}$, scaled to the unit hyper-cube, $c$ is defined by the equation $c \sqrt{d}=7$. Such a choice is motivated by a supposed uncertainty in the behavior of the objective functions: the correlation between random field values at the maximum distant points is assumed vanishing as $10^{-3}$; on the other hand, the random field values at the closely located points are assumed reasonably correlated, i.e., it is supposed that the correlation coefficient is about $0.5$ in the case the mutual distance constitutes $10 \%$ of the maximum distance in $\mathbf{A}$.

数学代写|凸优化作业代写Convex Optimization代考|МАTH4071

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|基于统计模型的算法


具有昂贵目标函数的多目标优化问题是工程设计中的典型问题,其中建模工艺过程涉及到耗时的计算。通常,可用的软件实现一个算法来计算目标函数的值,但实现的细节和目标函数的分析性质都不为人所知。然而,通常可以假定目标函数是连续性的。计算模型的复杂性不仅意味着目标函数的昂贵,而且还意味着其性质的不确定性,因此其他的分析性质 $\mathbf{f}(\mathbf{x})$,除了连续性之外,也无法证实。这样不利,从优化的角度来看,性能不佳 $\mathbf{f}(\mathbf{x})$ as nondifferentiability, non-convexity, and multimodality cannot be excluded. Difficulties of the black-box global optimization of expensive functions are well known from the experience gained in the single-objective case.


基于理想黑箱模型的优化算法的具体化几乎是不可能的。为了合理地构造算法,需要猜测目标函数的假设行为。因此,我们应该重新审视黑匣子的概念。我们将考虑一些透明补充黑箱的数学模型,术语灰箱似乎是适合的。然而,按照广泛接受的传统,我们将使用术语黑箱。实际上,我们假设目标函数的分析性质是不可得的,但是可以对其行为的不确定性作出一些非常一般的假设。在确定性方法中,通常会做一个假设,该假设可以构建函数值的低估,例如,对Lipschitz优化的审议的Lipschitz连续性的假设,参见$4.2$节,详细信息请参见[87]。另一种方法,基于目标函数的统计模型,在[242]中得到验证;关于基于统计模型的单目标优化方法的简要回顾,请参见第4.3节。由于统计模型和基于效用理论的全局优化是解决昂贵函数的单目标全局优化的一种很好的理论证明方法,因此似乎有必要将该方法推广到多目标情况。让我们回忆一下考虑的问题
$$
\min _{\mathbf{x} \in \mathbf{A}} \mathbf{f}(\mathbf{x}), \mathbf{f}(\mathbf{x})=\left(f_1(\mathbf{x}), f_2(x), \ldots, f_m(\mathbf{x})\right)^T, \mathbf{A} \subset \mathbb{R}^d,
$$
的表示法,其中向量目标函数$\mathbf{f}(\mathbf{x})$定义在一个简单的可行区域上,例如,对于具象性,可以假设$\mathbf{A}$是一个超矩形。我们的目标是帕累托最优解集的数值逼近。通常,在初始优化阶段,对整个帕累托最优集的粗略逼近是有兴趣的;在中间阶段,帕累托最优兴趣集的一个子集被更精确地逼近;最后,寻求特定的帕累托最优解。类似的策略也适用于单目标全局优化:从可行区域的统一搜索开始,将搜索集中在预期子区域,最后根据目标函数的局部属性选择局部算法。在这里,我们考虑搜索整个帕累托最优解集合的一个离散表示。基于单目标优化方法的统计方法的有利情况在第4.3节中讨论。基于统计模型的多目标优化方法是针对具有相似性质的问题,即具有黑箱、多模态和昂贵目标的问题。让我们回忆一下,如果$\mathbf{f}(\mathbf{x})$的(向量)值的计算是耗时的,那么目标函数应该是昂贵的

数学代写|凸优化作业代写凸优化代考|统计模型


为了从决策理论的角度验证当前计算/观察目标向量的地点的选择,需要一个目标函数模型。我们在此考虑一种基于目标函数统计模型的方法。为了考虑函数在不确定条件下的情况,在概率论中建立了随机函数模型。假设这样一个经典的概率模型,我们假设考虑的目标函数是所选随机函数的随机实现。然而,下面考虑的算法也可以用[242]中构建的更通用的统计模型来解释,使用[58]和[182]中从各个角度讨论的主观概率的思想。为了便于相应算法的实现,统计模型通常选择高斯随机函数


独立目标的统计模型所接受的$f_j(\mathbf{x})$随机函数包含向量值高斯随机场$\Xi(\mathbf{x})$,该随机场被$\mathbf{f}(\mathbf{x})$的统计模型所接受。在许多现实世界的应用问题以及测试问题中,目标是不相关的(或弱相关的)。相应地,$\Xi(\mathbf{x})$的组件应该是独立的。可以将$\Xi(\mathbf{x})$各成分之间的相关性纳入模型;然而。这意味着一些需要进一步研究的数值和统计推断问题。
假设关于目标函数的预期行为($\mathbf{A}$上的一种变化形式)的先验信息是不可得的。关于缺乏先验信息的启发式假设形式化为如下假设:$\xi_i(\mathbf{x}), i=$$1, \ldots, m$是齐次各向同性随机场,即它们的平均值$\mu_i$和方差$\sigma_i^2$是常数,$\xi_i\left(\mathbf{x}_j\right)$和$\xi_i\left(\mathbf{x}_k\right)$之间的相关性只依赖于$\left|\mathbf{x}_j-\mathbf{x}_k\right|_D$。选择指数相关函数$\rho(t)=\exp (-c t), c>0$的动机是这样的事实,在一维情况下,这样的相关函数保证马尔可夫性质,并通过使用带有指数相关函数的随机模型构建单目标全局优化的积极经验;参见专著[139]。

统计模型的参数应该使用数据估计 $\mathbf{f}(\cdot)$;因为 $Z(\mathbf{x})$ 假设是独立的,每个 $\xi_j(\mathbf{x})$ can be estimated separately. In the further described implementation, mean values and variances of $\xi_j(\mathbf{x})$ 用它们在均匀生成的随机点上的值进行估计 $\mathbf{A}$。用算术平均值作为平均值的估计,用样本方差作为方差的估计。相关函数参数值的选择 $c$ 取决于变量的尺度;在 $\mathbf{A}$,缩放到单位超立方, $c$ 是由方程定义的吗 $c \sqrt{d}=7$。这样的选择是由目标函数的行为中假定的不确定性所驱动的:在最大距离点处随机场值之间的相关性假定为消失 $10^{-3}$;另一方面,假设在相邻点处的随机场值是合理相关的,即假设相关系数为 $0.5$ in the case the mutual distance constitutes $10 \%$ 的最大距离 $\mathbf{A}$.

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|ELEN90026

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|ELEN90026

数学代写|凸优化作业代写Convex Optimization代考|Numerical Examples

Let us illustrate the performance of the algorithm using three numerical examples. We compare the results with that from [55], therefore two example problems from there are considered. The results of the algorithms are measured using hypervolume and uniformity of distribution criteria. A hyper-volume criterion measures the volume (area in bi-objective case) of the space dominated by approximation of the Pareto front and restricted by a given reference point. The larger the hypervolume the better approximation of the Pareto front. A uniformity of the distribution measures how uniformly the points approximating the Pareto front are distributed. We use the same estimation of uniformity as in [55]:

$$
U D(\tilde{\mathbf{P}})=\sqrt{\sum_{i=1}^k\left(d_i-d\right)^k}, d=\frac{1}{k} \sum_{i=1}^k d_i,
$$
where $d_i$ is the minimum distance from the point in objective space indexed by $i$ to the other points in $\mathbf{P}$. More uniform distribution is preferable and this corresponds to smaller values of this criterion.
The first problem from [55] is defined as follows:
$$
\min _{\mathbf{x} \in[0,2]^2} \mathbf{f}(\mathbf{x}), f_1(\mathbf{x})=x_1, f_2(\mathbf{x})=\min \left(\left|x_1-1\right|, 1.5-x_1\right)+x_2+1 .
$$
The Lipschitz constant of a function corresponding to the city-block metric is the maximum of infinity norm of the gradient over the considered feasible region [157]. Since, $\nabla f_1=(1,0)^T$ and $\nabla f_2=(\pm 1,1)^T$, the Lipschitz constants for this example problem are $L_1=1$ and $L_2=1$.

To get a number of function evaluations close to 500 as in [55] we choose $\varepsilon=0.025$. The algorithm stops after 435 function evaluations. The number of points in the approximation of the Pareto front is 92 and the hyper-volume of the approximation using the reference point $(2,3)$ is $3.60519$ ( $99.5 \%$ of the hypervolume of the true Pareto front). Using the similar number of function evaluations we get the larger number of points in the approximation and the larger hyper-volume than one using non-uniform covering method described in [55]. The results are illustrated in Figure $6.12$ where space of objectives is shown in Figure 6.12a, and space of variables in Figure 6.12b. Blue circles represent non-dominated vectors and blue lines illustrate the approximation of the Pareto front.

数学代写|凸优化作业代写Convex Optimization代考|Worst-Case Optimal Bisection

In the present section we consider the most important part of the multi-objective optimization algorithm based on the partition of the feasible region into hyperrectangles by means of the bisection of a selected hyper-rectangle. Let $\mathbf{A}r$ be selected according to a rule described below. We intend to define the worst-case optimal bisection of the selected hyper-rectangle. The notation used in the analysis of the bisection is explained in Figure 6.10. The worst-case optimal bisection is defined as follows: $$ (\hat{t}, \hat{j})=\arg \min {t, j} \max \left(\max {\mathbf{w}} \Delta\left(\mathbf{f}(\mathbf{a}(r)), \mathbf{w}, \mathbf{A}{r^{\prime}}\right), \max {\mathbf{v}} \Delta\left(\mathbf{v}, \mathbf{f}(\mathbf{b}(r)), \mathbf{A}{r^{\prime \prime}}\right)\right),
$$
where the hyper-rectangles $\mathbf{A}{r^{\prime}}, \mathbf{A}{r^{\prime \prime}}$ are obtained by the bisection of $\mathbf{A}r, 0 \leq t \leq$ 1 is the cutting ratio of the interval $\left[a_j(r), b_j(r)\right], j$ defines the coordinate axis orthogonal to the cutting hyper-plane, the hyper-rectangles $\mathbf{A}{r^{\prime}}, \mathbf{A}{r^{\prime \prime}}$ are obtained by the bisection of $\mathbf{A}_r$, and the feasible regions for $\mathbf{w}=\mathbf{f}\left(\mathbf{b}^{\prime}\right)$ and $\mathbf{v}=\mathbf{f}\left(\mathbf{a}^{\prime \prime}\right)$ depend on the cutting parameters $t, j$ and other information related to $\mathbf{A}{\mathbf{r}}$.

Let us recall the assumptions made in Section 6.2.4 that $z_2 \leq z_1, y_1 \leq y_2$, and assume also that the inequality $\delta y \leq \delta z$ is satisfied where $\delta y=y_2-y_1$ and $\delta z=$ $z_1-z_2$. These assumptions do not reduce generality since the relevant variables can be renamed, respectively.

Theorem 6.4 The cutting hyper-plane of the worst-case optimal bisection is orthogonal to the longest edge of the considered hyper-rectangle. The cutting point is defined by the equality
$$
x_j=a_j+\hat{t}\left(b_j-a_j\right),
$$
where $j$ is the index of the coordinate axis corresponding to the (longest) edge $\left[a_j, b_j\right]$, and $\hat{t}=\frac{1}{2}$.
Proof The equalities (6.61)-(6.67) imply the following formulas for $\Delta_r$
$$
\Delta_r=\max \left(v+y_1-z_1, v+z_2-y_2\right),
$$
if $\mathbf{F}(0)=\left(y_1, y_2\right)^T$ and $\mathbf{F}(v)=\left(z_1, z_2\right)^T$ do not dominate each other, and
$$
\Delta_r=v+y_1-z_1,
$$
otherwise.

数学代写|凸优化作业代写Convex Optimization代考|ELEN90026

凸优化代写

数学代写|凸优化作业代写凸优化代考|数值示例

. .数学代写|


让我们用三个数值例子来说明算法的性能。我们将结果与来自[55]的结果进行比较,因此考虑了来自[55]的两个示例问题。利用分布准则的超体积和均匀性对算法的结果进行了测量。超体积准则测量空间的体积(双目标情况下的面积),该空间由帕累托前沿的近似所支配,并受给定参考点的限制。超体积越大,帕累托前沿的近似越好。分布的均匀性衡量近似帕累托前沿的点分布的均匀程度。我们使用与[55]中相同的均匀性估计:

$$
U D(\tilde{\mathbf{P}})=\sqrt{\sum_{i=1}^k\left(d_i-d\right)^k}, d=\frac{1}{k} \sum_{i=1}^k d_i,
$$
其中$d_i$是目标空间中由$i$索引的点到$\mathbf{P}$中其他点的最小距离。分布越均匀越好,对应该准则的值越小。来自[55]的第一个问题定义如下:
$$
\min _{\mathbf{x} \in[0,2]^2} \mathbf{f}(\mathbf{x}), f_1(\mathbf{x})=x_1, f_2(\mathbf{x})=\min \left(\left|x_1-1\right|, 1.5-x_1\right)+x_2+1 .
$$
对应于城市块度规的函数的Lipschitz常数是考虑的可行区域上的梯度无穷范数的最大值[157]。因为,$\nabla f_1=(1,0)^T$和$\nabla f_2=(\pm 1,1)^T$,这个例子问题的Lipschitz常数是$L_1=1$和$L_2=1$ 要获得接近500的函数求值,如[55],我们选择$\varepsilon=0.025$。算法在435个函数求值后停止。帕累托前沿逼近的点数是92,使用参考点$(2,3)$的逼近的超体积是$3.60519$(真正帕累托前沿超体积的$99.5 \%$)。使用类似数量的函数计算,我们得到了更大的近似点数量和更大的超体积比使用[55]中描述的非均匀覆盖方法。结果如图$6.12$所示,其中目标的间距如图6.12a所示,变量的间距如图6.12b所示。蓝色圆表示非支配向量,蓝色线表示帕累托前沿的近似

数学代写|凸优化作业代写凸优化代考|最坏情况最优平分

. 在本节中,我们考虑多目标优化算法中最重要的部分,该算法基于对选定的超矩形进行等分,将可行区域划分为超矩形。根据下面描述的规则选择$\mathbf{A}r$。我们打算定义所选超矩形的最坏情况最优平分线。图6.10解释了二分法分析中使用的符号。最坏情况最优等分定义如下:$$ (\hat{t}, \hat{j})=\arg \min {t, j} \max \left(\max {\mathbf{w}} \Delta\left(\mathbf{f}(\mathbf{a}(r)), \mathbf{w}, \mathbf{A}{r^{\prime}}\right), \max {\mathbf{v}} \Delta\left(\mathbf{v}, \mathbf{f}(\mathbf{b}(r)), \mathbf{A}{r^{\prime \prime}}\right)\right),
$$
其中超矩形$\mathbf{A}{r^{\prime}}, \mathbf{A}{r^{\prime \prime}}$是通过对$\mathbf{A}r, 0 \leq t \leq$的等分得到的,1是区间$\left[a_j(r), b_j(r)\right], j$的切割比,定义了正交于切割超平面的坐标轴,$\mathbf{A}{r^{\prime}}, \mathbf{A}{r^{\prime \prime}}$是通过对$\mathbf{A}_r$的等分得到的,$\mathbf{w}=\mathbf{f}\left(\mathbf{b}^{\prime}\right)$和$\mathbf{v}=\mathbf{f}\left(\mathbf{a}^{\prime \prime}\right)$的可行区域取决于切割参数$t, j$和其他与$\mathbf{A}{\mathbf{r}}$相关的信息


让我们回顾一下在第6.2.4节中所作的假设 $z_2 \leq z_1, y_1 \leq y_2$,并假设不等式 $\delta y \leq \delta z$ 满足于 $\delta y=y_2-y_1$ 和 $\delta z=$ $z_1-z_2$。这些假设并不会降低通用性,因为相关变量可以分别重命名


定理6.4最坏情况最优二分线的切割超平面正交于所考虑的超矩形的最长边。切割点由
定义$$
x_j=a_j+\hat{t}\left(b_j-a_j\right),
$$
where $j$ 坐标轴的下标是否对应于(最长)边 $\left[a_j, b_j\right]$,以及 $\hat{t}=\frac{1}{2}$
证明等式(6.61)-(6.67)表示下列公式 $\Delta_r$
$$
\Delta_r=\max \left(v+y_1-z_1, v+z_2-y_2\right),
$$
if $\mathbf{F}(0)=\left(y_1, y_2\right)^T$ 和 $\mathbf{F}(v)=\left(z_1, z_2\right)^T$ 不称霸对方,
$$
\Delta_r=v+y_1-z_1,
$$
otherwise.

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|ELEN90026

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|ELEN90026

数学代写|凸优化作业代写Convex Optimization代考|Visualization of Sequence Flow

A special graph drawing problem, related to the visualization of business process diagrams, is stated as an optimization problem. It is requested to find aesthetically looking paths between the given pairs of vertices of a grid, where the vertices represent the business process flow objects, the paths represent the sequence flow, and the aesthetic criteria are formulated quantitatively. The sites of flow objects on the grid are fixed, and the sequence flow is defined. We state the problem as a problem of combinatorial multi-objective optimization, where the objectives correspond to the generally recognized criteria of aesthetics. To find a solution precisely, the algorithm of linear binary programming CPLEX was applied. For a faster solution, supposed for an interactive mode, a heuristic algorithm is developed. The experimental comparison of the mentioned algorithms is performed to substantiate the applicability of the latter.

To enable a user to completely percept the information presented by the observable part of the BPD, the sub-charts which comprise up to 30 shapes are drawn. A navigation tool aids a user to specify the sub-chart of interest. To denote the flow objects in the considered diagrams, the notation of BPMN, namely the rectangles, the rhombuses, and the circles, is used where these shapes represent the processes, the gateways, and the events correspondingly. The shapes are located in the pool lanes. The sequence flow is represented by the lines constituted of orthogonal straight line segments.

We assume that the location of geometric shapes, that represent business process objects, is fixed on a plane, and a sequence flow is defined. The lines, that represent the sequence flow, should be drawn aiming to obtain an aesthetically pleasing layout. For the general concept of aesthetic graph drawing we refer to $[12,15,100,171-173]$. Here we reduce this problem to a combinatorial multiobjective optimization.

As the main criteria of aesthetics considered in the literature, e.g., in [12, 100 , 173], are: the total length of connectors, the number of crossings, the number of bends, the uniformity of the distribution of shapes in the area of the drawing, and the compatibility of the process sub-flows with the generalized top-down and left-right direction. However, the influence of these criteria to the perception of the information presented by the considered BPD is different, and depends on the user of the BPD. To implement a visualization method, which ensures the effective perception of a BPD, the attitude of potential users towards the listed above criteria is important. The generalized attitude of a group of the potential users was elicited by means of a psychological experiment [93]. Subsequently, the elicited information is used in the statement of the multi-objective optimization problem the solution of which defines the considered sequence flow by the orthogonal connectors.

数学代写|凸优化作业代写Convex Optimization代考|A Brief Overview of Single-Objective Algorithms Aimed

Since we focus on the sequence flow visualization, the differences of the flow objects can be ignored, and a single rectangular shape can be used below to represent the flow objects. Visualization of the graphs, where vertices are drawn as rectangles connected by piecewise vertical and horizontal lines, is commonly used. As the examples, Entity Relationship and UML diagrams can be mentioned among others. The problem of drawing graphs, with the rectangular images of vertices, and with the edges composed of the pieces of vertical and horizontal lines, is considered in many papers. Depending on a supposed application area, the algorithms should satisfy different requirements. Some algorithms, efficient from the point of view of general complexity theory, are described in [117, 232]. A comprehensive review of algorithms oriented to the routing of paths to interconnect the pins on the circuit blocks or pads at the chip boundary is presented in [32]. The general purpose routing algorithms are classified in three groups, namely the maze, line-search, and $\mathrm{A}^*$-search groups. Different versions of these algorithms are proposed and investigated with the focus on the asymptotic complexity estimates and on the application in the chip design. However, from the point of view of the BPD drawing, the criteria of aesthetics prevail the criteria important in technological applications emphasized in [32]. In a recent paper [231] a brief review of the available algorithms and software, for the construction of orthogonal connectors, is presented. The experimental testing performed by these authors has shown that some of the available software packages, although provide the automatic orthogonal connector routing, produce the routes which may overlap other objects in the diagram. Popular software packages Microsoft Visio 2007 and Concept Draw Pro5 provide the object-avoiding orthogonal connector routing, but in both cases the aesthetic criteria, such as minimizing distance or number of segments, are not taken into account. We cite the conclusion made in the introduction of [231]: “in all current tools that we are aware of, automatic routing of orthogonal connectors uses ad-hoc heuristics that lead to aesthetically unpleasing routes and unpredictable behavior.” Agreeing with the latter conclusion as well as with the remarks cited in the introductory Section $10.1$ we find the developing of new domain-specific algorithms reasonable.

数学代写|凸优化作业代写Convex Optimization代考|ELEN90026

凸优化代写

数学代写|凸优化作业代写凸优化代考|序列流可视化


一个与业务流程图可视化相关的特殊图形绘制问题被表述为一个优化问题。要求在给定的网格顶点对之间找到美观的路径,其中顶点表示业务流程流对象,路径表示序列流,并定量地表述美观标准。确定了流对象在网格上的位置,定义了序列流。我们将该问题描述为一个组合多目标优化问题,其中目标对应于公认的美学标准。为了精确求解,采用了线性二元规划CPLEX算法。为了更快地求解,假定在交互模式下,提出了一种启发式算法。对上述算法进行了实验比较,以证实后者的适用性


为了使用户能够完全感知BPD的可观察部分所呈现的信息,绘制了包含多达30个形状的子图表。导航工具帮助用户指定感兴趣的子图。为了表示所考虑的图中的流对象,使用了BPMN的符号,即矩形、菱形和圆形,这些形状表示相应的流程、网关和事件。这些形状位于泳池的泳道上。序列流由正交直线段组成的线表示。


我们假设表示业务流程对象的几何形状的位置固定在平面上,并且定义了序列流。线,代表序列流,应该旨在获得一个美观的布局。关于美学图形绘制的一般概念,请参阅$[12,15,100,171-173]$。这里我们将这个问题简化为一个组合多目标优化问题


如文献[12,100,173]中考虑的主要美学标准是:连接器的总长度,交叉的数量,弯曲的数量,图形区域内形状分布的均匀性,以及工艺子流与广义的自上而下和左右方向的兼容性。但是,这些标准对被考虑的BPD所呈现的信息的感知的影响是不同的,并且取决于BPD的用户。要实现确保BPD有效感知的可视化方法,潜在用户对上面列出的标准的态度是重要的。一组潜在用户的广义态度是通过心理实验得到的[93]。然后,将所得到的信息用于多目标优化问题的表述中,该问题的解通过正交连接器定义了所考虑的序列流

数学代写|凸优化作业代写凸优化代考|针对

的单目标算法概述


由于我们关注的是序列流可视化,流对象的差异可以忽略,下面可以使用单个矩形形状来表示流对象。通常使用图形的可视化,其中顶点被绘制为由分段的垂直和水平线连接的矩形。作为例子,实体关系图和UML图可以被提及。许多论文都研究了用顶点的矩形图像和由垂直和水平的线段组成的边来绘制图形的问题。根据假设的应用领域,算法应该满足不同的要求。从一般复杂性理论的角度来看,一些有效的算法在[117,232]中得到了描述。[32]中全面回顾了面向路径路由的算法,以互连电路块上的引脚或芯片边界上的衬垫。通用路由算法分为三类,分别是maze、line-search和$\mathrm{A}^*$ -search。提出并研究了这些算法的不同版本,重点是渐近复杂度估计和在芯片设计中的应用。然而,从BPD制图的角度来看,美学标准占优势于[32]中强调的技术应用中重要的标准。在最近的一篇论文[231]中,简要回顾了用于构建正交连接器的现有算法和软件。这些作者所进行的实验测试表明,一些可用的软件包虽然提供了自动正交连接器路由,但产生的路由可能与图中的其他对象重叠。流行的软件包Microsoft Visio 2007和Concept Draw Pro5提供了避免对象的正交连接器路由,但在这两种情况下,没有考虑到美学标准,如最小化距离或段的数量。我们引用了[231]引言中的结论:“在我们所知的所有当前工具中,正交连接器的自动路由使用特殊的启发式,这会导致不美观的路由和不可预测的行为。”我们同意后一个结论以及在引言部分$10.1$中引用的注释,我们发现开发新的特定于领域的算法是合理的

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|MATH620

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|MATH620

数学代写|凸优化作业代写Convex Optimization代考|Visualization of the Optimization Results

Visualization in the considered case study was applied at the final stage of decision making. A multi-objective optimization algorithm (NSGA-II) has been applied by the experts in the process engineering, and complete computation results were recorded. The thorough analysis of the available data was requested to substantiate the choice of the design variables.

The application of the chosen multi-objective algorithm to the problem considered resulted in computing of $N=1584$ two-dimensional vectors of objectives $\mathbf{y}i$ at the points $\mathbf{x}_i=\left(x{i 1}, \ldots, x_{i 6}\right)^T, i=1, \ldots, N$, the components of which belong to the unit interval: $0 \leq x_{i j} \leq 1$ where the index $j,(1 \leq j \leq 6)$, denotes the $j$-th component of the $i$-th vector.

The subset of $\mathbf{y}_i, i=1, \ldots, N$, constituted of non-dominated points represents the Pareto front of the considered problem $\mathbf{P}(\mathbf{f})_O$; it consists of $N_P=179$ twodimensional vectors; the corresponding subset of $\mathbf{x}_i, i=1, \ldots, N$, is denoted by $\mathbf{X}_P$. A graphical drawing of the Pareto front is the standard presentation of results of a bi-objective optimization problem. By a visual analysis of the drawing a decision maker can choose an appropriate trade-off between the objectives. Since the Pareto front is represented by a finite number of points, the representation precision crucially depends on the number and distribution of points. The drawing of the Pareto front of the considered problem is presented in Figure 9.1a. The points are distributed rather densely and uniformly over the whole Pareto front but there is a discontinuity at the beginning of the upper part of the graph which indicates some neighborhood of minimum of $f_1(\cdot)$. The very precise computation of the boundaries of this discontinuity does not seem important since the most interesting part of the Pareto front is that including the kink where trade-off between the objectives seems favorable.

For a better identification of this part of the Pareto front a graph of $f_1\left(\mathbf{x}_i\right)$ and $f_2\left(\mathbf{x}_i\right), \mathbf{x}_i \in \mathbf{X}_P$ is presented in Figure 9.1b where the horizontal axis is for the indices reordered according to the increase of $f_1\left(\mathbf{x}_i\right), \mathbf{x}_i \in \mathbf{X}_P$.

A kink can be observed in the curve corresponding to $f_2\left(\mathbf{x}_i\right)$ for $i \approx 90$ where the horizontal behavior switches to a downward trend. It is therefore of interest to explore the solutions corresponding to indices in the interval [80, 139].

By a visual analysis of the graphs in Figure 9.1, an appropriate Pareto solution can be selected as well as the decision $\mathbf{x} \in \mathbf{X}_P$ which corresponds to the selected Pareto solution. However, such a choice is not always satisfactory since it does not pay respect to such properties of the corresponding decision as, e.g., the location of the selected decision vector in the feasible region $\mathbf{A}$. The analysis of the location of the set of efficient points in $\mathbf{A}$ can be especially valuable in cases of structural properties of the considered set important for the decision making. For example, some subsets of A might not be forbidden but may be unfavorable, and that property may not be easy to introduce into a mathematical model. The analysis of the properties of the set of efficient points can enable the discovery of latent variables, a relation between which essentially defines the Pareto front.

数学代写|凸优化作业代写Convex Optimization代考|The Analysis of Exploratory Guess

The visualization applied to the available data gives a reason to guess the variable $x_2$ as the most significant variable defining a point on the Pareto front. However, the visual exploratory approach does not provide reliable conclusions, and a further analysis is necessary either to prove or reject this guess.

If the guess above is correct, a clearly expressed dependency between the value of $x_2$ and the position of the corresponding point on the Pareto front should exist. To indicate such a dependency in Figure 9.4a, the values of $x_2$ are shown depending on the index of a Pareto optimal solution where the latter are sorted according to the increase of $f_1\left(\mathbf{x}_i\right)$.

The linear dependency between $x_2$ and the index of a Pareto optimal decision is clearly seen in Figure 9.4a for the indices which belong to the interval $(20,170)$, which is much longer than the interval of interest indicated above. Since the points of the discrete representation are distributed over the Pareto front quite densely and uniformly, all characteristics of interest can be presented as functions of the index as an independent variable. However, such a parametric description of the problem data has a disadvantage: the independent variable has no interpretation in the engineering terms of problem formulation.

A variable $t$ varying along the line in Figure 9.4a seems well suited for use as an independent variable for parametric description of the data of interest. The value of $t$ can be interpreted as a value of $x_2$ smoothed along the Pareto front. The values of $t$ in the interval $0.15 \leq t \leq 0.4$ correspond to the kink of the Pareto front. The relationship between $f_1\left(\mathbf{x}_i\right), f_2\left(\mathbf{x}_i\right)$ and the corresponding value of $t$ is presented by Figure 9.4b. The graphs of $x_2(t)$ and $x_4(t) 0.15 \leq t \leq 0.4$ are presented in Figure 9.5a.

数学代写|凸优化作业代写Convex Optimization代考|MATH620

凸优化代写

数学代写|凸优化作业代写凸优化代考|优化结果的可视化


在经过考虑的案例研究中,可视化应用于决策的最后阶段。工艺工程专家将多目标优化算法(NSGA-II)应用于工艺工程中,并记录了完整的计算结果。要求对现有数据进行彻底分析,以证实设计变量的选择


对所考虑的问题应用所选的多目标算法,结果是在点$\mathbf{x}i=\left(x{i 1}, \ldots, x{i 6}\right)^T, i=1, \ldots, N$处计算目标$\mathbf{y}i$的二维向量$N=1584$,这些向量的分量属于单位区间$0 \leq x_{i j} \leq 1$,其中索引$j,(1 \leq j \leq 6)$表示$i$ -th向量的$j$ -th分量

$\mathbf{y}_i, i=1, \ldots, N$的子集,由非支配点组成,代表所考虑问题$\mathbf{P}(\mathbf{f})_O$的帕累托面;它由$N_P=179$二维向量组成;$\mathbf{x}_i, i=1, \ldots, N$的相应子集用$\mathbf{X}_P$表示。帕累托前沿的图形图是双目标优化问题结果的标准表示。通过对绘图的可视化分析,决策者可以在目标之间选择适当的权衡。由于帕累托前沿由有限数量的点表示,表示的精度关键取决于点的数量和分布。图9.1a给出了所考虑问题的帕累托面图。这些点在整个帕累托前沿分布得相当密集和均匀,但在图的上部开始有一个不连续点,这表明了$f_1(\cdot)$的某个极小值的邻域。这种不连续边界的精确计算似乎并不重要,因为帕累托前沿最有趣的部分是包括了目标之间权衡似乎有利的扭结


为了更好地识别帕累托前沿的这一部分,图9.1b中显示了$f_1\left(\mathbf{x}_i\right)$和$f_2\left(\mathbf{x}_i\right), \mathbf{x}_i \in \mathbf{X}_P$的图,其中横轴是根据$f_1\left(\mathbf{x}_i\right), \mathbf{x}_i \in \mathbf{X}_P$的增加重新排序的指数

在$i \approx 90$对应的曲线$f_2\left(\mathbf{x}_i\right)$中可以观察到一个扭结,其中水平行为切换到下降趋势。因此,探讨区间[80,139]中指数对应的解是很有意义的


通过对图9.1中的图的可视化分析,可以选择一个合适的帕累托解以及与所选帕累托解对应的决策$\mathbf{x} \in \mathbf{X}_P$。然而,这样的选择并不总是令人满意的,因为它不考虑相应决策的属性,例如,所选决策向量在可行区域$\mathbf{A}$中的位置。对$\mathbf{A}$中有效点集合的位置的分析在考虑对决策很重要的集合的结构性质的情况下特别有价值。例如,A的某些子集可能不是禁止的,但可能是不利的,并且该属性可能不容易引入到数学模型中。对有效点集的性质的分析可以发现潜在变量,它们之间的关系本质上定义了帕累托前沿

数学代写|凸优化作业代写凸优化代考|探索性猜测的分析

.凸优化 .凸优化


应用于可用数据的可视化提供了猜测变量$x_2$作为定义帕累托前沿点的最重要变量的理由。然而,视觉探索性的方法并不能提供可靠的结论,需要进一步的分析来证明或否定这一猜测

如果上面的猜测是正确的,那么$x_2$的值和对应点在帕累托前沿的位置之间应该存在明显的依赖性。为了在图9.4a中表示这种依赖性,$x_2$的值取决于帕累托最优解的索引,后者是根据$f_1\left(\mathbf{x}_i\right)$的增加排序的 对于属于区间$(20,170)$的指数,$x_2$与帕累托最优决策的指数之间的线性依赖关系在图9.4a中可以清楚地看到,该区间远远长于上面表示的兴趣区间。由于离散表示的点分布在帕累托前沿相当密集和均匀,所有感兴趣的特征都可以表示为指数作为自变量的函数。然而,这种对问题数据的参数化描述有一个缺点:自变量在问题表述的工程术语中没有任何解释 沿着图9.4a中的直线变化的变量$t$似乎很适合用作感兴趣数据的参数描述的自变量。$t$的值可以被解释为沿着帕累托前沿平滑的$x_2$的值。区间$0.15 \leq t \leq 0.4$中$t$的值对应帕累托前沿的扭结。$f_1\left(\mathbf{x}_i\right), f_2\left(\mathbf{x}_i\right)$和$t$对应值之间的关系如图9.4b所示。$x_2(t)$和$x_4(t) 0.15 \leq t \leq 0.4$的图如图9.5a所示。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|MATH3204

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|MATH3204

数学代写|凸优化作业代写Convex Optimization代考|Visualization

For the expensive black-box multi-objective optimization problems it seems reasonable to hybridize a computer aided algorithmic search with an interactive human heuristic. Visualization is very important in perception of relevant information by a human expert [48, 122, 260, 263]. In this section we investigate possibilities of the visualization of scarce information on the Pareto front using a statistical model of the considered problem.
The following problem of bi-objective optimization is considered:
$$
\min _{\mathbf{x} \in \mathbf{A}} \mathbf{f}(\mathbf{x}), \quad \mathbf{f}(\mathbf{x})=\left(f_1(\mathbf{x}), f_2(\mathbf{x})\right)^T,
$$
where the properties of $\mathbf{f}(\mathbf{x})$ and of the feasible region $\mathbf{A} \subseteq \mathbb{R}^d$ are specified later on. We are interested in the approximation and visualization of $\mathbf{P}(\mathbf{f})_O$ using scarce information obtained in the initial/exploration phase of optimization. The necessity of the exploration phase follows from the assumption on the black-box objectives. The human heuristic abilities can be advantageous here in perception of scarce information gained during the exploration. The restriction of information scarcity is implied by the assumption on expensiveness of the objectives. The further search can be rationally planned by the optimizer depending on the results of the exploration. Visualization is expected to aid the perception of the available results.
The exploratory phase assumes that we have values of the objective functions at some number of random points in $\mathbf{A}$ which are independent and uniformly distributed. This exploration method can be seen as an analog of a popular heuristic decision by throwing a coin in the case of a severe uncertain decision situation. Moreover, the uniform distribution of points in the feasible region is the worstcase optimal algorithm for the multi-objective optimization of Lipschitz objectives; see Chapter 6. Although in the latter case the uniformity is understood in the deterministic sense, the random uniform distribution of points is a frequently used simply implementable approximation of the deterministic one. Now we have to extract, useful for the further search, information from the available data, i.e., from a set of $\mathbf{x}_i, \mathbf{y}_i=\mathbf{f}\left(\mathbf{x}_i\right), i=1, \ldots, n$.

In single-objective global optimization, some information on the global minimum of $f(\mathbf{x})$ can be elicited from the sample $z_i=f\left(\mathbf{x}_i\right)$, where $\mathbf{x}_i$ are independent random points, by means of the methods of statistics of extremes; see Section 4.4.

数学代写|凸优化作业代写Convex Optimization代考|A Design Problem

An optimal design of a process of chemical engineering is considered. Pressure swing adsorption (PSA) is a cyclic adsorption process for gas separation and purification. PSA systems have the potential of achieving a higher productivity for $\mathrm{CO}_2$ capture than alternative separation processes [180], such as absorption. An efficient and cost-competitive PSA unit is one that achieves high levels of purity and recovery of the product [57]. Therefore, a bi-objective optimization in search for an appropriate design is applicable.

To apply an optimization-based design method, a mathematical model of the system is needed. The development of an appropriate mathematical model is crucial for the success of the optimization aided design. However, here we do not go into the technological details and their mathematical description. Since we focus on the visualization of the potential decisions, only few aspects of the mathematical model in question, which are important for the considered visualization problem, will he mentioned. For the technological aspects we refer to $[18,57,180]$. PSA processes are governed by partial differential algebraic equations. The simulation of a PSA process is computationally challenging, and the task to perform PSA simulation can be very time consuming; a single simulation can take minutes, hours, or even days.
In the case study considered here, the number of design parameters (variables of the respective optimization problem) was 6, and they were re-scaled so that the feasible region was reduced to the unit hyper-cube. The number of objectives was 2. The values of the objective functions are scaled to the intervals $[0,1]$. A mathematical model based on simplified governing equations was used; see $[18,57,263]$ for details. The simulation time for a single design ranged between $10 \mathrm{~min}$ and an hour, depending on the design parameters [263].

数学代写|凸优化作业代写Convex Optimization代考|MATH3204

凸优化代写

数学代写|凸优化作业代写凸优化代考|可视化

.


对于代价高昂的黑盒多目标优化问题,将计算机辅助算法搜索与交互式人类启发式相结合似乎是合理的。可视化对于人类专家感知相关信息非常重要[48,122,260,263]。在本节中,我们将使用所考虑问题的统计模型来研究帕累托前沿稀缺信息可视化的可能性。
考虑以下双目标优化问题:
$$
\min _{\mathbf{x} \in \mathbf{A}} \mathbf{f}(\mathbf{x}), \quad \mathbf{f}(\mathbf{x})=\left(f_1(\mathbf{x}), f_2(\mathbf{x})\right)^T,
$$
,其中$\mathbf{f}(\mathbf{x})$和可行区域$\mathbf{A} \subseteq \mathbb{R}^d$的属性稍后指定。我们对利用优化的初始/探索阶段获得的稀缺信息对$\mathbf{P}(\mathbf{f})_O$的逼近和可视化很感兴趣。探索阶段的必要性源于对黑盒目标的假设。人类的启发式能力在感知探索过程中获得的稀缺信息方面具有优势。信息稀缺的限制是由目标的昂贵性假设所暗示的。优化器可以根据搜索结果合理规划下一步的搜索。可视化将有助于对现有结果的感知。探索阶段假设我们在$\mathbf{A}$中一些独立且均匀分布的随机点上有目标函数的值。这种探索方法可以看作是在严重的不确定决策情况下抛硬币的流行启发式决策的模拟。此外,可行区域内点的均匀分布是Lipschitz目标多目标优化的最坏情况优化算法;见第6章。虽然在后一种情况下均匀性是在确定性的意义上理解的,点的随机均匀分布是经常使用的一个简单的可实现的确定性近似。现在我们必须从现有数据中提取对进一步搜索有用的信息,即从一组$\mathbf{x}_i, \mathbf{y}_i=\mathbf{f}\left(\mathbf{x}_i\right), i=1, \ldots, n$ .


在单目标全局优化中,通过极值统计方法,可以从样本$z_i=f\left(\mathbf{x}_i\right)$中得到$f(\mathbf{x})$的全局最小值的一些信息,其中$\mathbf{x}_i$为独立随机点;

数学代写|凸优化作业代写凸优化代考|一个设计问题


考虑化工过程的一个优化设计问题。变压吸附(PSA)是一种用于气体分离和净化的循环吸附过程。PSA系统有可能比其他分离过程(如吸收)获得更高的$\mathrm{CO}_2$捕获生产率[180]。高效且具有成本竞争力的PSA装置是实现产品[57]高纯度和高回收率的装置。因此,在寻找一个合适的设计的双目标优化是适用的


要应用基于优化的设计方法,需要建立系统的数学模型。建立合适的数学模型是优化辅助设计成功的关键。然而,在这里我们不深入到技术细节和它们的数学描述。由于我们关注的是潜在决策的可视化,因此只会提到数学模型中对所考虑的可视化问题很重要的几个方面。关于技术方面,我们参考$[18,57,180]$。PSA过程由偏微分代数方程控制。PSA过程的模拟计算具有挑战性,并且执行PSA模拟的任务可能非常耗时;一次模拟可能需要几分钟、几小时甚至几天的时间。在这里考虑的案例研究中,设计参数(各自优化问题的变量)的数量为6,并将其重新缩放,使可行区域简化为单位超立方体。目标的数量是2个。目标函数的值被缩放到区间$[0,1]$。采用基于简化控制方程的数学模型;详情请参见$[18,57,263]$。单个设计的模拟时间范围在$10 \mathrm{~min}$到1小时之间,取决于设计参数[263]

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|MATH3204

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|MATH3204

数学代写|凸优化作业代写Convex Optimization代考|Bounds for the Pareto Frontier

Let us recall that a class of Lipschitz objective functions $F\left(L_k\right)$ is considered, i.e., $\mathbf{f}(x)=\left(f_1(x), f_2(x)\right)^T$, and $f_k(x) \in F\left(L_k\right)$ if
$$
\left|f_k(x)-f_k(t)\right| \leq L_k \cdot|x-t|, k=1,2,
$$
for $x \in \mathbf{A}, t \in \mathbf{A}, L_k>0, k=1,2$, and $\mathbf{A}$ is supposed to be a bounded closed interval.

The availability of relatively simply computable lower bounds enables a theoretical assessment of the quality of a discrete representation of the Pareto front for bi-objective Lipschitz optimization. For the different Pareto front approximation metrics we refer to $[42,60,266,267]$.

Let $\mathbf{Y}n=\left{\mathbf{y}_1, \ldots, \mathbf{y}_n\right}$ be the set of objective vectors computed at the points $x_i \in \mathbf{A}=[a, b], i=1, \ldots, n, \mathbf{X}_n=\left{x_1, \ldots, x_n\right}$, i.e., $\mathbf{y}_i=\mathbf{f}\left(x_i\right), i=1, \ldots, n$. It follows from (6.15) that the functions $g_k(x), k=1,2$, define the lower bounds for $f_k(x),[a \leq x \leq b]$ : $$ \begin{array}{r} g_k(x)=\max \left(y{o i}^k-L_k\left(x-x_{o i}\right), y_{o i+1}^k-L_k\left(x_{o i+1}-x\right)\right), \
x_{o i} \leq x \leq x_{o i+1}, i=1, \ldots, n-1,
\end{array}
$$
where $x_{o i}, i=1, \ldots, n$, denote the increasingly ordered points $x_i$, and $\mathbf{y}{o i}=$ $\left(y{o i}^1, y_{o i}^2\right)^T$ denote the respective values of the objective functions.
To simplify the formulae below, let us assume that
$$
L_k=1, k=1,2 .
$$
The assumption above, which can also be written in the form $f_k(x) \in F(1)$, is made without loss of generality since it can be satisfied by selecting appropriate scales of values of the objective functions.
Definition 6.1 The Pareto front of the bi-objective problem
$$
\min {x{o i} \leq x \leq x_{o i+1}} \mathbf{g}(x), \mathbf{g}(x)=\left(g_1(x), g_2(x)\right)^T,
$$
is called a local Lipschitz lower bound for $\mathbf{P}(\mathbf{f})O$, and it is denoted as $\mathbf{V}_i=$ $\mathbf{V}\left(\mathbf{y}{o j}, x_{o j}, j=i, i+1\right)$. The weekly Pareto optimal solutions of $\bigcup_{i=1}^{n-1} \mathbf{V}_i$ constitute the Lipschitz lower bound for $\mathbf{P}(\mathbf{f})_O$ which is denoted as $\mathbf{V}\left(\mathbf{Y}_n, \mathbf{X}_n\right.$ ).

Definition 6.2 The subset of $\bigcup_{i=1}^n\left{\mathbf{z}: \mathbf{z} \in \mathbb{R}^2, \mathbf{z} \geq \mathbf{y}_i\right}$, which consists of weakly Pareto optimal solutions, is called an upper bound for $\mathbf{P}(\mathbf{f})_O$ and is denoted by $\mathbf{U}\left(\mathbf{Y}_n\right)$

数学代写|凸优化作业代写Convex Optimization代考|Properties of Lipschitz Bounds

To simplify the formulas below, let us consider the bounds for $\mathbf{f}(t), 0 \leq t \leq v$, and denote $y_1=f_1(0), y_2=f_1(v), z_1=f_2(0), z_2=f_2(v)$. The proved properties can be easily generalized to an arbitrary interval $x_{o i} \leq x \leq x_{o i+1}$ by re-scaling of variables. Assume that $\mathbf{f}(0)$ and $\mathbf{f}(v)$ do not dominate each other. The assumption of mutual non-dominance, without loss of generality, is specified as $z_2 \leq z_1, y_1 \leq y_2$. An illustration of the lower bounds for both objective functions and of $\mathbf{V}(\mathbf{f}(0), \mathbf{f}(v), 0, v)$ is presented in Figure 6.1, where the same data is used for the computations.

Definition 6.3 The maximum distance between $\mathbf{V}(\mathbf{f}(0), \mathbf{f}(v), 0, v)$ and ${\mathbf{f}(0), \mathbf{f}(v)}$ is called tolerance of the lower Lipschitz bound and it is denoted by

$$
\begin{array}{r}
\Delta(\mathbf{f}(0), \mathbf{f}(v), 0, v)= \
\max \left(\min {\mathbf{w} \in \mathbf{V}(\mathbf{f}(0), \mathbf{f}(v), 0, v)}|\mathbf{w}-\mathbf{f}(0)|, \min {\mathbf{w} \in \mathbf{V}(\mathbf{f}(0), \mathbf{f}(v), 0, v)}|\mathbf{w}-\mathbf{f}(v)|\right) .
\end{array}
$$
Lemma 6.2 The error of approximation of $\mathbf{P}(\mathbf{f})_O$ by the line segment connecting $\mathbf{f}(0)$ and $\mathbf{f}(v)$ is bounded by $\Delta(\mathbf{f}(0), \mathbf{f}(v), 0, v)$.

Proof The lower bounds for both objective functions in the new variables are defined by the following formulae:
$$
\begin{array}{r}
g_1(t)=y_1-t, 0 \leq t \leq t_1, g_1(t)=y_2-(v-t), t_1 \leq t \leq v, \
g_2(t)=z_1-t, 0 \leq t \leq t_2, g_2(t)=z_2-(v-t), t_2 \leq t \leq v, \
t_1=\frac{v}{2}+\frac{y_1-y_2}{2}, t_2=\frac{v}{2}+\frac{z_1-z_2}{2} .
\end{array}
$$
The Pareto front for the problem
$$
\min _{0 \leq t \leq v} \mathbf{g}(t),
$$
defines the lower Lipschitz bound for $\mathbf{P}(\mathbf{f})_O$, and is coincident with the line segment in $\mathbb{R}^2$ that connects the points $\mathbf{p}_1$ and $\mathbf{p}_2$ where
$$
\mathbf{p}_1=\left(\begin{array}{l}
y_1-t_1 \
z_1-t_1
\end{array}\right), \quad \mathbf{p}_2=\left(\begin{array}{c}
y_2-\left(v-t_2\right) \
z_2-\left(v-t_2\right)
\end{array}\right) .
$$

数学代写|凸优化作业代写Convex Optimization代考|MATH3204

凸优化代写

数学代写|凸优化作业代写凸优化代考|帕累托边界的边界


让我们回忆一下,考虑一类Lipschitz目标函数$F\left(L_k\right)$,即$\mathbf{f}(x)=\left(f_1(x), f_2(x)\right)^T$和$f_k(x) \in F\left(L_k\right)$,如果
$$
\left|f_k(x)-f_k(t)\right| \leq L_k \cdot|x-t|, k=1,2,
$$
对于$x \in \mathbf{A}, t \in \mathbf{A}, L_k>0, k=1,2$,并且$\mathbf{A}$假设是一个有界闭合区间


相对简单的可计算下界的可用性使双目标Lipschitz优化的Pareto前沿的离散表示的质量的理论评估成为可能。对于不同的帕累托前近似度量,我们参考$[42,60,266,267]$ .

设$\mathbf{Y}n=\left{\mathbf{y}_1, \ldots, \mathbf{y}_n\right}$是在$x_i \in \mathbf{A}=[a, b], i=1, \ldots, n, \mathbf{X}_n=\left{x_1, \ldots, x_n\right}$点(即$\mathbf{y}_i=\mathbf{f}\left(x_i\right), i=1, \ldots, n$)处计算的目标向量集。由(6.15)可知,函数$g_k(x), k=1,2$定义了$f_k(x),[a \leq x \leq b]$: $$ \begin{array}{r} g_k(x)=\max \left(y{o i}^k-L_k\left(x-x_{o i}\right), y_{o i+1}^k-L_k\left(x_{o i+1}-x\right)\right), \
x_{o i} \leq x \leq x_{o i+1}, i=1, \ldots, n-1,
\end{array}
$$
的下界,其中$x_{o i}, i=1, \ldots, n$表示递增有序点$x_i$, $\mathbf{y}{o i}=$$\left(y{o i}^1, y_{o i}^2\right)^T$表示目标函数各自的值。为了简化下面的公式,让我们假设
$$
L_k=1, k=1,2 .
$$
上面的假设也可以写成$f_k(x) \in F(1)$的形式,因为它可以通过选择适当的目标函数值的比例来满足,所以不丧失一般性。6.1双目标问题
$$
\min {x{o i} \leq x \leq x_{o i+1}} \mathbf{g}(x), \mathbf{g}(x)=\left(g_1(x), g_2(x)\right)^T,
$$
称为$\mathbf{P}(\mathbf{f})O$的局部Lipschitz下界,记为$\mathbf{V}_i=$$\mathbf{V}\left(\mathbf{y}{o j}, x_{o j}, j=i, i+1\right)$。$\bigcup_{i=1}^{n-1} \mathbf{V}_i$的周帕累托最优解构成$\mathbf{P}(\mathbf{f})_O$的Lipschitz下界,记为$\mathbf{V}\left(\mathbf{Y}_n, \mathbf{X}_n\right.$)


由弱帕累托最优解组成的$\bigcup_{i=1}^n\left{\mathbf{z}: \mathbf{z} \in \mathbb{R}^2, \mathbf{z} \geq \mathbf{y}_i\right}$子集称为$\mathbf{P}(\mathbf{f})_O$的上界,用$\mathbf{U}\left(\mathbf{Y}_n\right)$ 表示

数学代写|凸优化作业代写凸优化代考| Lipschitz边界的性质

. .凸优化代考|


为了简化下面的公式,让我们考虑$\mathbf{f}(t), 0 \leq t \leq v$的边界,并表示$y_1=f_1(0), y_2=f_1(v), z_1=f_2(0), z_2=f_2(v)$。所证明的性质可以很容易地推广到任意区间$x_{o i} \leq x \leq x_{o i+1}$通过重新缩放变量。假设$\mathbf{f}(0)$和$\mathbf{f}(v)$不相互支配。在不丧失一般性的情况下,相互非支配性的假设被指定为$z_2 \leq z_1, y_1 \leq y_2$。图6.1展示了目标函数和$\mathbf{V}(\mathbf{f}(0), \mathbf{f}(v), 0, v)$的下界,其中使用相同的数据进行计算


6.3 $\mathbf{V}(\mathbf{f}(0), \mathbf{f}(v), 0, v)$和${\mathbf{f}(0), \mathbf{f}(v)}$之间的最大距离称为Lipschitz下界公差,用表示

$$
\begin{array}{r}
\Delta(\mathbf{f}(0), \mathbf{f}(v), 0, v)= \
\max \left(\min {\mathbf{w} \in \mathbf{V}(\mathbf{f}(0), \mathbf{f}(v), 0, v)}|\mathbf{w}-\mathbf{f}(0)|, \min {\mathbf{w} \in \mathbf{V}(\mathbf{f}(0), \mathbf{f}(v), 0, v)}|\mathbf{w}-\mathbf{f}(v)|\right) .
\end{array}
$$引理6.2近似的误差 $\mathbf{P}(\mathbf{f})_O$ 通过线段连接 $\mathbf{f}(0)$ 和 $\mathbf{f}(v)$ 受制于 $\Delta(\mathbf{f}(0), \mathbf{f}(v), 0, v)$.


新变量中两个目标函数的下界由以下公式定义:
$$
\begin{array}{r}
g_1(t)=y_1-t, 0 \leq t \leq t_1, g_1(t)=y_2-(v-t), t_1 \leq t \leq v, \
g_2(t)=z_1-t, 0 \leq t \leq t_2, g_2(t)=z_2-(v-t), t_2 \leq t \leq v, \
t_1=\frac{v}{2}+\frac{y_1-y_2}{2}, t_2=\frac{v}{2}+\frac{z_1-z_2}{2} .
\end{array}
$$
问题的帕雷托前沿
$$
\min _{0 \leq t \leq v} \mathbf{g}(t),
$$
定义了$\mathbf{P}(\mathbf{f})_O$的下Lipschitz界,并且与$\mathbb{R}^2$中连接$\mathbf{p}_1$和$\mathbf{p}_2$点的直线段一致,其中
$$
\mathbf{p}_1=\left(\begin{array}{l}
y_1-t_1 \
z_1-t_1
\end{array}\right), \quad \mathbf{p}_2=\left(\begin{array}{c}
y_2-\left(v-t_2\right) \
z_2-\left(v-t_2\right)
\end{array}\right) .
$$

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|ELEC4631

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|ELEC4631

数学代写|凸优化作业代写Convex Optimization代考|Optimal Sequential Algorithm

A user of optimization algorithms is inclined, as a rule, to believe that a passive algorithm will always be outperformed by an adaptive algorithm. Although it is normally true in applications, the theory of optimal algorithms shows that generally it is not true in the worst-case analysis [217]. As shown in [210], adaptation does not help in the worst-case Lipschitz single-objective optimization. A similar statement in the case of numerical integration is proved in [212]. Similar arguments are also valid in the case of multi-objective optimization. For example, in the case where $f_k\left(\mathbf{x}_i\right)=0, i=1, \ldots, n, k=1, \ldots, m$, the selection of the points $\mathbf{x}_i \in \mathbf{A}, i=1, \ldots, n$, different from the centers of balls of the optimal covering of A, obviously implies the error larger than the radius of balls of the optimal cover $r$. Since the worst-case analysis is not always best suitable to real world problems, it seems reasonable to slightly enhance the concept of optimality. The term “the best algorithm” has been introduced in [211] to name the sequential algorithm which in worst-case generates the same set of $\mathbf{x}_i, i=1, \ldots, n$, as the worstcase passive algorithm, however, performs better in other cases. If the available information on the considered problem at a current optimization step deviates from the worst-case information, that deviation is taken into account in an optimal way. The next step is performed optimally with respect to the less adversarial conditions where the worst-case conditions are reelaxed by the acquired favorable information. In terms of the game theory we are interested in the strategy seeking the extra winning in the situation where an adversary deviates from his optimal strategy. The best sequential algorithms for Lipschitz optimization and integration are constructed in [211] and [212] correspondingly. However, the implementation of the best sequential algorithm of global Lipschitz optimization is very complicated, and, to our best knowledge, it has never been implemented. Nevertheless, theoretical investigation of the best sequential multi-objective optimization algorithm for the functional class (6.1) would be interesting, at least to acquire recommendations for the development of heuristics inspired by properties of the best algorithm.

数学代写|凸优化作业代写Convex Optimization代考|One-Step Optimality for Bi-objective Problems

The problem of one-dimensional bi-objective optimization
$$
\min _{x \in \mathbf{A}} \mathbf{f}(x), \mathbf{f}(x)=\left(f_1(x), f_2(x)\right)^T,
$$
is considered, where the feasible region is a bounded interval
$$
\mathbf{A}={x: a \leq x \leq b}
$$
Let us recall that theoretically the solution to problem (6.14) consists of two sets: $\mathbf{P}(\mathbf{f})_O$, the Pareto optimal solutions in the space of objectives (Pareto front), and $\mathbf{P}(\mathbf{f})_D$, the set of Pareto optimal decisions in $\mathbf{A}$. We are interested in the efficient computation of a discrete representation of $\mathbf{P}(\mathbf{f})_O$ for the non-convex objective functions.

The selection of a concept of the efficiency of computations should be preceded by the definition of a class of targeted problems. Since the class of Lipschitz continuous functions is one of the most widely used models for single-objective non-convex optimization $[87,168,196]$ this model is also accepted to substantiate the construction of algorithms for the considered problem.

The worst-case optimality is a standard concept in the analysis of the algorithms’ optimality with respect to a deterministic model of problems/data [7]. The problem of construction of the worst-case optimal algorithm for a discrete representation of Pareto optimal solution sets for the problems with Lipschitz continuous objectives is considered in Sections 6.1.3 and 6.1.4. The optimal passive algorithm, as shown there, can be reduced to covering the feasible region by the balls of the minimum radius, and the optimal adaptive (sequential) algorithm is coincident with the optimal passive algorithm. For the problems where the worst-case assumptions are relevant, the computation of objectives at the points uniformly distributed in the feasible region can be favorable. That conclusion is interesting from the theoretical point of view, however, in the majority of real world problems the worstcase is not very likely. The worst-case optimal search can be interpreted as an antagonistic game in terms of the game theory: for the current point, selected by the search algorithm, an adversary defines the most inappropriate values of objective functions [35, 47]. The most inappropriate (non-informative) for optimizer values of the objective function are equal for all the points selected. When an ordinary optimization problem is considered, the assumption about a rational adversary, selecting the most inappropriate function values at all optimization steps, seems not very realistic. We assume now that the adversary is semi-rational, i.e., the strategy is optimal only at some optimization steps, but not during the entire optimization process. Such an assumption substantiates the investigation of a sequential one-step optimal algorithm.

数学代写|凸优化作业代写Convex Optimization代考|ELEC4631

凸优化代写

数学代写|凸优化作业代写凸优化代考|最优顺序算法

.


优化算法的用户通常倾向于相信被动算法总是优于自适应算法。尽管在应用中这通常是正确的,但最优算法理论表明,在最坏情况分析中通常不是这样的[217]。如[210]所示,适应在最坏情况下的Lipschitz单目标优化中没有帮助。在数值积分的情况下,[212]证明了类似的表述。类似的论点在多目标优化的情况下也是有效的。例如,在$f_k\left(\mathbf{x}_i\right)=0, i=1, \ldots, n, k=1, \ldots, m$的情况下,选择与A的最优覆盖的球的圆心不同的点$\mathbf{x}_i \in \mathbf{A}, i=1, \ldots, n$,显然意味着误差大于最优覆盖的球的半径$r$。由于最坏情况分析并不总是最适合于现实世界的问题,因此稍微加强最优性的概念似乎是合理的。在[211]中引入了术语“最佳算法”来命名顺序算法,该算法在最坏情况下生成相同的$\mathbf{x}_i, i=1, \ldots, n$集合,然而,最坏情况被动算法在其他情况下表现更好。如果当前优化步骤中所考虑问题的可用信息偏离最坏情况信息,则以最优方式考虑该偏差。下一步是在相对较弱的条件下最优地执行的,其中最坏的条件被获得的有利信息所放松。在博弈论中,我们关注的是在对手偏离其最优策略的情况下寻求额外胜利的策略。Lipschitz优化和积分的最佳顺序算法分别在[211]和[212]中构造。然而,全局Lipschitz优化的最佳顺序算法的实现非常复杂,据我们所知,它从未实现过。尽管如此,对函数类(6.1)的最佳顺序多目标优化算法的理论研究将是有趣的,至少可以获得由最佳算法的特性启发的启发式发展的建议

数学代写|凸优化作业代写凸优化代考|One-Step Optimality for Bi-objective Problems

.凸优化


考虑一维双目标优化问题
$$
\min _{x \in \mathbf{A}} \mathbf{f}(x), \mathbf{f}(x)=\left(f_1(x), f_2(x)\right)^T,
$$
,其中可行区域是有界区间
$$
\mathbf{A}={x: a \leq x \leq b}
$$
让我们回忆一下,理论上问题(6.14)的解由两个集合组成:$\mathbf{P}(\mathbf{f})_O$,目标空间中的帕累托最优解(帕累托前),和$\mathbf{P}(\mathbf{f})_D$, $\mathbf{A}$中的帕累托最优决策集。我们感兴趣的是非凸目标函数$\mathbf{P}(\mathbf{f})_O$的离散表示的高效计算


在选择计算效率的概念之前,应该先定义一类目标问题。由于Lipschitz连续函数类是单目标非凸优化中最广泛使用的模型之一$[87,168,196]$,该模型也被接受来证实所考虑问题的算法构造


最坏情况最优性是一个标准的概念,在分析算法的最优性有关的确定性模型的问题/数据。构造具有Lipschitz连续目标的Pareto最优解集离散表示的最坏情况最优算法的问题在第6.1.3节和6.1.4节中讨论。如图所示,最优无源算法可以简化为用半径最小的球覆盖可行区域,最优自适应(顺序)算法与最优无源算法重合。对于涉及最坏情况假设的问题,在可行区域内均匀分布的点上计算目标是有利的。从理论的角度来看,这个结论是有趣的,然而,在大多数现实世界的问题中,最坏的情况不太可能发生。从博弈论的角度来看,最坏情况最优搜索可以理解为一种对抗博弈:对于搜索算法选择的当前点,对手定义目标函数的最不合适值[35,47]。对于目标函数的优化器值来说,最不合适的(非信息性的)值对于所有选中的点都是相等的。当考虑一个普通的优化问题时,关于一个理性对手,在所有优化步骤中选择最不合适的函数值的假设似乎不太现实。我们现在假设对手是半理性的,即策略只在某些优化步骤是最优的,而不是在整个优化过程中。这一假设证实了顺序一步最优算法的研究

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|CPD131

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|CPD131

数学代写|凸优化作业代写Convex Optimization代考|Mathematical Model

A class of Lipschitz objective functions is considered, i.e., $f_k(\mathbf{x}) \in F\left(L_k\right)$ iff
$$
\left|f_k(\mathbf{x})-f_k(\mathbf{z})\right| \leq L_k \cdot|\mathbf{x}-\mathbf{z}|_D,
$$
where $\mathbf{x} \in \mathbf{A}, \mathbf{z} \in \mathbf{A}, \mathbf{L}=\left(L_1, \ldots, L_m\right)^T, L_k>0, k=1, \ldots, m$, and $|\cdot|_D$ is the Euclidean norm in the decision space $\mathbb{R}^d$ where the subscript $D$ indicates the decision space (the alternative subscript $O$ indicates the space of objectives/solutions). The feasible region $\mathbf{A}$ is supposed to be compact. To simplify the notation below, let us change the scales of function values so that
$$
L_k=1 / \sqrt{m}, k=1, \ldots, m .
$$
An algorithm consists of two sub-algorithms. The first sub-algorithm selects the points $\mathbf{x}_i \in \mathbf{A}$, and computes $\mathbf{f}\left(\mathbf{x}_i\right), i=1, \ldots, n$. The second sub-algorithm computes an approximation of $\mathbf{P}(\mathbf{f})_O$ using the output of the first sub-algorithm. The number of points $n$ is supposed to be chosen in advance. Such an assumption seems reasonable in the case of expensive objectives where the lengthy computation of a single value of the vector of objectives essentially restricts the permissible value of $n$. To exploit rationally an essentially restricted resource it is important to know its limit in advance. For example, in some heuristic single-objective global optimization algorithms some percentage of the admissible number of computations $n$, which is defined in advance, is assigned for global search, and the remaining computations are supposed for a local improvement of the found candidate solution.
Two versions of the first sub-algorithm are considered. The passive (nonadaptive) algorithm selects $\mathbf{x}_i, i=1, \ldots, n$, only taking into account information on the problem, i.e., on the class of objective functions and on (n, $\mathbf{A})$. The sequential (adaptive) algorithm consists of the algorithmic steps which compute $\mathbf{x}_i$ taking into account the points and function values computed at the previous steps:
$$
\begin{aligned}
\mathbf{x}_1 &=\mathbf{x}_1(n, \mathbf{A}), \
\mathbf{y}_i &=\mathbf{f}\left(\mathbf{x}_i\right), \
\mathbf{x}_i &=\mathbf{x}_i\left(n, \mathbf{A}, \mathbf{x}_j, \mathbf{y}_j, j=1, \ldots, i-1\right), i=2, \ldots, n .
\end{aligned}
$$
The output of the first sub-algorithm is $\left(\mathbf{X}_n, \mathbf{Y}_n\right)$, where $\mathbf{X}_n=\left(\mathbf{x}_1, \ldots, \mathbf{x}_n\right)$, and $\mathbf{Y}_n=\left(\mathbf{y}_1, \ldots, \mathbf{y}_n\right)$. The second sub-algorithm computes an approximation of $\mathbf{P}(\mathbf{f})_O$ using $\left(\mathbf{X}_n, \mathbf{Y}_n\right)$ as an input.

数学代写|凸优化作业代写Convex Optimization代考|Optimal Passive Algorithm

Assume that a passive algorithm has computed $\mathbf{X}_n=\left(\mathbf{x}_1, \ldots, \mathbf{x}_n\right)$ at the first stage. The worst-case error, in this case, is equal to $r\left(\mathbf{X}_n\right)$, as shown in Lemma 6.1. We are interested in the selection of points $\mathbf{x}_1, \ldots, \mathbf{x}_n$, minimizing $r\left(\mathbf{X}_n\right)$, and in the worstcase functions.

Theorem 6.1 The worst-case optimal multi-objective optimization algorithm selects the points $\mathbf{x}1, \ldots, \mathbf{x}_n$, at the centers of $n$ balls of minimal radius which cover the feasible region $\mathbf{A}$. The minimum worst-case error is equal to the radius $r$ of the balls of the optimal cover. The worst-case objective functions $\varphi(\cdot)$ and $\mathbf{g}(\cdot)$ are defined by the following formulae: $$ \begin{aligned} &\varphi_k(\mathbf{x})=c_k, \mathbf{x} \in \mathbf{A}, k=1, \ldots, m, \ &g_k(\mathbf{x})=\max {1 \leq i \leq n} c_k-\left(\left|\mathbf{x}-\mathbf{x}i\right|_D\right), \mathbf{x} \in \mathbf{A}, k=1, \ldots, m, \end{aligned} $$ where $c_k, k=1, \ldots, m$, are arbitrary constants. Proof The problem of minimization of $r\left(\mathbf{X}_n\right)$ $$ r=\min {\mathbf{x}1, \ldots, \mathbf{x}_n, \mathbf{x}_i \in \mathbf{A}} r\left(\mathbf{X}_n\right)=\min {\mathbf{x}1, \ldots, \mathbf{x}_n, \mathbf{x}_i \in \mathbf{A}} \max {\mathbf{x} \in \mathbf{A}} \min {1 \leq i \leq n}\left|\mathbf{x}-\mathbf{x}_i\right|_D, $$ is equivalent to the problem of covering a feasible region with equal balls of the minimal radius. Therefore, the centers of balls of optimal covering define the points, where the values of the objective functions should be computed. Repeating the arguments of Lemma $6.1$ it is easy to check that $$ \begin{aligned} &\max {\mathbf{y} \in \mathbf{P}(\varphi)O} \min {\mathbf{z} \in \widetilde{\mathbf{P}}(\varphi)O}|\mathbf{y}-\mathbf{z}|_O=r, \ &\max {\mathbf{y} \in \mathbf{P}(\mathbf{g})O} \min {\mathbf{z} \in \hat{\mathbf{P}}(\mathbf{g})_O}|\mathbf{y}-\mathbf{z}|_O-r .
\end{aligned}
$$

数学代写|凸优化作业代写Convex Optimization代考|CPD131

凸优化代写

数学代写|凸优化作业代写凸优化代考|数学模型

考虑一类Lipschitz目标函数,即$f_k(\mathbf{x}) \in F\left(L_k\right)$ iff
$$
\left|f_k(\mathbf{x})-f_k(\mathbf{z})\right| \leq L_k \cdot|\mathbf{x}-\mathbf{z}|_D,
$$
,其中$\mathbf{x} \in \mathbf{A}, \mathbf{z} \in \mathbf{A}, \mathbf{L}=\left(L_1, \ldots, L_m\right)^T, L_k>0, k=1, \ldots, m$, $|\cdot|_D$是决策空间$\mathbb{R}^d$中的欧氏范数,其中下标$D$表示决策空间(备选下标$O$表示目标/解决方案空间)。可行域$\mathbf{A}$应该是紧的。为了简化下面的表示法,让我们改变函数值的尺度,使
$$
L_k=1 / \sqrt{m}, k=1, \ldots, m .
$$
一个算法由两个子算法组成。第一个子算法选择点$\mathbf{x}_i \in \mathbf{A}$,并计算$\mathbf{f}\left(\mathbf{x}_i\right), i=1, \ldots, n$。第二个子算法使用第一个子算法的输出计算$\mathbf{P}(\mathbf{f})_O$的近似值。积分数$n$应该是提前选定的。在昂贵的目标情况下,这种假设似乎是合理的,因为目标向量的单一值的漫长计算基本上限制了$n$的允许值。要合理开发一种本质上有限的资源,重要的是要事先知道它的极限。例如,在一些启发式的单目标全局优化算法中,将预先定义的可接受计算次数$n$的一定百分比分配给全局搜索,并假定剩余的计算用于对已找到的候选解进行局部改进。
考虑了第一个子算法的两个版本。被动(非自适应)算法选择$\mathbf{x}_i, i=1, \ldots, n$,只考虑关于问题的信息,即关于目标函数类的信息和关于(n, $\mathbf{A})$。顺序(自适应)算法由计算$\mathbf{x}_i$的算法步骤组成,其中考虑到在前面步骤中计算的点和函数值:
$$
\begin{aligned}
\mathbf{x}_1 &=\mathbf{x}_1(n, \mathbf{A}), \
\mathbf{y}_i &=\mathbf{f}\left(\mathbf{x}_i\right), \
\mathbf{x}_i &=\mathbf{x}_i\left(n, \mathbf{A}, \mathbf{x}_j, \mathbf{y}_j, j=1, \ldots, i-1\right), i=2, \ldots, n .
\end{aligned}
$$
第一个子算法的输出是$\left(\mathbf{X}_n, \mathbf{Y}_n\right)$,其中$\mathbf{X}_n=\left(\mathbf{x}_1, \ldots, \mathbf{x}_n\right)$和$\mathbf{Y}_n=\left(\mathbf{y}_1, \ldots, \mathbf{y}_n\right)$。第二个子算法使用$\left(\mathbf{X}_n, \mathbf{Y}_n\right)$作为输入计算$\mathbf{P}(\mathbf{f})_O$的近似值

数学代写|凸优化作业代写凸优化代考|最优被动算法

.

假设被动算法在第一阶段计算了$\mathbf{X}_n=\left(\mathbf{x}_1, \ldots, \mathbf{x}_n\right)$。在本例中,最坏情况的误差等于$r\left(\mathbf{X}_n\right)$,如引理6.1所示。我们感兴趣的是点$\mathbf{x}_1, \ldots, \mathbf{x}_n$的选择,最小化$r\left(\mathbf{X}_n\right)$,以及最坏情况函数 定理6.1最坏情况最优多目标优化算法选取半径最小的球$n$的圆心点$\mathbf{x}1, \ldots, \mathbf{x}_n$,该圆心覆盖可行区域$\mathbf{A}$。最坏情况下的最小误差等于最优覆盖的球的半径$r$。最坏情况目标函数$\varphi(\cdot)$和$\mathbf{g}(\cdot)$由以下公式定义:$$ \begin{aligned} &\varphi_k(\mathbf{x})=c_k, \mathbf{x} \in \mathbf{A}, k=1, \ldots, m, \ &g_k(\mathbf{x})=\max {1 \leq i \leq n} c_k-\left(\left|\mathbf{x}-\mathbf{x}i\right|_D\right), \mathbf{x} \in \mathbf{A}, k=1, \ldots, m, \end{aligned} $$其中$c_k, k=1, \ldots, m$为任意常数。$r\left(\mathbf{X}_n\right)$$$ r=\min {\mathbf{x}1, \ldots, \mathbf{x}_n, \mathbf{x}_i \in \mathbf{A}} r\left(\mathbf{X}_n\right)=\min {\mathbf{x}1, \ldots, \mathbf{x}_n, \mathbf{x}_i \in \mathbf{A}} \max {\mathbf{x} \in \mathbf{A}} \min {1 \leq i \leq n}\left|\mathbf{x}-\mathbf{x}_i\right|_D, $$的极小化问题等价于用具有最小半径的等球覆盖可行区域的问题。因此,最优覆盖球的中心确定了目标函数值的计算点。重复引理$6.1$的参数,很容易检查$$ \begin{aligned} &\max {\mathbf{y} \in \mathbf{P}(\varphi)O} \min {\mathbf{z} \in \widetilde{\mathbf{P}}(\varphi)O}|\mathbf{y}-\mathbf{z}|_O=r, \ &\max {\mathbf{y} \in \mathbf{P}(\mathbf{g})O} \min {\mathbf{z} \in \hat{\mathbf{P}}(\mathbf{g})_O}|\mathbf{y}-\mathbf{z}|_O-r .
\end{aligned}
$$

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

数学代写|凸优化作业代写Convex Optimization代考|CPD131

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

statistics-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
数学代写|凸优化作业代写Convex Optimization代考|CPD131

数学代写|凸优化作业代写Convex Optimization代考|Tchebycheff Method

Different version of parametric scalar problems were proposed involving a reference point besides of weights of objectives. The weighted Tchebycheff method is one of the well-known methods of such a type, see, e.g., $[42,135]$. Let $\mathbf{u} \in \mathbb{R}^{m}$ be a utopian point, i.e., $u_{i}<\min {\mathbf{x} \in \mathbf{A}} f{i}(\mathbf{x})$, and $\mathbf{w}$ be a vector of weights. The weighted Tchebycheff problem is of the form
$$
\min {x \in \mathbf{A}} \max {i=1, \ldots, m} w_{i}\left(f_{i}(\mathbf{x})-u_{i}\right) .
$$ problem with appropriate parameters, and with any parameters its solution corresponds to a weakly Pareto optimal solution of the original problem. Let us emphasize that the stated property of the weighted Tchebycheff problem holds for the non-convex problems.

The objective function of minimization problem (2.3) is nondifferentiable even in the case of smooth objectives of the original multi-objective problem. It is well known that the numerical solution of nondifferentiable problems is more complicated than the solution of smooth ones. However, the problem (2.3) with smooth $f_{i}(\cdot)$ can be reduced to the following equivalent differentiable form:
$$
\begin{aligned}
&\min {t \geq 0} t \ &w{i}\left(f_{i}(\mathbf{x})-u_{i}\right) \leq t, i=1, \ldots, m \
&\mathbf{x} \in \mathbf{A}
\end{aligned}
$$

数学代写|凸优化作业代写Convex Optimization代考|kth-Objective Weighted-Constraint Problem

A scalarization method proposed in [26] is applicable not only to the problems with a disconnected Pareto front but also to the problems with a disconnected feasible set under the mild assumptions that the objective functions are continuous and bounded from below with a known lower bound; the latter assumption is reformulated as $f_{i}(\mathbf{x})>0$. This scalarization technique is named by its authors the ” $k$ th-objective weighted-constraint problem,”‘since for each fixed $k$, the $k$ th-objective is minimized, while the other weighted objective functions are incorporated as constraints:
$$
\begin{aligned}
&\min {\mathbf{x} \in \mathbf{A}} w{k} f_{k}(\mathbf{x}), \
&w_{i} f_{i}(\mathbf{x}) \leq w_{k} f_{k}(\mathbf{x}), i=1, \ldots, m, i \neq k, \
&w_{i}>0, \sum_{i=1}^{m} w_{i}=1 .
\end{aligned}
$$
As shown in [26], $\tilde{\mathbf{x}}$ is a weakly Pareto optimal decision of the original multiobjective optimization problem if and only if there exists some $\mathbf{w}$ such that $\tilde{\mathbf{x}}$ is an optimal decision of (2.9) for all $k=1, \ldots, m$.

Despite different formulas in the problem statement (2.3) and (2.9), the weakly Pareto optimal solution defined by the $m$ times repeated solution of (2.9) with different $k$ can be obtained by the solution of (2.3) with the same weights. Since the objective functions in (2.9) are assumed positive, the utopian vector in (2.3) is assumed equal to zero.

数学代写|凸优化作业代写Convex Optimization代考|CPD131

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Tchebycheff Method

除了目标权重之外,还提出了涉及参考点的不同版本的参数标量问题。加权 Tchebycheff 方法是此类众所周知的 方法之一,例如,参见 $[42,135]$. 让 $\mathbf{u} \in \mathbb{R}^{m}$ 成为一个乌托邦点,即 $u_{i}<\min \mathbf{x} \in \mathbf{A} f i(\mathbf{x})$ ,和 $\mathbf{w}$ 是权重向 量。加权切比雪夫问题的形式为
$$
\min x \in \mathbf{A} \max i=1, \ldots, m w_{i}\left(f_{i}(\mathbf{x})-u_{i}\right) .
$$
具有适当参数的问题,并且对于任何参数,其解对应于原始问题的弱帕傫托最优解。让我们强调,加权 Tchebycheff 问题的陈述性质适用于非凸问题。
即使在原始多目标问题的平滑目标的情况下,最小化问题 (2.3) 的目标函数也是不可微的。众所周知,不可微问 题的数值解比光滑问题的解更复杂。然而,问题 (2.3) 与平滑 $f_{i}(\cdot)$ 可以简化为以下等价的可微形式:
$$
\min t \geq 0 t \quad \text { wi }\left(f_{i}(\mathbf{x})-u_{i}\right) \leq t, i=1, \ldots, m \mathbf{x} \in \mathbf{A}
$$

数学代写|凸优化作业代写Convex Optimization代考|kth-Objective Weighted-Constraint Problem

[26] 中提出的一种标量化方法不仅适用于帕男托前沿不连通的问题, 而且在目标函数是连续的且从下方有界且具 有已知下界的温和假设下,也适用于不连通可行集的问题; 后一个假设被重新表述为 $f_{i}(\mathbf{x})>0$. 这种标量化技 术被其作者命名为 ” $k$ th-objective weighted-constraint problem,”‘因为对于每个固定的 $k$ ,这 $k$ th-objective 被最 小化,而其他加权目标函数被合并为约束:
$$
\min \mathbf{x} \in \mathbf{A} w k f_{k}(\mathbf{x}), \quad w_{i} f_{i}(\mathbf{x}) \leq w_{k} f_{k}(\mathbf{x}), i=1, \ldots, m, i \neq k, w_{i}>0, \sum_{i=1}^{m} w_{i}=1 .
$$
如[26]所示, $\tilde{\mathbf{x}}$ 是原始多目标优化问题的弱帕男托最优决策当且仅当存在一些 $\mathbf{w}$ 这样 $\tilde{\mathbf{x}}$ 是 (2.9) 的最优决策 $k=1, \ldots, m$
尽管问题陈述 (2.3) 和 (2.9) 中的公式不同,但由 $m(2.9)$ 的多次重复解 $k$ 可以通过相同权重的 (2.3) 的解决方 案获得。由于假设 (2.9) 中的目标函数为正,因此假设 (2.3) 中的乌托邦向量为零。

数学代写|凸优化作业代写Convex Optimization代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写