## 数学代写|数值分析代写numerical analysis代考|CIVL5458

statistics-lab™ 为您的留学生涯保驾护航 在代写数值分析numerical analysis方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写数值分析numerical analysis代写方面经验极为丰富，各种代写数值分析numerical analysis相关的作业也就用不着说。

• Statistical Inference 统计推断
• Statistical Computing 统计计算
• Advanced Probability Theory 高等概率论
• Advanced Mathematical Statistics 高等数理统计学
• (Generalized) Linear Models 广义线性模型
• Statistical Machine Learning 统计机器学习
• Longitudinal Data Analysis 纵向数据分析
• Foundations of Data Science 数据科学基础

## 数学代写|数值分析代写numerical analysis代考|Existence and Uniqueness of the SVD

Let us now show that every matrix has an SVD.
Theorem $2.3$ (existence of SVD). Every malrix $\mathrm{A} \in \mathbb{C}^{m \times n}$ has a simyuldr value decomposition. The singular values are unique and
$$\left{\sigma_i^2\right}_{i=1}^p=\left{\begin{array}{lll} \sigma\left(\mathrm{A}^{\mathrm{H}} \mathrm{A}\right) & \text { if } & m \geq n, \ q\left(\mathrm{AA}^{\mathrm{H}}\right) & \text { ir } & I I I I, \end{array}\right.$$
where $p=\min (m, n)$. Recall that the symbol $\sigma(\mathrm{B})$ stands for the spectrum of the square matrix $\mathrm{B}$.
Proof. (existence) Let us set
$$\sigma_1=|\mathbf{A}|_2=\sup {|\boldsymbol{x}|{\mathcal{R}^2\left(\mathbb{C}^n\right)}=1}|\mathbf{A} \boldsymbol{x}|_{\mathcal{Z}^2\left(\mathbb{C}^m\right)} .$$
Arguing by compactness, and using I heorem B.47, there is a vector $v_1 \in \mathbb{C}^{\prime \prime}$ with $\left|\boldsymbol{v}1\right|{\ell^2\left(\mathbb{C}^n\right)}=1$ such that $\left.|\mathbf{A}|_2=\left|A \boldsymbol{v}1\right|{\ell^2} \mathbb{( C}^m\right)=\sigma_1$. Define $\boldsymbol{u}1=|\mathrm{A}|_2^{-1} \mathrm{~A} \boldsymbol{v}_1$. Then $$\mathbf{A} \boldsymbol{v}_1=\sigma_1 \boldsymbol{u}_1, \quad\left|\boldsymbol{u}_1\right|{\ell^2\left(\mathbb{C}^m\right)}=1 .$$
Using the Gram-Schmidt orthogonalization process described in Section A.5, we can extend $\left{\boldsymbol{v}_1\right}$ to an orthonormal basis of $\mathbb{C}^n$ and $\left{\boldsymbol{u}_1\right}$ to an orthonormal basis of $\mathbb{C}^m$. In doing so, we obtain matrices
$$\mathrm{U}_1=\left[\boldsymbol{u}_1, \ldots, \boldsymbol{u}_m\right] \in \mathbb{C}^{m \times m}, \quad \mathbf{V}_1=\left[\boldsymbol{v}_1, \ldots, \boldsymbol{v}_n\right] \in \mathbb{C}^{n \times n},$$
which are unitary and, more importantly, satisfy
$$\mathrm{AV}_1=\mathrm{U}_1\left[\begin{array}{cc} \sigma_1 & \boldsymbol{w}^{\mathrm{H}} \ \mathbf{0} & \mathrm{B} \end{array}\right]=\mathrm{U}_1 \mathrm{~S}$$
for some $\boldsymbol{w} \in \mathbb{C}^{n-1}$ and $\mathrm{B} \in \mathbb{C}^{(m-1) \times(n-1)}$.

## 数学代写|数值分析代写numerical analysis代考|Further Properties of the SVD

The main motivation for the SVD was to try to construct an analogue of the spectral decomposition, which we know is only valid for square, nondefective matrices. Let us study now the relation between these two constructions, which in principle are not related to each other.

Theorem 2.6 (SVD and rank). Let $\mathrm{A} \in \mathbb{C}^{m \times n}$. Then $\operatorname{rank}(\mathrm{A})$ coincides with the number of nonzero singular values.

Proof. We write the SVD: $A=U \Sigma V^H$. Since $U$ and $V$ are unitary, they are full rank. By Theorem 1.16, $\operatorname{rank}(\mathrm{A})=\operatorname{rank}(\Sigma)$ and since $\Sigma$ is diagonal, the assertion follows.

Theorem $2.7$ (range and kernel through SVD). Let $\mathrm{A} \in \mathbb{C}^{m \times n}$ with $\operatorname{rank}(\mathrm{A})=r$. Suppose that an SVD for $\mathrm{A}$ is given by $\mathrm{A}=\mathrm{U} \Sigma \mathrm{V}^{\mathrm{H}}$, where $\boldsymbol{u}1, \ldots, \boldsymbol{u}_m$ denote the columns of $\mathrm{U}$ and $\boldsymbol{v}_1, \ldots, \boldsymbol{v}_n$ denote the columns of $\mathrm{V}$. Then $$\left\langle\boldsymbol{u}_1, \ldots, \boldsymbol{u}_r\right\rangle=\operatorname{im}(\mathrm{A}) \text { and }\left\langle\boldsymbol{v}{r+1}, \ldots, \boldsymbol{v}n\right\rangle=\operatorname{ker}(\mathrm{A}) \text {. }$$ Proof. ( $\subseteq$ ) From the SVD one can easily write $\mathbf{A} \boldsymbol{v}_i=\sigma_i \boldsymbol{u}_i$, for $i=1, \ldots, r$. This proves immediately that $\boldsymbol{u}_i \in \operatorname{im}(\mathrm{A})$, for $i=1, \ldots, r$. Since im $(\mathrm{A})$ is a subspace of $\mathbb{C}^m$, any linear combination of $\boldsymbol{u}_1, \ldots, \boldsymbol{u}_r$ is in $\operatorname{im}(\mathrm{A})$. Hence, $\left\langle\boldsymbol{u}_1, \ldots, \boldsymbol{u}_r\right\rangle \subseteq \operatorname{im}(\mathrm{A})$. (२) Let $\boldsymbol{y} \in \operatorname{im}(\mathrm{A})$. Then there exists $\boldsymbol{x} \in \mathbb{C}^n$ such that $\mathrm{A} \boldsymbol{x}=\boldsymbol{y}$. This implies that $\mathrm{U} \Sigma \mathrm{V}^H \boldsymbol{x}=\boldsymbol{y}$ for some $\boldsymbol{x}$. Let $\boldsymbol{x}^{\prime}=\mathrm{V}^{\mathrm{H}} \boldsymbol{x}$. Then, for some $\boldsymbol{x}^{\prime} \in \mathbb{C}^n, \mathrm{U} \boldsymbol{\boldsymbol { x } ^ { \prime }}=\boldsymbol{y}$. Set $\boldsymbol{x}^{\prime \prime}=\Sigma \boldsymbol{x}^{\prime}$. Note that $\boldsymbol{x}^{\prime \prime} \in \mathbb{C}^m$ and $x{r+1}^{\prime \prime}=\cdots=x_m^{\prime \prime}=0$. Hence, for some $\boldsymbol{x}^{\prime \prime} \in \mathbb{C}^m$, $U \boldsymbol{x}^{\prime \prime}=\boldsymbol{y}$. Now we write
$$\boldsymbol{y}=\mathbf{U} \boldsymbol{x}^{\prime \prime}=\sum_{j=1}^m x_j^{\prime \prime} \boldsymbol{u}j=\sum{j=1}^r x_j^{\prime \prime} \boldsymbol{u}j \in\left\langle\boldsymbol{u}_1, \ldots, \boldsymbol{u}_r\right\rangle$$ This proves that $\left\langle\boldsymbol{u}_1, \ldots, \boldsymbol{u}_r\right\rangle \supseteq \mathrm{im}(\mathrm{A})$, and we are done. ( $\subseteq$ ) From the SVD one can easily write $\mathbf{A} \boldsymbol{v}_i=\mathbf{0}$, for $i=r+1, \ldots, n$. This proves immediately that $v_i \in \operatorname{ker}(\mathrm{A})$, for $i=r+1, n$ Since ker $(\mathrm{A})$ is subepare of $\mathbb{C}^n$, any linear combination of $\boldsymbol{v}{r+1}, \ldots, \boldsymbol{v}n$ is in $\operatorname{ker}(\mathrm{A})$. Hence, $\left\langle\boldsymbol{v}{r+1}, \ldots, \boldsymbol{v}_n\right\rangle \subseteq$ $\operatorname{ker}(\mathrm{A})$

# 数值分析代考

$$i=r+1, \ldots, n. 这立即证明 v_i \in \operatorname{ker}(\mathrm{A}) ，为了 i=r+1, n 由于 \operatorname{ker}(\mathrm{A}) 低于 \mathbb{C}^n ，的任何线性组合 \boldsymbol{v} r+1, \ldots, \boldsymbol{v} n 在 \operatorname{ker}(\mathrm{A}). 因此， \left\langle\boldsymbol{v} r+1, \ldots, \boldsymbol{v}_n\right\rangle \subseteq \operatorname{ker}(\mathrm{A}) 统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。 ## 金融工程代写 金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题，以及设计新的和创新的金融产品。 ## 非参数统计代写 非参数统计指的是一种统计方法，其中不假设数据来自于由少数参数决定的规定模型；这种模型的例子包括正态分布模型和线性回归模型。 ## 广义线性模型代考 广义线性模型（GLM）归属统计学领域，是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。 术语 广义线性模型（GLM）通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归，以及方差分析和方差分析（仅含固定效应）。 ## 有限元方法代写 有限元方法（FEM）是一种流行的方法，用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。 有限元是一种通用的数值方法，用于解决两个或三个空间变量的偏微分方程（即一些边界值问题）。为了解决一个问题，有限元将一个大系统细分为更小、更简单的部分，称为有限元。这是通过在空间维度上的特定空间离散化来实现的，它是通过构建对象的网格来实现的：用于求解的数值域，它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统，以模拟整个问题。然后，有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。 tatistics-lab作为专业的留学生服务机构，多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务，包括但不限于Essay代写，Assignment代写，Dissertation代写，Report代写，小组作业代写，Proposal代写，Paper代写，Presentation代写，计算机作业代写，论文修改和润色，网课代做，exam代考等等。写作范围涵盖高中，本科，研究生等海外留学全阶段，辐射金融，经济学，会计学，审计学，管理学等全球99%专业科目。写作团队既有专业英语母语作者，也有海外名校硕博留学生，每位写作老师都拥有过硬的语言能力，专业的学科背景和学术写作经验。我们承诺100%原创，100%专业，100%准时，100%满意。 ## 随机分析代写 随机微积分是数学的一个分支，对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。 ## 时间序列分析代写 随机过程，是依赖于参数的一组随机变量的全体，参数通常是时间。 随机变量是随机现象的数量表现，其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值（如1秒，5分钟，12小时，7天，1年），因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中，往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录，以得到其自身发展的规律。 ## 回归分析代写 多元回归分析渐进（Multiple Regression Analysis Asymptotics）属于计量经济学领域，主要是一种数学上的统计分析方法，可以分析复杂情况下各影响因素的数学关系，在自然科学、社会和经济学等多个领域内应用广泛。 ## MATLAB代写 MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中，其中问题和解决方案以熟悉的数学符号表示。典型用途包括：数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发，包括图形用户界面构建MATLAB 是一个交互式系统，其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题，尤其是那些具有矩阵和向量公式的问题，而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问，这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展，得到了许多用户的投入。在大学环境中，它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域，MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要，工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数（M 文件）的综合集合，可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。 ## 数学代写|数值分析代写numerical analysis代考|MATH3003 如果你也在 怎样代写数值分析numerical analysis这个学科遇到相关的难题，请随时右上角联系我们的24/7代写客服。 数值分析是数学的一个分支，使用数字近似法解决连续问题。它涉及到设计能给出近似但精确的数字解决方案的方法，这在精确解决方案不可能或计算成本过高的情况下很有用。 statistics-lab™ 为您的留学生涯保驾护航 在代写数值分析numerical analysis方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写数值分析numerical analysis代写方面经验极为丰富，各种代写数值分析numerical analysis相关的作业也就用不着说。 我们提供的数值分析numerical analysis及其相关学科的代写，服务范围广, 其中包括但不限于: • Statistical Inference 统计推断 • Statistical Computing 统计计算 • Advanced Probability Theory 高等概率论 • Advanced Mathematical Statistics 高等数理统计学 • (Generalized) Linear Models 广义线性模型 • Statistical Machine Learning 统计机器学习 • Longitudinal Data Analysis 纵向数据分析 • Foundations of Data Science 数据科学基础 ## 数学代写|数值分析代写numerical analysis代考|Eigenvalues and Spectral Decomposition As a final topic in this chapter we discuss eigenvalues and spectral decomposition of square matrices. We begin with a definition. Definition 1.36 (spectrum). Let A \in \mathbb{C}^{n \times n}. We say that \lambda \in \mathbb{C} is an eigenvalue of A if and only if there exists a vector x \in \mathbb{C}_*^n=\mathbb{C}^n \backslash{\mathbf{0}} such that$$
A x=\lambda x .
$$This vector is called an eigenvector of \mathrm{A} associated with \lambda. The spectrum of \mathrm{A}, denoted by \sigma(\mathrm{A}), is the collection of all eigenvalues of \mathrm{A}. The pair (\lambda, \boldsymbol{x}) is called an eigenpair of A. Theorem 1.37 (properties of the spectrum). Let \mathrm{A} \in \mathbb{C}^{n \times n}. Then 1. \lambda \in \sigma(\mathrm{A}) if and only if \bar{\lambda} \in \sigma\left(\mathbf{A}^{\mathrm{H}}\right). 2. \mathrm{A} is invertible if and only if 0 \notin \sigma(\mathrm{A}). 3. The eigenvectors corresponding to distinct eigenvalues are linearly independent. 4. \lambda \in \sigma(\mathrm{A}) if and only if \chi_{\mathrm{A}}(\lambda)=0, where \chi_{\mathrm{A}} is a polynomial of degree n, defined via$$
\chi_{\mathrm{A}}(\lambda)=\operatorname{det}\left(\lambda \mathrm{I}n-\mathrm{A}\right) $$\chi{\mathrm{A}} is called the characteristic polynomial. 5. There are at most n distinct complex-valued eigenvalues of \mathrm{A}. Proof. See Problem 1.28. Since we are dealing with matrices with complex entries, the fundamental theorem of algebra (see [18, Section 2.8]) implies that the characteristic polynomial can be written as a product of factors, i.e.,$$
\chi_{\mathrm{A}}(\lambda)=\prod_{i=1}^L\left(\lambda-\lambda_i\right)^{m_i}
$$with n=\sum_{i=1}^L m_i ## 数学代写|数值分析代写numerical analysis代考|Reduced and Full Singular Value Decompositions Definition 2.1 (SVD). Let A \in \mathbb{C}^{m \times n}. A singular value decomposition (SVD) of the matrix A is a factorization of the form$$
\mathrm{A}=\mathrm{U \Sigma} \mathrm{V}^{\mathrm{H}} \text {, }
$$where \mathrm{U} \in \mathbb{C}^{m \times m} and \mathrm{V} \in \mathbb{C}^{n \times n} are unitary, \Sigma \in \mathbb{R}^{m \times n} is diagonal – meaning that [\Sigma]{i, j}=0, for i \neq j – and the diagonal entries [\Sigma]{i, i}=\sigma_i are nonnegative and in nonincreasing order: \sigma_1 \geq \sigma_2 \geq \cdots \geq \sigma_p \geq 0 with p=\min (m, n). The elements of the \Sigma are called the singular values of A. The columns of U and V are called the left and right singular vectors, respectively. Remark 2.2 (reduced SVD). Let us, for the sake of definiteness, assume that m \geq n. If \mathrm{A} \in \mathbb{C}^{m \times n} has an SVD, then we can write$$
\mathbf{A} \boldsymbol{v}_j=\sigma_j \boldsymbol{u}_j, \quad j=1, \ldots, n,
$$or, equivalently,$$
\mathrm{A}\left[\boldsymbol{v}_1, \ldots, \boldsymbol{v}_n\right]=\left[\boldsymbol{u}_1, \ldots, \boldsymbol{u}_n\right]\left[\begin{array}{ccc}
\sigma_1 & & \
& \ddots & \
& & \sigma_n
\end{array}\right]
$$In other words, we have obtained the representation$$
\mathrm{AV}=\hat{U} \hat{\Sigma} \text {, }
$$where: 1. \hat{\Sigma} \in \mathbb{R}^{n \times n} is square and diagonal with nonnegative diagonal entries. 2. \hat{U} \in \mathbb{C}^{m \times n} has orthonormal columns. 3. \mathrm{V} \in \mathbb{C}^{n \times n} is unitary. Writing this another way, we have$$
\mathrm{A}=\hat{U} \hat{\Sigma} \mathrm{V}^{\mathrm{H}} \text {. }
$$This is the so-called reduced SVD of a matrix. # 数值分析代考 ## 数学代写|数值分析代写numerical analysis代考|Eigenvalues and Spectral Decomposition 作为本章的最后一个主题，我们将讨论方阵的特征值和谱分解。我们从一个定义开始。 定义1.36 (光谱)。让 A \in \mathbb{C}^{n \times n}. 我们说 \lambda \in \mathbb{C} 是的特征值 A 当且仅当存在向量 x \in \mathbb{C}_*^n=\mathbb{C}^n \backslash \mathbf{0} 这样$$
A x=\lambda x .
$$这个向量被称为特征向量 \mathrm{A} 有关联 \lambda. 的光谱 \mathrm{A} ，表示为 \sigma(\mathrm{A}) ，是所有特征值的集合 \mathrm{A}. 这对 (\lambda, \boldsymbol{x}) 称为特征 对 A. 定理1.37 (光谱的特性)。让 \mathrm{A} \in \mathbb{C}^{n \times n}. 然后 1. \lambda \in \sigma(\mathrm{A}) 当且仅当 \bar{\lambda} \in \sigma\left(\mathbf{A}^{\mathrm{H}}\right). 2. \mathrm{A} 是可逆的当且仅当 0 \notin \sigma(\mathrm{A}). 3. 对应于不同特征值的特征向量是线性无关的。 4. \lambda \in \sigma(\mathrm{A}) 当且仅当 \chi_{\mathrm{A}}(\lambda)=0 ，在哪里 \chi_{\mathrm{A}} 是次数的多项式 n ，通过 \ \$$ \$1chi { Imathrm{A}}\$ 称为特征多项式。
5. 最多有 $n$ 的不同复值特征值 $\mathrm{A}$.
证明。见习题 1.28。
由于我们处理的是具有复数项的矩阵，代数基本定理（参见 [18，第 $2.8$ 节]) 暗示特征多项式可以 写成因子的乘积，即，
$$\chi_{\mathrm{A}}(\lambda)=\prod_{i=1}^L\left(\lambda-\lambda_i\right)^{m_i}$$
$$\text { 和 } n=\sum_{i=1}^L m_i$$

## 数学代写|数值分析代写numerical analysis代考|Reduced and Full Singular Value Decompositions

$$\mathrm{A}=\mathrm{U} \Sigma \mathrm{V}^{\mathrm{H}} \text {, }$$

$$\mathbf{A} \boldsymbol{v}_j=\sigma_j \boldsymbol{u}_j, \quad j=1, \ldots, n,$$

$$\mathrm{A}\left[\boldsymbol{v}_1, \ldots, \boldsymbol{v}_n\right]=\left[\boldsymbol{u}_1, \ldots, \boldsymbol{u}_n\right]\left[\begin{array}{lll} \sigma_1 & \ddots & \sigma_n \end{array}\right]$$

$$\mathrm{AV}=\hat{U} \hat{\Sigma}$$

1. $\hat{\Sigma} \in \mathbb{R}^{n \times n}$ 是具有非负对角线元素的正方形和对角线。
2. $\hat{U} \in \mathbb{C}^{m \times n}$ 有正交列。
3. $\mathrm{V} \in \mathbb{C}^{n \times n}$ 是单一的。
换一种方式写，我们有
$$\mathrm{A}=\hat{U} \hat{\Sigma} \mathrm{V}^{\mathrm{H}}$$
这就是所谓的矩阵的简化 SVD。

## 有限元方法代写

tatistics-lab作为专业的留学生服务机构，多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务，包括但不限于Essay代写，Assignment代写，Dissertation代写，Report代写，小组作业代写，Proposal代写，Paper代写，Presentation代写，计算机作业代写，论文修改和润色，网课代做，exam代考等等。写作范围涵盖高中，本科，研究生等海外留学全阶段，辐射金融，经济学，会计学，审计学，管理学等全球99%专业科目。写作团队既有专业英语母语作者，也有海外名校硕博留学生，每位写作老师都拥有过硬的语言能力，专业的学科背景和学术写作经验。我们承诺100%原创，100%专业，100%准时，100%满意。

## MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中，其中问题和解决方案以熟悉的数学符号表示。典型用途包括：数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发，包括图形用户界面构建MATLAB 是一个交互式系统，其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题，尤其是那些具有矩阵和向量公式的问题，而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问，这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展，得到了许多用户的投入。在大学环境中，它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域，MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要，工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数（M 文件）的综合集合，可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

## 数学代写|数值分析代写numerical analysis代考|MATHS7104

statistics-lab™ 为您的留学生涯保驾护航 在代写数值分析numerical analysis方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写数值分析numerical analysis代写方面经验极为丰富，各种代写数值分析numerical analysis相关的作业也就用不着说。

• Statistical Inference 统计推断
• Statistical Computing 统计计算
• Advanced Probability Theory 高等概率论
• Advanced Mathematical Statistics 高等数理统计学
• (Generalized) Linear Models 广义线性模型
• Statistical Machine Learning 统计机器学习
• Longitudinal Data Analysis 纵向数据分析
• Foundations of Data Science 数据科学基础

## 数学代写|数值分析代写numerical analysis代考|Linear Operators and Matrices

We study the natural mappings between vector spaces, i.e., those that preserve the vector space structure.

Definition $1.1$ (linear operator). Let $\mathbb{V}$ and $\mathbb{W}$ be complex vector spaces. The mapping $A: \mathbb{V} \rightarrow \mathbb{W}$ is called a linear operator if and only if
$$A(\alpha x+\beta y)=\alpha A x+\beta A y, \quad \forall \alpha, \beta \in \mathbb{C}, \forall x, y \in \mathbb{V}$$

The set of all linear operators from $\mathbb{V}$ to $\mathbb{W}$ is denoted by $\mathfrak{L}(\mathbb{V}, \mathbb{W})$. For simplicity, we denote by $\mathfrak{L}(\mathbb{V})$ the set of linear operators from $\mathbb{V}$ to itself. Suppose that $A, B \in \mathfrak{L}(\mathbb{V}, \mathbb{W})$ and $\alpha, \beta \in \mathbb{C}$ are arbitrary. We define, in a natural way, the object $\alpha A+\beta B$ via
$$(\alpha A+\beta B) x=\alpha A x+\beta B x, \quad \forall x \in \mathbb{V} .$$
It is straightforward to prove that $\alpha A+\beta B$ is a linear operator and we get the following result.

Proposition $1.2$ (properties of $\mathfrak{L}(\mathbb{V}, \mathbb{W})$ ). Let $\mathbb{V}$ and $W$ be complex vector spaces. The set $\mathfrak{L}(\mathbb{V}, \mathbb{W})$ is a vector space using the natural definitions of addition and scalar multiplication given in the last definition. If $\operatorname{dim}(\mathbb{V})=m$ and $\operatorname{dim}(\mathbb{W})=n$, then $\operatorname{dim}(\mathfrak{L}(\mathbb{V}, \mathbb{W}))=m n$
Proof. See Problem 1.2.
Definition $1.3$ ( $m \times n$ matrices). Let $\mathbb{K}$ be a field. We define, for any $m, n \in \mathbb{N}$,
$$\mathbb{K}^{m \times n}=\left{\mathrm{A}=\left[a_{i, j}\right] \mid a_{i, j} \in \mathbb{K}, i=1, \ldots, m, j=1, \ldots, n\right} .$$
The object $\mathrm{A}$ is called a matrix and the elements $a_{i, j} \in \mathbb{K}$ are called its components or entries. We call $\mathbb{C}^{m \times n}$ the set of complex $m \times n$ matrices and $\mathbb{R}^{m \times n}$ the set of real $m \times n$ matrices.

To extract the entry in the $i$ th row and $j$ th column of the $m \times n$ matrix $\mathrm{A} \in \mathbb{K}^{m \times n}$, we use the notation
$$[\mathrm{A}]{i, j}=a{i, j} \in \mathbb{K} .$$
The convention is that the entries of a matrix are denoted by the respective lowercase roman symbol. For example, the matrix $C$ has entries $c_{i, j}$. We often make this identification explicit, as in writing $\mathrm{A}=\left[a_{i, j}\right] \in \mathbb{C}^{m \times n}$. We say that there are $m$ rows and $n$ columns in an $m \times n$ matrix A. We naturally define $m \times n$ matrix addition and scalar multiplication component-wise via
$$[\mathrm{A}+\mathrm{B}]{i, j}=a{i, j}+b_{i, j}, \quad[\alpha \mathrm{A}]{i, j}=\alpha a{i, j}, \quad i=1, \ldots, m, \quad j=1, \ldots, n,$$
where $\mathrm{A}, \mathrm{B} \in \mathbb{K}^{m \times n}$ are arbitrary $m \times n$ matrices and $\alpha \in \mathbb{K}$ is an arbitrary scalar.

## 数学代写|数值分析代写numerical analysis代考|Matrix Norms

Since, for any two vector spaces $\mathbb{V}$ and $\mathbb{W}$, the set $\mathfrak{L}(\mathbb{V}, \mathbb{W})$ is a vector space itself, we can think of ways of norming it. An immediate way of doing so is by simply considering elements of $\mathbb{C}^{m \times n}$ as a collection of $m n$ numbers, i.e., by identifying $\mathbb{C}^{m \times n}$ with $\mathbb{C}^{m \cdot n}$.

Definition $1.26$ (Frobenius norm ${ }^2$ ). Let $\mathrm{A}=\left[a_{i, j}\right] \in \mathbb{C}^{m \times n}$. The Frobenius norm is defined via
$$|\mathrm{A}|_F^2=\sum_{i=1}^m \sum_{j=1}^n\left|a_{i, j}\right|^2 .$$
Definition $1.27$ (max norm). The matrix max norm is defined via
$$|\mathrm{A}|_{\max }=\operatorname{mila}{\substack{1 \leq i \leq m \ 1 \leq j \leq n}}\left|d{i, j}\right|$$
for all $\mathrm{A}=\left[a_{i, j}\right] \in \mathbb{C}^{m \times n}$.
However, it turns out that it is often more useful when the norms on $\mathfrak{L}(\mathbb{V}, \mathbb{W})$ are, in a sense, compatible with those of $\mathbb{V}$ and $\mathbb{W}$.

Definition $1.28$ (induced norm). Let $\left(\mathbb{V},|\cdot|_{\mathbb{V}}\right)$ and $\left(\mathbb{W},|\cdot|_{\mathbb{W}}\right)$ be complex, finitedimensional normed vector spaces. The induced norm on $\mathfrak{L}(\mathbb{V}, \mathbb{W})$ is
$$|A|_{\mathfrak{L}(\mathrm{v}, \mathbb{W})}=\sup {x \in \mathbb{V}} \frac{|A x|{\mathfrak{w}}}{|x|_{\mathrm{V}}}, \quad \forall A \in \mathfrak{L}(\mathbb{V}, \mathbb{W}),$$
where $\mathbb{V}{\star}=\mathbb{V} \backslash{0}$. When $\mathbb{V}=\mathbb{W}$ it is understood that $|\cdot|{\mathbb{V}}=|\cdot|_{\mathbb{W}}$ as well.

Remark $1.29$ (convention). Regarding the last point, in our presentation, the following object would not define an induced matrix norm:
for $p \neq q$. While this definition is meaningful for every $p, q \in[1, \infty]$, and it indeed defines a norm, we will only consider it to be an induced norm for $p=q$.

Definition $1.30$ (matrix $p$-norm). Let $\mathrm{A} \in \mathbb{C}^{m \times n}$ be given and $p \in[1, \infty]$. The induced $\mathfrak{L}\left(\ell^p\left(\mathbb{C}^n\right), \ell^\rho\left(\mathbb{C}^m\right)\right)$ norm, called simply the induced matrix p-norm, is denoted $|\mathbf{A}|_p$ and is defined as
$$|\mathrm{A}|_p=\sup {\boldsymbol{x} \in \mathbb{C}^n} \frac{|\mathbf{A} \boldsymbol{x}|{\ell^\rho\left(\mathbb{C}^m\right)}}{|\boldsymbol{x}|_{\ell \rho}\left(\mathbb{C}^n\right)} .$$

# 数值分析代考

## 数学代写|数值分析代写numerical analysis代考|Linear Operators and Matrices

$$A(\alpha x+\beta y)=\alpha A x+\beta A y, \quad \forall \alpha, \beta \in \mathbb{C}, \forall x, y \in \mathbb{V}$$

$$(\alpha A+\beta B) x=\alpha A x+\beta B x, \quad \forall x \in \mathbb{V} .$$

$$[\mathrm{A}] i, j=a i, j \in \mathbb{K} \text {. }$$

$$[\mathrm{A}+\mathrm{B}] i, j=a i, j+b_{i, j}, \quad[\alpha \mathrm{A}] i, j=\alpha a i, j, \quad i=1, \ldots, m, \quad j=1, \ldots, n$$

## 数学代写|数值分析代写numerical analysis代考|Matrix Norms

$$|\mathrm{A}|F^2=\sum{i=1}^m \sum_{j=1}^n\left|a_{i, j}\right|^2 \text {. }$$

$$|\mathbf{A}|{\max }=\text { mila } 1 \leq i \leq m m{1 \leq j \leq n}|d i, j|$$

## 有限元方法代写

tatistics-lab作为专业的留学生服务机构，多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务，包括但不限于Essay代写，Assignment代写，Dissertation代写，Report代写，小组作业代写，Proposal代写，Paper代写，Presentation代写，计算机作业代写，论文修改和润色，网课代做，exam代考等等。写作范围涵盖高中，本科，研究生等海外留学全阶段，辐射金融，经济学，会计学，审计学，管理学等全球99%专业科目。写作团队既有专业英语母语作者，也有海外名校硕博留学生，每位写作老师都拥有过硬的语言能力，专业的学科背景和学术写作经验。我们承诺100%原创，100%专业，100%准时，100%满意。

## MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中，其中问题和解决方案以熟悉的数学符号表示。典型用途包括：数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发，包括图形用户界面构建MATLAB 是一个交互式系统，其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题，尤其是那些具有矩阵和向量公式的问题，而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问，这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展，得到了许多用户的投入。在大学环境中，它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域，MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要，工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数（M 文件）的综合集合，可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

## 数学代写|数值分析代写numerical analysis代考|CIVL5458

statistics-lab™ 为您的留学生涯保驾护航 在代写数值分析numerical analysis方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写数值分析numerical analysis代写方面经验极为丰富，各种代写数值分析numerical analysis相关的作业也就用不着说。

• Statistical Inference 统计推断
• Statistical Computing 统计计算
• Advanced Probability Theory 高等概率论
• Advanced Mathematical Statistics 高等数理统计学
• (Generalized) Linear Models 广义线性模型
• Statistical Machine Learning 统计机器学习
• Longitudinal Data Analysis 纵向数据分析
• Foundations of Data Science 数据科学基础

## 数学代写|数值分析代写numerical analysis代考|Constructing interpolants in the Lagrange basis

The monomial basis gave us a linear system (1.1) of the form Ac $=\mathbf{f}$ in which A was a dense matrix: all of its entries are nonzero. The Newton basis gave a simpler system (1.4) in which A was a lower triangular matrix. Can we go one step further, and find a set of basis functions for which the matrix in (1.3) is diagonal?

For the matrix to be diagonal, the $j$ th basis function would need to have roots at all the other interpolation points $x_k$ for $k \neq j$. Such func-tions, denoted $\ell_j$ for $j=0, \ldots, n$, are called Lagrange basis polynomials, and they result in the Lagrange form of the interpolating polynomial.
We seek to construct $\ell_j \in \mathcal{P}_n$ with $\ell_j\left(x_k\right)=0$ if $j \neq k$, but $\ell_j\left(x_k\right)=1$ if $j=k$. That is, $\ell_j$ takes the value one at $x_j$ and has roots at all the other $n$ interpolation points.

What form do these basis functions $\ell_j \in \mathcal{P}n$ take? Since $\ell_j$ is a degree- $n$ polynomial with the $n$ roots $\left{x_k\right}{k=0, k \neq j^{\prime}}^n$ it can be written in the form
$$\ell_j(x)=\prod_{k=0, k \neq j}^n \gamma_k\left(x-x_k\right)$$
for appropriate constants $\gamma_k$. We can force $\ell_j\left(x_j\right)=1$ if all the terms in the above product are one when $x=x_j$, i.e., when $\gamma_k=1 /\left(x_j-\right.$ $\left.x_k\right)$, so that
$$\ell_j(x)=\prod_{k=0, k \neq j}^n \frac{x-x_k}{x_j-x_k} .$$
This form makes it clear that $\ell_j\left(x_j\right)=1$. With these new basis functions, the constants $\left{c_j\right}$ can be written down immediately. The interpolating polynomial has the form
$$p_n(x)=\sum_{k=0}^n c_k \ell_k(x)$$

## 数学代写|数值分析代写numerical analysis代考|Convergence theory for polynomial interpolation

Interpolation can be used to generate low-degree polynomials that approximate a complicated function over the interval $[a, b]$. One might assume that the more data points that are interpolated (for a fixed $[a, b]$ ), the more accurate the resulting approximation. In this lecture, we address the behavior of the maximum error
$$\max _{x \in[a, b]}\left|f(x)-p_n(x)\right|$$
as the number of interpolation points-hence, the degree of the interpolating polynomial-is increased. We begin with a theoretical result.

Unfortunately, we do not have time to prove this in class. ${ }^{\text {As }}$ stated, this theorem gives no hint about what the approximating polynomial looks like, whether $p_n$ interpolates $f$ at $n+1$ points, or merely approximates $f$ well throughout $[a, b]$, nor does the Weierstrass theorem describe the accuracy of a polynomial for a specific value of $n$ (though one could gain insight into such questions by studying the constructive proof).

On the other hand, for the interpolation problem studied in the preceding lectures, we can obtain a specific error formula that gives a bound on $\max {x \in[a, b]}\left|f(x)-p_n(x)\right|$. From this bound, we can deduce if interpolating $f$ at increasingly many points will eventually yield a polynomial approximation to $f$ that is accurate to any specified precision. For any $\hat{x} \in[a, b]$ that is not of the interpolation points, we seek to measure the error $$f(\widehat{x})-p_n(\widehat{x}),$$ where $p_n \in \mathcal{P}_n$ is the interpolant to $f$ at the distinct points $x_0, \ldots, x_n \in$ $[a, b]$. We can get a grip on this error from the following perspective. Extend $p_n$ by one degree to give a new polynomial that additionally interpolates $f$ at $\widehat{x}$. This is easy to do with the Newton form of the interpolant; write the new polynomial as $$p_n(x)+\lambda \prod{j=0}^n\left(x-x_j\right)$$ for constant $\lambda$ chosen so that
$$f(\widehat{x})=p_n(\widehat{x})+\lambda \prod_{j=0}^n\left(\widehat{x}-x_j\right)$$

# 数值分析代考

## 数学代写|数值分析代写numerical analysis代考|Constructing interpolants in the Lagrange basis

$$\ell_j(x)=\prod_{k=0, k \neq j}^n \gamma_k\left(x-x_k\right)$$

$$\ell_j(x)=\prod_{k=0, k \neq j}^n \frac{x-x_k}{x_j-x_k}$$

$$p_n(x)=\sum_{k=0}^n c_k \ell_k(x)$$

## 数学代写|数值分析代写numerical analysis代考|Convergence theory for polynomial interpolation

$$\max {x \in[a, b]}\left|f(x)-p_n(x)\right|$$ 随着揷值点的数量一一因此，揷值多项式的次数一一增加。我们从一个理论结果开始。 不幸的是，我们没有时间在课堂上证明这一点。As 声明，这个定理没有给出近似多项式的暗示，无论是 $p_n$ 内揷 $f$ 在 $n+1$ 点，或仅仅是近似值 $f$ 贯穿始终 $[a, b]$ ， Weierstrass 定理也没有描述特定值的多项式的精度 $n$ （尽管可 以通过研究建设性证据来深入了解伩些问题）。 另一方面，对于前几讲研究的揷值问题，我们可以得到一个特定的误差公式，它给出了一个边界 $\max x \in[a, b]\left|f(x)-p_n(x)\right|$. 从这个界限，我们可以推断出如果揷值 $f$ 在越来越多的点最终会产生多项式 近似 $f$ 准确到任何指定的精度。对于任何 $\hat{x} \in[a, b]$ 那不是揷值点，我们试图测量误差 $$f(\widehat{x})-p_n(\widehat{x}),$$ 在哪里 $p_n \in \mathcal{P}_n$ 是揷值到 $f$ 在不同的点 $x_0, \ldots, x_n \in[a, b]$. 我们可以从以下角度来把握这个错误。延长 $p_n$ 增 加一个度数以给出一个新的多项式，该多项式另外揷值 $f$ 在 $\widehat{x}$. 使用揷值的牛顿形式很容易做到这一点； 将新多项 式写为 $$p_n(x)+\lambda \prod j=0^n\left(x-x_j\right)$$ 对于常量 $\lambda$ 选择这样 $$f(\widehat{x})=p_n(\widehat{x})+\lambda \prod{j=0}^n\left(\widehat{x}-x_j\right)$$

## 有限元方法代写

tatistics-lab作为专业的留学生服务机构，多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务，包括但不限于Essay代写，Assignment代写，Dissertation代写，Report代写，小组作业代写，Proposal代写，Paper代写，Presentation代写，计算机作业代写，论文修改和润色，网课代做，exam代考等等。写作范围涵盖高中，本科，研究生等海外留学全阶段，辐射金融，经济学，会计学，审计学，管理学等全球99%专业科目。写作团队既有专业英语母语作者，也有海外名校硕博留学生，每位写作老师都拥有过硬的语言能力，专业的学科背景和学术写作经验。我们承诺100%原创，100%专业，100%准时，100%满意。

## MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中，其中问题和解决方案以熟悉的数学符号表示。典型用途包括：数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发，包括图形用户界面构建MATLAB 是一个交互式系统，其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题，尤其是那些具有矩阵和向量公式的问题，而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问，这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展，得到了许多用户的投入。在大学环境中，它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域，MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要，工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数（M 文件）的综合集合，可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

## 数学代写|数值分析代写numerical analysis代考|MATH3003

statistics-lab™ 为您的留学生涯保驾护航 在代写数值分析numerical analysis方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写数值分析numerical analysis代写方面经验极为丰富，各种代写数值分析numerical analysis相关的作业也就用不着说。

• Statistical Inference 统计推断
• Statistical Computing 统计计算
• Advanced Probability Theory 高等概率论
• Advanced Mathematical Statistics 高等数理统计学
• (Generalized) Linear Models 广义线性模型
• Statistical Machine Learning 统计机器学习
• Longitudinal Data Analysis 纵向数据分析
• Foundations of Data Science 数据科学基础

## 数学代写|数值分析代写numerical analysis代考|Potential pitfalls of the monomial basis

Though it is straightforward to see how to construct interpolating polynomials in the monomial basis, this procedure can give rise to some unpleasant numerical problems when we actually attempt to determine the coefficients $\left{c_j\right}$ on a computer. The primary difficulty is that the monomial basis functions $1, x, x^2, \ldots, x^n$ look increasingly alike as we take higher and higher powers. Figure $1.1$ illustrates this behavior on the interval $[a, b]=[0,1]$ with $n=5$ and $x_j=j / 5$.

Because these basis vectors become increasingly alike, one finds that the expansion coefficients $\left{c_j\right}$ in the monomial basis can become very large in magnitude even if the function $f(x)$ remains of modest size on $[a, b]$.

Consider the following analogy from linear algebra. The vectors
$$\left[\begin{array}{c} 1 \ 10^{-10} \end{array}\right], \quad\left[\begin{array}{l} 1 \ 0 \end{array}\right]$$
form a basis for $\mathbb{R}^2$. However, both vectors point in nearly the same direction, though of course they are linearly independent. We can write the vector $[1,1]^T$ as a unique linear combination of these basis vectors:
(1.2) $\left[\begin{array}{l}1 \ 1\end{array}\right]=10,000,000,000\left[\begin{array}{c}1 \ 10^{-10}\end{array}\right]-9,999,999,999\left[\begin{array}{l}1 \ 0\end{array}\right]$.
Although the vector we are expanding and the basis vectors themselves are all have modest size (norm), the expansion coefficients are enormous. Furthermore, small changes to the vector we are expanding will lead to huge changes in the expansion coefficients. This is a recipe for disaster when computing with finite-precision arithmetic.
This same phenomenon can occur when we express polynomials in the monomial basis. As a simple example, consider interpolating $f(x)=2 x+x \sin (40 x)$ at uniformly spaced points $\left(x_j=j / n, j=\right.$ $0, \ldots, n)$ in the interval $[0,1]$. Note that $f \in C^{\infty}[0,1]$ : this $f$ is a ‘nice’ function with infinitely many continuous derivatives. As seen in Figures 1.2-1.3, $f$ oscillates modestly on the interval $[0,1]$, but it certainly does not grow excessively large in magnitude or exhibit any nasty singularities.

Comparing the interpolants with $n=10$ and $n=30$ between the two figures, it appears that, in some sense, $p_n \rightarrow f$ as $n$ increases. Indeed, this is the case, in a manner we shall make precise in future lectures.

## 数学代写|数值分析代写numerical analysis代考|Polynomial interpolants in a general basis

THE MONOMIAL BASIS may seem like the most natural way to write down the interpolating polynomial, but it can lead to numerical problems, as seen in the previous lecture. To arrive at more stable expressions for the interpolating polynomial, we will derive several different bases for $\mathcal{P}n$ that give superior computational properties: the expansion coefficients $\left{c_j\right}$ will typically be smaller, and it will be simpler to determine those coefficients. This is an instance of a general principle of applied mathematics: to promote stability, express your problem in a well-conditioned basis. Suppose we have some basis $\left{b_j\right}{j=0}^n$ for $\mathcal{P}_n$. We seek the polynomial $p \in \mathcal{P}_n$ that interpolates $f$ at $x_0, \ldots, x_n$. Write $p$ in the basis as
$$p(x)=c_0 b_0(x)+c_1 b_1(x)+\cdots+c_n b_n(x) .$$
We seek the coefficients $c_0, \ldots, c_n$ that express the interpolant $p$ in this basis. The interpolation conditions are
$$\begin{gathered} p\left(x_0\right)=c_0 b_0\left(x_0\right)+c_1 b_1\left(x_0\right)+\cdots+c_n b_n\left(x_0\right)=f\left(x_0\right) \ p\left(x_1\right)=c_0 b_0\left(x_1\right)+c_1 b_1\left(x_1\right)+\cdots+c_n b_n\left(x_1\right)=f\left(x_1\right) \ \vdots \ p\left(x_n\right)=c_0 b_0\left(x_n\right)+c_1 b_1\left(x_n\right)+\cdots+c_n b_n\left(x_n\right)=f\left(x_n\right) \end{gathered}$$
Again we have $n+1$ equations that are linear in the $n+1$ unknowns $c_0, \ldots, c_n$, hence we can arrange these in the matrix form
(I.3) $\left[\begin{array}{cccc}b_0\left(x_0\right) & b_1\left(x_0\right) & \cdots & b_n\left(x_0\right) \ b_0\left(x_1\right) & b_1\left(x_1\right) & \cdots & b_n\left(x_1\right) \ \vdots & \vdots & \ddots & \vdots \ b_0\left(x_n\right) & b_1\left(x_n\right) & \cdots & b_n\left(x_n\right)\end{array}\right]\left[\begin{array}{c}c_0 \ c_1 \ \vdots \ c_n\end{array}\right]=\left[\begin{array}{c}f\left(x_0\right) \ f\left(x_1\right) \ \vdots \ f\left(x_n\right)\end{array}\right]$,
which can be solved via Gaussian elimination for $c_0, \ldots, c_n$.
Notice that the linear system for the monomial basis in (1.1) is a special case of the system in (1.3), with the choice $b_j(x)=x^j$. Next we will look at two superior bases that give more stable expressions for the interpolant. We emphasize that when the basis changes, so to do the values of $c_0, \ldots, c_n$, but the interpolating polynomial $p$ remains the same, regardless of the basis we use to express it.

# 数值分析代考

## 数学代写|数值分析代写numerical analysis代考|Potential pitfalls of the monomial basis

(1.2) $[11]=10,000,000,000\left[110^{-10}\right]-9,999,999,999[10]$.

$f(x)=2 x+x \sin (40 x)$ 在均匀间隔的点 $\left(x_j=j / n, j=0, \ldots, n\right)$ 在区间 $[0,1]$. 注意 $f \in C^{\infty}[0,1]$ : 这

## 数学代写|数值分析代写numerical analysis代考|Polynomial interpolants in a general basis

$$p(x)=c_0 b_0(x)+c_1 b_1(x)+\cdots+c_n b_n(x) .$$

$$p\left(x_0\right)=c_0 b_0\left(x_0\right)+c_1 b_1\left(x_0\right)+\cdots+c_n b_n\left(x_0\right)=f\left(x_0\right) p\left(x_1\right)=c_0 b_0\left(x_1\right)+c_1 b_1\left(x_1\right)+\cdots+$$

(I.3)

## 有限元方法代写

tatistics-lab作为专业的留学生服务机构，多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务，包括但不限于Essay代写，Assignment代写，Dissertation代写，Report代写，小组作业代写，Proposal代写，Paper代写，Presentation代写，计算机作业代写，论文修改和润色，网课代做，exam代考等等。写作范围涵盖高中，本科，研究生等海外留学全阶段，辐射金融，经济学，会计学，审计学，管理学等全球99%专业科目。写作团队既有专业英语母语作者，也有海外名校硕博留学生，每位写作老师都拥有过硬的语言能力，专业的学科背景和学术写作经验。我们承诺100%原创，100%专业，100%准时，100%满意。

## MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中，其中问题和解决方案以熟悉的数学符号表示。典型用途包括：数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发，包括图形用户界面构建MATLAB 是一个交互式系统，其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题，尤其是那些具有矩阵和向量公式的问题，而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问，这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展，得到了许多用户的投入。在大学环境中，它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域，MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要，工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数（M 文件）的综合集合，可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

## 数学代写|数值分析代写numerical analysis代考|MATHS7104

statistics-lab™ 为您的留学生涯保驾护航 在代写数值分析numerical analysis方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写数值分析numerical analysis代写方面经验极为丰富，各种代写数值分析numerical analysis相关的作业也就用不着说。

• Statistical Inference 统计推断
• Statistical Computing 统计计算
• Advanced Probability Theory 高等概率论
• Advanced Mathematical Statistics 高等数理统计学
• (Generalized) Linear Models 广义线性模型
• Statistical Machine Learning 统计机器学习
• Longitudinal Data Analysis 纵向数据分析
• Foundations of Data Science 数据科学基础

## 数学代写|数值分析代写numerical analysis代考|Polynomial interpolation: definitions and notation

Definition 1.1. The set of continuous functions that map $[a, b] \subset \mathbb{R}$ to $\mathbb{R}$ is denoted by $C[a, b]$. The set of continuous functions whose first $r$ derivatives are also continuous on $[a, b]$ is denoted by $C^r[a, b]$. (Note that $\left.C^0[a, b] \equiv C[a, b].\right)$

Definition 1.2. The set of polynomials of degree $n$ or less is denoted by $\mathcal{P}_n$.

Note that $C[a, b], C^r[a, b]$ (for any $a<b, r \geq 0$ ) and $\mathcal{P}n$ are linear spaces of functions (since linear combinations of such functions maintain continuity and polynomial degree). Furthermore, note that $\mathcal{P}_n$ is an $n+1$ dimensional subspace of $C[a, b]$. The polynomial interpolation problem can be stated as: Given $f \in C[a, b]$ and $n+1$ points $\left{x_j\right}{j=0}^n$ satisfying
$$a \leq x_0<x_1<\cdots<x_n \leq b,$$
determine some $p_n \in \mathcal{P}_n$ such that
$$p_n\left(x_j\right)=f\left(x_j\right) \quad \text { for } j=0, \ldots, n .$$

It shall become clear why we require $n+1$ points $x_0, \ldots, x_n$, and no more, to determine a degree- $n$ polynomial $p_n$. (You know the $n=1$ case well: two points determine a unique line.) If the number of data points were smaller, we could construct infinitely many degree- $n$ interpolating polynomials. Were it larger, there would in general be no degree- $n$ interpolant.

As numerical analysts, we seek answers to the following questions:

• Does such a polynomial $p_n \in \mathcal{P}_n$ exist?
• If so, is it unique?
• Does $p_n \in \mathcal{P}_n$ behave like $f \in C[a, b]$ at points $x \in[a, b]$ when $x \neq x_j$ for $j=0, \ldots, n$ ?
• How can we compute $p_n \in \mathcal{P}_n$ efficiently on a computer?
• How can we compute $p_n \in \mathcal{P}_n$ accurately on a computer (with floating point arithmetic)?
• If we want to add a new interpolation point $x_{n+1}$, can we easily adjust $p_n$ to give an interpolating polynomial $p_{n+1}$ of one higher degree?
• How should the interpolation points $\left{x_j\right}$ be chosen?
Regarding this last question, we should note that, in practice, we are not always able to choose the interpolation points as freely as we might like. For example, our ‘continuous function $f \in C[a, b]$ ‘ could actually be a discrete list of previously collected experimental data, and we are stuck with the values $\left{x_j\right}_{j=0}^n$ at which the data was measured.

## 数学代写|数值分析代写numerical analysis代考|Constructing interpolants in the monomial basis

Of course, any polynomial $p_n \in \mathcal{P}_n$ can be written in the form
$$p_n(x)=c_0+c_1 x+c_2 x^2+\cdots+c_n x^n$$
for coefficients $c_0, c_1, \ldots, c_n$. We can view this formula as an expression for $p_n$ as a linear combination of the basis functions $1, x, x^2, \ldots$, $x^n$; these basis functions are called monomials.

To construct the polynomial interpolant to $f$, we merely need to determine the proper values for the coefficients $c_0, c_1, \ldots, c_n$ in the above expansion. The interpolation conditions $p_n\left(x_j\right)=f\left(x_j\right)$ for

\begin{aligned} c_0+c_1 x_0+c_2 x_0^2+\cdots+c_n x_0^n &=f\left(x_0\right) \ c_0+c_1 x_1+c_2 x_1^2+\cdots+c_n x_1^n &=f\left(x_1\right) \ & \vdots \ c_0+c_1 x_n+c_2 x_n^2+\cdots+c_n x_n^n &=f\left(x_n\right) \end{aligned}
Note that these $n+1$ equations are linear in the $n+1$ unknown parameters $c_0, \ldots, c_n$. Thus, our problem of finding the coefficients $c_0, \ldots, c_n$ reduces to solving the linear system
$$\text { (1.1) }\left[\begin{array}{ccccc} 1 & x_0 & x_0^2 & \cdots & x_0^n \ 1 & x_1 & x_1^2 & \cdots & x_1^n \ 1 & x_2 & x_2^2 & \cdots & x_2^n \ \vdots & \vdots & \vdots & \ddots & \vdots \ 1 & x_n & x_n^2 & \cdots & x_n^n \end{array}\right]\left[\begin{array}{c} c_0 \ c_1 \ c_2 \ \vdots \ c_n \end{array}\right]=\left[\begin{array}{c} f\left(x_0\right) \ f\left(x_1\right) \ f\left(x_2\right) \ \vdots \ f\left(x_n\right) \end{array}\right] \text {, }$$
which we denote as $\mathbf{A c}=\mathbf{f}$. Matrices of this form, called Vandermonde matrices, arise in a wide range of applications. ${ }^1$ Provided all the interpolation points $\left{x_j\right}$ are distinct, one can show that this matrix is invertible. ${ }^2$ Hence, fundamental properties of linear algebra allow us to confirm that there is exactly one degree- $n$ polynomial that interpolates $f$ at the given $n+1$ distinct interpolation points.
Theorem 1.1. Given $f \in C[a, b]$ and distinct points $\left{x_j\right}_{j=0}^n a \leq$ $x_0<x_1<\cdots<x_n \leq b$, there exists a unique $p_n \in \mathcal{P}_n$ such that $p_n\left(x_j\right)=f\left(x_j\right)$ for $j=0,1, \ldots, n$.

To determine the coefficients $\left{c_j\right}$, we could solve the above linear system with the Vandermonde matrix using some variant of Gaussian elimination (e.g., using MATLAB’s $\backslash$ command); this will take $\mathcal{O}\left(n^3\right)$ floating point operations. Alternatively, we could (and should) use a specialized algorithm that exploit the Vandermonde structure to determine the coefficients $\left{c_j\right}$ in only $\mathcal{O}\left(n^2\right)$ operations, a vast improvement.

# 数值分析代考

## 数学代写|数值分析代写numerical analysis代考|Polynomial interpolation: definitions and notation

$$a \leq x_0<x_1<\cdots<x_n \leq b,$$

$$p_n\left(x_j\right)=f\left(x_j\right) \quad \text { for } j=0, \ldots, n .$$

• 做这样的多项式 $p_n \in \mathcal{P}_n$ 存在?
• 如果是这样, 它是独一无二的吗?
• 做 $p_n \in \mathcal{P}_n$ 举止像 $f \in C[a, b]$ 在点 $x \in[a, b]$ 什么时候 $x \neq x_j$ 为了 $j=0, \ldots, n$ ?
• 我们如何计算 $p_n \in \mathcal{P}_n$ 在计算机上高效?
• 我们如何计算 $p_n \in \mathcal{P}_n$ 在计算机上准确（使用浮点运算）?
• 如果我们要添加一个新的揷值点 $x_{n+1}$ ，我们可以轻松调整 $p_n$ 给出一个揷值多项式 $p_{n+1}$ 高一学历?
• 应该如何揷值点 $\backslash$ 左 ${x$ j右 $}$ 被选中?
关于最后一个问题，我们应该注意到，在实践中，我们并不总是能够随心所欲地选择揷值点。例如，我们 的 “连续函数 $f \in C[a, b]$ ‘ 实际上可能是以前收集的实验数据的离散列表，我们坚持使用这些值

## 有限元方法代写

tatistics-lab作为专业的留学生服务机构，多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务，包括但不限于Essay代写，Assignment代写，Dissertation代写，Report代写，小组作业代写，Proposal代写，Paper代写，Presentation代写，计算机作业代写，论文修改和润色，网课代做，exam代考等等。写作范围涵盖高中，本科，研究生等海外留学全阶段，辐射金融，经济学，会计学，审计学，管理学等全球99%专业科目。写作团队既有专业英语母语作者，也有海外名校硕博留学生，每位写作老师都拥有过硬的语言能力，专业的学科背景和学术写作经验。我们承诺100%原创，100%专业，100%准时，100%满意。

## MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中，其中问题和解决方案以熟悉的数学符号表示。典型用途包括：数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发，包括图形用户界面构建MATLAB 是一个交互式系统，其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题，尤其是那些具有矩阵和向量公式的问题，而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问，这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展，得到了许多用户的投入。在大学环境中，它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域，MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要，工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数（M 文件）的综合集合，可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。