标签: ECMT6006

金融代写|金融计量经济学Financial Econometrics代考|The Contribution of Fuzzy Methods

如果你也在 怎样代写金融计量经济学Financial Econometrics这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

金融计量学是将统计方法应用于金融市场数据。金融计量学是金融经济学的一个分支,在经济学领域。研究领域包括资本市场、金融机构、公司财务和公司治理。

statistics-lab™ 为您的留学生涯保驾护航 在代写金融计量经济学Financial Econometrics方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写金融计量经济学Financial Econometrics代写方面经验极为丰富,各种代写金融计量经济学Financial Econometrics相关的作业也就用不着说。

我们提供的金融计量经济学Financial Econometrics及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
金融代写|金融计量经济学Financial Econometrics代考|The Contribution of Fuzzy Methods

金融代写|金融计量经济学Financial Econometrics代考|Aspects of Information Quality

The view of information quality differs, depending on the domain of application and the kind of business generated by using data science (Batini and Scannapieco 2016 ; Capet and Revault d’Allonnes 2013; Revault d’Allonnes 2013; Lesot and Revault d’Allonnes 2017). The concept is complex and based on many components. Data quality has always been a major issue in databases, information systems and risk forecasting. The difficulties are accentuated in the environment of big data.

There exists a jungle of definitions of information quality and proposals of solutions in the framework of data mining and data science. In this jungle, you can recognize different aspects of information quality. Relevance, appropriateness, accessibility, compatibility correspond to the good matching between the retrieved information and the expectation of the user. Understandability, expressiveness describe the capacity of the system to speak a language familiar to the user. Accuracy may be necessary in specific domains. Comprehensibility, consistency, coherence, completeness represent the quality of the set of information as a whole. Timeliness, operationality, security are technical qualities. Veracity, validity, trust, reliability, plausibility, credibility represent various means to define the confidence the user can have in the obtained information.

The factors of information quality are dependent on the nature of sources, that can be news streams, databases, open source data, sensor records or social networks. They are also dependent on the form of data, for instance text, images, videos, temporal series, graphs or database records. The evaluation of information quality is also relatę to the expectations of the end usêr and purposes of the informaation extraction, the requirement of accuracy, for instance, not being the same in finance or for a student preparing a report.

To describe the chaining in the information quality components, we can consider that the source quality has an influence on data quality, which is one of the factors of information quality, as well as the artificial intelligence-based model quality. Finally, the user satisfaction rests on both information quality and model quality. To illustrate the diversity of views of information quality according to the considered domain of application, we can roughly consider that specialists of business intelligence and intelligence services pay a great attention to source quality, while financial engineering and econometrics are focused on data quality. In medical diagnosis, the quality of the model is very important to explain the diagnosis, whereas information retrieval is centered on global information quality. The user satisfaction is a priority for domains such as social networks or targeted advertising.

Each of these constituents of what we can call global information quality requires appropriate solutions to the best possible. In the following. we focus on fuzzy setbased solutions, among all those provided in computational intelligence, thanks to the capacity of fuzzy systems to handle uncertainties, imprecisions, incompleteness and reliability degrees in a common environment. The diversity of aggregation methods available for the fusion of elements and the richness of measures of similarity are additional reasons to choose fuzzy methods.

金融代写|金融计量经济学Financial Econometrics代考|Fuzzy Solutions to Data Quality Problems

Defaults in data quality are the most primary among the problems occurring in information quality, and they have been studied for years, in particular in databases (Ananthakrishna et al. 2002; Janta-Polczynski and Roventa 1999) and more generally in products and services (Loshin 2011). Accuracy, completeness and consistency of data (Huh et al. 1990) have always been major concerns in industrial products.
In the modern environments, it is necessary to have a more general approach of data quality and to consider both intrinsic and extrinsic factors. The former include defaults such as imprecision, measurement errors, vague linguistic descriptions, incompleteness, inaccuracies, inconsistencies and discrepancies in data elements. The latter mainly refers to insufficient trustworthiness of sources and inconsistency between various sources.

A general analysis of data quality is proposed in Pipino et al. (2002) by means of objective and subjective assessments of data quality. The question of measuring the quality of data is addressed in Bronselaer et al. $(2018 \mathrm{a}, \mathrm{b})$ through the presentation of a measure-theoretic foundation for data quality and the proposal of an operational measurement.

A fuzzy set-based knowledge representation is of course an interesting solution to the existence of inaccuracies, vagueness and incompleteness, as well as the necessary bridge between linguistic and numerical values.

The issue of incomplete data is very frequent in all environments, for various reasons such as the absence of answer to a specific request, the impossibility to obtain a measurement, a loss of pieces of information or the necessity to hide some elements to protect privacy. Various fuzzy methods have been proposed for the imputation of missing values, based on very different techniques. For instance, a fuzzy K-means clustering algorithm is used in Liao et al. (2009) and Li et al. (2004), a neuro-fuzzy $\mathrm{~ c l a ̊ s s i f i e r ~ i s ~ p r o p o ̄ o s e d ~ i n ~ G a ̉ b r y s ~ ( 2 0 0 2 ) , ~ e v o o l u t i o n a ̆ r y ~ f u z z y ~ s o ̄ l u t i o n s ~ a a r e ~ i n v e}$ in Carmona et al. (2012). Rough fuzzy sets are incorporated in a neuro-fuzzy structure to cope with missing data in Nowicki (2009). Various types of fuzzy rule-based classification systems are studied in Luengo et al. (2012) to overcome the problem of missing data. Missing pixels in images are also managed by means of fuzzy methods, for instance with the help of an intuitionistic fuzzy C-means clustering algorithm in Balasubramaniam and Ananthi (2016). All these works exemplify the variety of solutions available in a fuzzy setting.

金融代写|金融计量经济学Financial Econometrics代考|Fuzzy Approaches to Other Information Quality

Information is extracted from data by means of an artificial intelligence engine and it is supposed to fulfill users’ needs. The expected level of quality of information is different, depending on the purpose of information extraction. In information retrieval, the challenge is to find images, texts or videos corresponding to a user’s query and the information quality reflects the adequacy and completeness of the obtained information. In domains such as prevision, prediction, risk or trend forecasting, the quality of information is evaluated on the basis of the comparison between the forecasting and the real world. In real time decision making, where a diagnosis or a solution to a problem must be provided rapidly, the completeness and accuracy of information is crucial. In cases where data must be analyzed instantaneously to act on a system, for instance in targeted advertising, adaptive interfaces or online sales, the timeliness and operationality are more important than the accuracy. In business intelligence or e-reputation analysis, where opinions, blogs or customer’s evaluations are analyzed, the trustworthiness of information is crucial.

We propose to structure the analysis of information quality along three main dimensions, namely the relevance of information, its trust or veracity, and its understandability.

金融代写|金融计量经济学Financial Econometrics代考|The Contribution of Fuzzy Methods

金融计量经济学代考

金融代写|金融计量经济学Financial Econometrics代考|Aspects of Information Quality

对信息质量的看法因应用领域和使用数据科学产生的业务类型而异(Batini 和 Scannapieco 2016;Capet 和 Revault d’Allonnes 2013;Revault d’Allonnes 2013;Lesot 和 Revault d’Allonnes 2017 )。这个概念很复杂,并且基于许多组件。数据质量一直是数据库、信息系统和风险预测的主要问题。在大数据环境下,这些困难更加突出。

在数据挖掘和数据科学的框架中,存在着信息质量的定义和解决方案建议的丛林。在这个丛林中,您可以识别信息质量的不同方面。相关性、适当性、可访问性、兼容性对应于检索到的信息与用户期望之间的良好匹配。可理解性、表达性描述了系统说出用户熟悉的语言的能力。在特定领域可能需要准确性。可理解性、一致性、连贯性、完整性代表了整个信息集的质量。及时性、可操作性、安全性是技术品质。真实性、有效性、可信度、可靠性、合理性,

信息质量的因素取决于来源的性质,可以是新闻流、数据库、开源数据、传感器记录或社交网络。它们还依赖于数据的形式,例如文本、图像、视频、时间序列、图表或数据库记录。信息质量的评估也与最终用户的期望和信息提取的目的、准确性的要求有关,例如,在金融或准备报告的学生中不同。

为了描述信息质量组件中的链接,我们可以认为源质量对数据质量有影响,数据质量是信息质量的因素之一,也是基于人工智能的模型质量。最后,用户满意度取决于信息质量和模型质量。为了说明根据所考虑的应用领域对信息质量的看法的多样性,我们可以粗略地认为,商业智能和情报服务专家非常关注源质量,而金融工程和计量经济学则关注数据质量。在医学诊断中,模型的质量对于解释诊断非常重要,而信息检索则以全局信息质量为中心。

我们可以称之为全球信息质量的这些组成部分中的每一个都需要适当的解决方案以达到最佳状态。在下面的。我们专注于基于模糊集的解决方案,在计算智能中提供的所有解决方案中,这要归功于模糊系统在通用环境中处理不确定性、不精确性、不完整性和可靠性程度的能力。可用于元素融合的聚合方法的多样性和相似性度量的丰富性是选择模糊方法的额外原因。

金融代写|金融计量经济学Financial Econometrics代考|Fuzzy Solutions to Data Quality Problems

数据质量默认值是信息质量问题中最主要的问题,并且已经研究了多年,特别是在数据库中(Ananthakrishna 等人 2002;Janta-Polczynski 和 Roventa 1999),更普遍的是在产品和服务中(洛欣 2011)。数据的准确性、完整性和一致性(Huh et al. 1990)一直是工业产品的主要关注点。
在现代环境中,有必要采用更通用的数据质量方法并同时考虑内在和外在因素。前者包括默认值,例如不精确、测量错误、模糊的语言描述、不完整、不准确、数据元素的不一致和差异。后者主要是指来源的可信度不足和各种来源之间的不一致。

Pipino 等人提出了对数据质量的一般分析。(2002 年)通过对数据质量的客观和主观评估。Bronselaer 等人解决了衡量数据质量的问题。(2018一个,b)通过介绍数据质量的测量理论基础和操作测量的建议。

基于模糊集的知识表示当然是解决不准确、模糊和不完整问题的有趣解决方案,也是语言和数值之间必要的桥梁。

数据不完整的问题在所有环境中都非常常见,原因有多种,例如没有对特定请求的回答、无法获得测量结果、丢失信息或需要隐藏某些元素以保护隐私。基于非常不同的技术,已经提出了各种模糊方法来估算缺失值。例如,Liao 等人使用了模糊 K 均值聚类算法。(2009)和李等人。(2004),神经模糊̉ Cl一个̊ss一世F一世和r 一世s pr○p○̄○s和d 一世n G一个̉br是s (2002), 和在○○l在吨一世○n一个̆r是 F在和和是 s○̄l在吨一世○ns 一个一个r和 一世n在和在卡莫纳等人。(2012)。在 Nowicki (2009) 中,粗糙的模糊集被合并到一个神经模糊结构中来处理缺失的数据。Luengo 等人研究了各种类型的基于模糊规则的分类系统。(2012)克服数据缺失的问题。图像中丢失的像素也通过模糊方法进行管理,例如在 Balasubramaniam 和 Ananthi (2016) 中的直觉模糊 C 均值聚类算法的帮助下。所有这些作品都举例说明了模糊设置中可用的各种解决方案。

金融代写|金融计量经济学Financial Econometrics代考|Fuzzy Approaches to Other Information Quality

信息是通过人工智能引擎从数据中提取出来的,它应该满足用户的需求。信息质量的预期水平是不同的,这取决于信息提取的目的。在信息检索中,挑战在于找到与用户查询相对应的图像、文本或视频,信息质量反映了所获取信息的充分性和完整性。在预测、预测、风险或趋势预测等领域,信息的质量是根据预测与现实世界之间的比较来评估的。在必须快速提供问题诊断或解决方案的实时决策中,信息的完整性和准确性至关重要。在必须立即分析数据以对系统起作用的情况下,例如在定向广告、自适应界面或在线销售中,及时性和可操作性比准确性更重要。在商业智能或电子声誉分析中,在分析意见、博客或客户评价时,信息的可信度至关重要。

我们建议从三个主要维度构建信息质量分析,即信息的相关性、信息的可信度或真实性以及信息的可理解性。

金融代写|金融计量经济学Financial Econometrics代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

金融代写|金融计量经济学Financial Econometrics代考| Why EN and CLOT

如果你也在 怎样代写金融计量经济学Financial Econometrics这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

金融计量学是将统计方法应用于金融市场数据。金融计量学是金融经济学的一个分支,在经济学领域。研究领域包括资本市场、金融机构、公司财务和公司治理。

statistics-lab™ 为您的留学生涯保驾护航 在代写金融计量经济学Financial Econometrics方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写金融计量经济学Financial Econometrics代写方面经验极为丰富,各种代写金融计量经济学Financial Econometrics相关的作业也就用不着说。

我们提供的金融计量经济学Financial Econometrics及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
金融代写|金融计量经济学Financial Econometrics代考| Why EN and CLOT

金融代写|金融计量经济学Financial Econometrics代考|Why EN and CLOT

Need to go beyond LASSO. In the previous section, we showed that if we need to select a single method for all the problems, then natural invariance requirements lead to LASSO, i.e., to bounds on the sum of the absolute values of the parameters. In some practical situations, this works, while in others, it does not lead to good results. To deal with such situations, instead of fixing a single method for all the problems, a natural idea is to select a family of methods, so that in each practical situation, we should select an appropriate method from this family. Let us analyze how we can do it both for probabilistic and for general constraints.

Probabilistic case. Constraints in the probabilistic case are described by the corresponding function $\psi(z)$. The LASSO case corresponds to a 2-parametric family $\psi(z)=c_{0}+c_{1} \cdot z$. In terms of the corresponding constraints, all these functions from this family are equivalent to $\psi(z)=z$.

To get a more general method, a natural idea is to consider a 3-parametric family, i.e., a family of the type $\psi(z)=c_{0}+c_{1} \cdot z+c_{2} \cdot f(z)$ for some function $f(z)$. Constraints related to this family are equivalent to using the functions $\psi(z)=z+$ $c \cdot f(z)$ for some function $f(z)$. Which family-i.e., which function $f(z)$-should we choose? A natural idea is to ágain use scale-invariancè and shift-invariance.
Definition 8 We say that functions $\psi_{1}(z)$ and $\psi_{2}(z)$ are constraint-equivalent if:

  • for each $n$ and for each $c_{1}$, there exists a value $c_{2}$ such that the condition $\sum_{i=0}^{n} \psi_{1}\left(a_{i}\right)=c_{1}$ is equivalent to $\sum_{i=0}^{n} \psi_{2}\left(a_{i}\right)=c_{2}$, and
  • for each $n$ and for each $c_{2}$, there exists a value $c_{1}$ such that the condition $\sum_{i=0}^{n} \psi_{2}\left(a_{i}\right)=c_{2}$ is equivalent to $\sum_{i=0}^{n} \psi_{1}\left(a_{i}\right)=c_{1}$.
    Definition 9
  • We say that a family ${z+c \cdot f(z)}_{c}$ is scale-invariant if for each $c$ and $\lambda$, there exists a value $c^{\prime}$ for which the re-scaled function $\lambda \cdot z+c \cdot f(\lambda \cdot z)$ is constraintequivalent to $z+c^{\prime} \cdot f(z)$.
  • We say that a family ${z+c \cdot f(z)}_{c}$ is shift-invariant if for each $c$ and for each sufficiently small number $\varepsilon$, there exists a value $c^{\prime}$ for which the shifted function $z-\varepsilon+c \cdot f(z-\varepsilon)$ is constraint-equivalent to $z+c^{\prime} \cdot f(z)$.

Proposition 3 A family ${z+c \cdot f(z)}_{c}$ corresponding to a smooth function $f(z)$ is scale-and shift-invariant if and only if the function $f(z)$ is quadratic.

金融代写|金融计量经济学Financial Econometrics代考|Beyond EN and CLOT

Discussion. What if 1-parametric families like EN and CLOT are not sufficient? In this case, we need to consider families
$$
F=\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{n} \cdot f_{m}(z)\right}_{c_{1}, \ldots, c_{m}}
$$
with more parameters.
Definition 10

  • We say that a family $\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{m} \cdot f_{m}(z)\right}_{c_{1}, \ldots, c_{m}}$ is scale-invariant if for each $c=\left(c_{1}, \ldots, c_{m}\right)$ and $\lambda$, there exists a tuple $c^{\prime}=\left(c_{1}^{\prime}, \ldots, c_{m}^{\prime}\right)$ for which the re-scaled function
    $$
    \lambda \cdot z+c_{1} \cdot f_{1}(\lambda \cdot z)+\cdots+c_{m} \cdot f_{m}(\lambda \cdot z)
    $$
    is constraint-equivalent to $z+c_{1}^{\prime} \cdot f_{1}(z)+\cdots+c_{m}^{\prime} \cdot f_{m}(z)$.
  • We say that a family $\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{m} \cdot f_{m}(z)\right}_{c_{1}, \ldots, c_{m}}$ is shift-invariant if for each tuple $c$ and for each sufficiently small number $\varepsilon$, there exists a tuple $c^{\prime}$ for which the shifted function

Why LASSO, EN, and CLOT: Invariance-Based Explanation
49
$$
z-\varepsilon+c_{1} \cdot f_{1}(z-\varepsilon)+\cdots+c_{m} \cdot f_{m}(z-\varepsilon)
$$
is constraint-equivalent to $z+c_{1}^{\prime} \cdot f_{1}(z)+\cdots+c_{m}^{\prime} \cdot f_{m}(z)$.
Proposition 4 A family $\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{m} \cdot f_{m}(z)\right}_{c_{1}, \ldots, c_{m}}$ corresponding to a smooth functions $f_{i}(z)$ is scale- and shift-invariant if and only if all the functions $f_{i}(z)$ are polynomials of order $\leq m+1$.

Discussion. So, if EN and CLOT are not sufficient, our recommendation is to use a constraint $\sum_{i=0}^{n} \psi\left(\left|a_{i}\right|\right)=c$ for some higher order polynomial $\psi(z)$.

Proof of Proposition 4 is similar to the s of Proposition 3 , the only difference is that instead of a single differential equation, we will have a system of linear differential equations.

Comment. Similarly to the quadratic case, the resulting general expression $\psi(z)=$ $g_{0}+g_{1} \cdot z+\cdots+a_{m+1} \cdot z^{m+1}$ can be viewed as keeping the first few terms in the Taylor expansion of a general function $\psi(z)$.

Acknowledgements This work was supported by the Institute of Geodesy, Leibniz University of Hannover. It was also supported in part by the US National Science Foundation grants 1623190 (A Model of Change for Preparing a New Generation for Professional Practice in Computer Science) and HRD-1242122 (Cyber-ShARE Center of Excellence).
This paper was written when V. Kreinovich was visiting Leibniz University of Hannover.

金融代写|金融计量经济学Financial Econometrics代考|Main Results

Consider the Bloch sphere below (Nielsen and Chuang 2010). The states of a single bit two-level $(|0\rangle,|1\rangle)$ quantum bit (qubit) are described by the Bloch sphere above with $0 \leq \theta \leq \pi, 0 \leq \varphi \leq 2 \pi$; qubit is just a quantum system.

A single qubit quantum state $\rho$ can be represented with below density matrix,
$$
\rho=\frac{1}{2}\left(\begin{array}{cc}
1+\eta \cos \theta & \eta e^{-i \varphi} \sin \theta \
\eta e^{i \varphi} \sin \theta & 1-\eta \cos \theta
\end{array}\right), \eta \in[0,1], \quad 0 \leq \theta \leq \pi, \text { and } 0 \leq \varphi \leq 2 \pi
$$
Also, the density matrix can take below representation (Nielsen and Chuang 2010),
$$
\rho=\frac{1}{2}[I+\bar{r} \cdot \bar{\sigma}]=\frac{1}{2}\left[\begin{array}{cc}
1+r_{z} & r_{x}-i r_{y} \
r_{x}+i r_{y} & 1-r_{z}
\end{array}\right]
$$
where $\bar{r}=\left[r_{x}, r_{y}, r_{z}\right]$ is the Bloch vector with $|\bar{r}| \leq 1$, and $\bar{\sigma}=\left[\sigma_{x}, \sigma_{y}, \sigma_{z}\right]$ for $\sigma_{x}, \sigma_{y}, \sigma_{z}$ being the Pauli matrices.
$$
\sigma_{x}=\left(\begin{array}{ll}
0 & 1 \
1 & 0
\end{array}\right), \quad \sigma_{y}=\left(\begin{array}{cc}
0 & -i \
i & 0
\end{array}\right), \quad \sigma_{z}=\left(\begin{array}{cc}
1 & 0 \
0 & -1
\end{array}\right)
$$
Let $T_{1}, T_{2}, T_{3}$ and $T_{\pm h}$ denote the Bit flip operation, Phase flip operation, Bit-Phase flip operation and Displacements operation on a Bloch sphere respectively, for $h \in$ ${x, y, z}$. Denote the Bloch sphere by $\mathscr{Q}$ and $\mathscr{Q}{T}$ be the deformation of the Bloch sphere after an operation $T$. Let $F(T)$ denote the fixed point set of the operation $T$. Proposition 2.1 Suppose $p \in[0,1]$ is the same for $T{1}, T_{2}$ and $T_{3} ; p_{T_{1}}=p_{T_{2}}=$ $p_{T_{3}}=p$. Then, the six different compositions obtained from the permutation of $T_{i}, i=1,2,3$ gives the same out put,

Proof Let $\rho$ be a qubit (quantum bit) state in/on the Bloch sphere. Suppose the general representation of $\rho$ using the density matrix is
$$
\rho=\left(\begin{array}{ll}
a & b \
c & d
\end{array}\right)
$$

金融代写|金融计量经济学Financial Econometrics代考| Why EN and CLOT

金融计量经济学代考

金融代写|金融计量经济学Financial Econometrics代考|Why EN and CLOT

需要超越 LASSO。在上一节中,我们展示了如果我们需要为所有问题选择一种方法,那么自然不变性要求会导致 LASSO,即参数绝对值之和的界限。在某些实际情况下,这是可行的,而在其他情况下,它不会产生好的结果。对于这样的情况,与其对所有问题都固定一个方法,一个很自然的想法是选择一个方法族,这样在每个实际情况下,我们都应该从这个族中选择一个合适的方法。让我们分析一下我们如何在概率和一般约束下做到这一点。

概率案例。概率情况下的约束由相应的函数描述ψ(和). LASSO 案例对应于一个 2 参数族ψ(和)=C0+C1⋅和. 就相应的约束而言,该族的所有这些函数都等价于ψ(和)=和.

为了得到更一般的方法,一个自然的想法是考虑一个 3 参数族,即类型的族ψ(和)=C0+C1⋅和+C2⋅F(和)对于某些功能F(和). 与该族相关的约束等价于使用函数ψ(和)=和+ C⋅F(和)对于某些功能F(和). 哪个家族——即哪个功能F(和)-我们应该选择吗?一个自然的想法是再次使用尺度不变性和移位不变性。
定义 8 我们说函数ψ1(和)和ψ2(和)是约束等价的,如果:

  • 对于每个n并且对于每个C1, 存在一个值C2使得条件∑一世=0nψ1(一个一世)=C1相当于∑一世=0nψ2(一个一世)=C2, 和
  • 对于每个n并且对于每个C2, 存在一个值C1使得条件∑一世=0nψ2(一个一世)=C2相当于∑一世=0nψ1(一个一世)=C1.
    定义 9
  • 我们说一个家庭和+C⋅F(和)C是尺度不变的,如果对于每个C和λ, 存在一个值C′重新缩放的函数λ⋅和+C⋅F(λ⋅和)是约束等价于和+C′⋅F(和).
  • 我们说一个家庭和+C⋅F(和)C是移位不变的,如果对于每个C并且对于每个足够小的数字e, 存在一个值C′移位函数和−e+C⋅F(和−e)是约束等价于和+C′⋅F(和).

提案 3 一个家庭和+C⋅F(和)C对应于平滑函数F(和)是尺度和移位不变当且仅当函数F(和)是二次的。

金融代写|金融计量经济学Financial Econometrics代考|Beyond EN and CLOT

讨论。如果像 EN 和 CLOT 这样的 1 参数族还不够怎么办?在这种情况下,我们需要考虑家庭

F=\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{n} \cdot f_{m}(z)\right}_{c_{1}, \ldots,厘米}}F=\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{n} \cdot f_{m}(z)\right}_{c_{1}, \ldots,厘米}}
有更多的参数。
定义 10

  • 我们说一个家庭\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{m} \cdot f_{m}(z)\right}_{c_{1}, \ldots, c_{米}}\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{m} \cdot f_{m}(z)\right}_{c_{1}, \ldots, c_{米}}是尺度不变的,如果对于每个C=(C1,…,C米)和λ, 存在一个元组C′=(C1′,…,C米′)重新缩放的函数
    λ⋅和+C1⋅F1(λ⋅和)+⋯+C米⋅F米(λ⋅和)
    是约束等价于和+C1′⋅F1(和)+⋯+C米′⋅F米(和).
  • 我们说一个家庭\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{m} \cdot f_{m}(z)\right}_{c_{1}, \ldots, c_{米}}\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{m} \cdot f_{m}(z)\right}_{c_{1}, \ldots, c_{米}}如果对于每个元组是移位不变的C并且对于每个足够小的数字e, 存在一个元组C′移位函数

为什么选择 LASSO、EN 和 CLOT:基于不变性的解释
49

和−e+C1⋅F1(和−e)+⋯+C米⋅F米(和−e)
是约束等价于和+C1′⋅F1(和)+⋯+C米′⋅F米(和).
提案 4 一个家庭\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{m} \cdot f_{m}(z)\right}_{c_{1}, \ldots, c_{米}}\left{z+c_{1} \cdot f_{1}(z)+\cdots+c_{m} \cdot f_{m}(z)\right}_{c_{1}, \ldots, c_{米}}对应于平滑函数F一世(和)当且仅当所有函数都是尺度和移位不变的F一世(和)是多项式≤米+1.

讨论。因此,如果 EN 和 CLOT 不充分,我们的建议是使用约束∑一世=0nψ(|一个一世|)=C对于一些高阶多项式ψ(和).

命题 4 的证明类似于命题 3 的 s,唯一的区别是我们将有一个线性微分方程系统,而不是单个微分方程。

评论。与二次情况类似,得到的一般表达式ψ(和)= G0+G1⋅和+⋯+一个米+1⋅和米+1可以看作是保留一般函数的泰勒展开式中的前几项ψ(和).

致谢 这项工作得到了汉诺威莱布尼茨大学大地测量学研究所的支持。它还得到了美国国家科学基金会拨款 1623190(为新一代计算机科学专业实践做准备的变革模型)和 HRD-1242122(Cyber​​-Share Center of Excellence)的部分支持。
这篇论文是在 V. Kreinovich 访问汉诺威莱布尼茨大学时撰写的。

金融代写|金融计量经济学Financial Econometrics代考|Main Results

考虑下面的 Bloch 球体(Nielsen 和 Chuang 2010)。单个位的两级状态(|0⟩,|1⟩)量子位 (qubit) 由上面的 Bloch 球体描述为0≤θ≤圆周率,0≤披≤2圆周率; 量子比特只是一个量子系统。

单个量子比特量子态ρ可以用以下密度矩阵表示,

ρ=12(1+这因⁡θ这和−一世披罪⁡θ 这和一世披罪⁡θ1−这因⁡θ),这∈[0,1],0≤θ≤圆周率, 和 0≤披≤2圆周率
此外,密度矩阵可以采用以下表示(Nielsen and Chuang 2010),

ρ=12[我+r¯⋅σ¯]=12[1+r和rX−一世r是 rX+一世r是1−r和]
在哪里r¯=[rX,r是,r和]是 Bloch 向量|r¯|≤1, 和σ¯=[σX,σ是,σ和]为了σX,σ是,σ和为泡利矩阵。

σX=(01 10),σ是=(0−一世 一世0),σ和=(10 0−1)
让吨1,吨2,吨3和吨±H分别表示 Bloch 球上的位翻转操作、相位翻转操作、位相位翻转操作和位移操作,对于H∈ X,是,和. 将布洛赫球体表示为问和问吨是操作后布洛赫球体的变形吨. 让F(吨)表示操作的不动点集吨. 命题 2.1 假设p∈[0,1]是一样的吨1,吨2和吨3;p吨1=p吨2= p吨3=p. 然后,从排列得到的六种不同的成分吨一世,一世=1,2,3给出相同的输出,

证明让ρ是布洛赫球内/上的量子位(量子位)状态。假设一般表示ρ使用密度矩阵是

ρ=(一个b Cd)

金融代写|金融计量经济学Financial Econometrics代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

金融代写|金融计量经济学Financial Econometrics代考|Invariance-Based Explanation

如果你也在 怎样代写金融计量经济学Financial Econometrics这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

金融计量学是将统计方法应用于金融市场数据。金融计量学是金融经济学的一个分支,在经济学领域。研究领域包括资本市场、金融机构、公司财务和公司治理。

statistics-lab™ 为您的留学生涯保驾护航 在代写金融计量经济学Financial Econometrics方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写金融计量经济学Financial Econometrics代写方面经验极为丰富,各种代写金融计量经济学Financial Econometrics相关的作业也就用不着说。

我们提供的金融计量经济学Financial Econometrics及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
金融代写|金融计量经济学Financial Econometrics代考|Invariance-Based Explanation

金融代写|金融计量经济学Financial Econometrics代考|Formulation of the Problem

Need for solving the inverse problem. Once we have a model of a system, we can use this model to predict the system’s behavior, in particular, to predict the results of future measurements and observations of this system. The problem of estimating future measurement results based on the model is known as the forward problem.

In many practical situations, we do not know the exact model. To be more precise, we know the general form of a dependence between physical quantities, but the parameters of this dependence need to be determined from the observations and from the results of the experiment. For example, often, we have a linear model $y=$ $a_{0}+\sum_{i=1}^{n} a_{i} \cdot x_{i}$, in which the parameters $a_{i}$ need to be experimentally determined. The problem of determining the parameters of the model based on the measurement results is known as the inverse problem.

To actually find the parameters, we can use, e.g., the Maximum Likelihood method. For example, when the errors are normally distributed, then the Maximum Likelihood procedure results in the usual Least Squares estimates; see, e.g., Sheskin $\mathrm{~ ( 2 0 1 1 ) . ~ F o ̄ ́ ~ e x a ̄ m p ̄ l e ́ , ~ f o ̄ r ~ a ̄ ~ g e n e n e ́ r a ̆ l ~ l i n ̃ e a r r ~ m o}$ several tuples of corresponding values $\left(x_{1}^{(k)}, \ldots, x_{n}^{(k)}, y^{(k)}\right), 1 \leq k \leq K$, then we can find the parameters from the condition that
$$
\sum_{k=1}^{K}\left(y^{(k)}-\left(a_{0}+\sum_{i=1}^{n} a_{i} \cdot x_{i}^{(k)}\right)\right)^{2} \rightarrow \min {a{0}, \ldots, a_{n}}
$$
Need for regularization. In some practical situations, based on the measurement results, we can determine all the model’s parameters with reasonably accuracy. However, in many other situations, the inverse problem is ill-defined in the sense that several very different combinations of parameters are consistent with all the measurement results.

This happens, e.g., in dynamical systems, when the observations provide a smoothed picture of the system’s dynamics. For example, if we are tracing the motion of a mechanical system caused by an external force, then a strong but short-time force in one direction followed by a similar strong and short-time force in the opposite direction will (almost) cancel each other, so the same almost-unchanging behavior is consistent both with the absence of forces and with the above wildly-oscillating force. A similar phenomenon occurs when, based on the observed economic behavior, we try to reconstruct the external forces affecting the economic system.

In such situations, the only way to narrow down the set of possible solutions is to take into account some general a priori information. For example, for forces, we may know-e.g., from experts-the upper bound on each individual force, or the upper bound on the overall force. The use of such a priori information is known as regularization; see, e.g., Tikhonov and Arsenin (1977).

金融代写|金融计量经济学Financial Econometrics代考|General and Probabilistic Regularizations

General idea of regularization and its possible probabilistic background. In general, regularization means that we dismiss values $a_{i}$ which are too large or too small. In some cases, this dismissal is based on subjective estimations of what is large and what is small. In other cases, the conclusion about what is large and what is not large is based on past experience of solving similar problem-i.e., on our estimate of the frequencies (= probabilities) with which different values have been observed in the past. In this paper, we consider both types of regularization.

Probabilistic regularization: towards a precise definition. There is no a priori reason to believe that different parameters have different distributions. So, in the first approximation, it makes sense to assume that they have the same probability distribution. Let us denote the probability density function of this common distribution by $\rho(a)$.

In more precise terms, the original information is invariant with respect to all possible permutations of the parameters; thus, it makes sense to conclude that the resulting joint distribution is also invariant with respect to all these permutationswhich implies, in particular, that all the marginal distributions are the same.

Similarly, in general, we do not have a priori reasons to prefer positive or negative values of each the coefficients, i.e., the a priori information is invariant with respect to changing the sign of each of the variables: $a_{i} \rightarrow-a_{i}$. It is therefore reasonable to conclude that the marginal distribution should also be invariant, i.e., that we should have $\rho(-a)=\rho(a)$, and thus, $\rho(a)=\rho(|a|)$.

Also, there is no reason to believe that different parameters are positively or negatively correlated, so it makes sense to assume that their distributions are statistically independent. This is in line with the general Maximum Entropy (=Laplace Indeterminacy Principle) ideas Jaynes and Bretthorst (2003), according to which we should not pretend to be certain – to be more precise, if several different probability distributions are consistent with our knowledge:

  • we should not select distributions with small entropy (measure of uncertainty),
  • we should select the one for which the entropy is the largest.
    If all we know are marginal distributions, then this principle leads to the conclusion that the corresponding variables are independent; see, e.g., Jaynes and Bretthorst $(2003) .$

Due to the independence assumption, the joint distribution of $n$ variables $a_{i}$ take the form $\rho\left(a_{0}, a_{1}, \ldots, a_{n}\right)=\prod_{i=0}^{n} \rho\left(\left|a_{i}\right|\right)$. In applications of probability and statistics, it is usually assumed, crudely speaking, that events with very small probability are not expected to happen. This is the basis for all statistical tests-e.g., if we assume that the distribution is normal with given mean and standard deviation, and the probability that this distribution will lead to the observed data is very small (e.g., if we observe a 5 -sigma deviation from the mean), then we can conclude, with high confidence, that experiments disprove our assumption. In other words, we take some threshold $t_{0}$, and we consider only the tuples $a=\left(a_{0}, a_{1}, \ldots, a_{n}\right)$ for which $\rho\left(a_{0}, a_{1}, \ldots, a_{n}\right)=$ $\prod_{i=0}^{n} \rho\left(\left|a_{i}\right|\right) \geq t_{0}$. By taking logarithms of both sides and changing signs, we get an equivalent inequality
$$
\sum_{i=0}^{n} \psi\left(\left|a_{i}\right|\right) \leq p_{0}
$$

金融代写|金融计量经济学Financial Econometrics代考|Natural Invariances

Scale-invariance: general idea. The numerical values of physical quantities depend on the selection of a measuring unit. For example, if we previously used meters and now start using centimeters, all the physical quantities will remain the same, but the numerical values will change-they will all get multiplied by 100 .

In general, if we replace the original measuring unit with a new measuring unit which is $\lambda$ times smaller, then all the numerical values get multiplied by $\lambda$ :
$$
x \rightarrow x^{\prime}=\lambda \cdot x
$$
Similarly, if we change the original measuring units for the quantity $y$ to a new unit which is $\lambda$ times smaller, then all the coefficients $a_{i}$ in the corresponding dependence $y=a_{0}+\cdots+a_{i} \cdot x_{i}+\cdots$ will also be multiplied by the same factor: $a_{i} \rightarrow \lambda \cdot a_{i}$.
Scale-invariance: case of probabilistic constraints. It is reasonable to require that the corresponding constraints should not depend on the choice of a measuring unit. Of course, if we change $a_{i}$ to $\lambda \cdot a_{i}$, then the value $p_{0}$ may also need to be accordingly changed, but overall, the constraint should remain the same. Thus, we arrive at the following definition.

Definition 4 We say that probability constraints corresponding to the function $\psi(z)$ are scale-invariant if for every $p_{0}$ and for every $\lambda>0$, there exists a value $p_{0}^{\prime}$ such that
$$
\sum_{i=0}^{n} \psi\left(\left|a_{i}\right|\right)=p_{0} \Leftrightarrow \sum_{i=0}^{n} \psi\left(\lambda \cdot\left|a_{i}\right|\right)=p_{0}^{\prime}
$$
Scale-invariance: case of general constraints. In general, the degree of impossibility is described in the same units as the coefficients themselves. Thus, invariance would mean that if replace $a$ and $b$ with $\lambda \cdot a$ and $\lambda \cdot b$, then the combined value $a * b$ will be replaced by a similarly re-scaled value $\lambda \cdot(a * b)$. Thus, we arrive at the following definition.

金融代写|金融计量经济学Financial Econometrics代考|Invariance-Based Explanation

金融计量经济学代考

金融代写|金融计量经济学Financial Econometrics代考|Formulation of the Problem

需要解决逆问题。一旦我们有了一个系统的模型,我们就可以使用这个模型来预测系统的行为,特别是预测这个系统未来测量和观察的结果。基于模型估计未来测量结果的问题称为前向问题。

在许多实际情况下,我们不知道确切的模型。更准确地说,我们知道物理量之间依赖关系的一般形式,但这种依赖关系的参数需要从观察和实验结果中确定。例如,通常,我们有一个线性模型是= 一个0+∑一世=1n一个一世⋅X一世, 其中参数一个一世需要通过实验确定。根据测量结果确定模型参数的问题称为逆问题。

为了实际找到参数,我们可以使用例如最大似然法。例如,当误差呈正态分布时,最大似然过程会产生通常的最小二乘估计;见,例如,Sheskin (2011). F○̄́ 和X一个̄米p̄l和́, F○̄r 一个̄ G和n和n和́r一个̆l l一世ñ和一个rr 米○几个对应值的元组(X1(ķ),…,Xn(ķ),是(ķ)),1≤ķ≤ķ, 那么我们可以从
$$
\sum_{k=1}^{K}\left(y^{(k)}-\left(a_{0}+\sum_{i=1} ^{n} a_{i} \cdot x_{i}^{(k)}\right)\right)^{2} \rightarrow \min {a {0}, \ldots, a_{n}}
$$
需要正则化。在一些实际情况下,根据测量结果,我们可以相当准确地确定模型的所有参数。然而,在许多其他情况下,逆问题是不明确的,因为参数的几个非常不同的组合与所有测量结果一致。

例如,在动态系统中,当观测提供系统动态的平滑图像时,就会发生这种情况。例如,如果我们正在追踪由外力引起的机械系统的运动,那么在一个方向上的强而短时间的力,随后在相反方向上的类似强而短时间的力将(几乎)抵消每个其他,因此相同的几乎不变的行为与没有力和上述剧烈振荡的力一致。当我们根据观察到的经济行为,试图重构影响经济系统的外力时,也会出现类似的现象。

在这种情况下,缩小可能解决方案的范围的唯一方法是考虑一些一般的先验信息。例如,对于力,我们可能知道(例如,从专家那里)每个单独力的上限,或整体力的上限。这种先验信息的使用称为正则化;例如,参见 Tikhonov 和 Arsenin (1977)。

金融代写|金融计量经济学Financial Econometrics代考|General and Probabilistic Regularizations

正则化的一般概念及其可能的概率背景。一般来说,正则化意味着我们忽略值一个一世太大或太小。在某些情况下,这种解雇是基于对什么是大什么是小的主观估计。在其他情况下,关于什么是大什么不是大的结论是基于过去解决类似问题的经验——即,基于我们对过去观察到不同值的频率(=概率)的估计。在本文中,我们考虑了这两种类型的正则化。

概率正则化:走向精确定义。没有先验理由相信不同的参数有不同的分布。因此,在第一个近似值中,假设它们具有相同的概率分布是有意义的。让我们将这个共同分布的概率密度函数表示为ρ(一个).

更准确地说,原始信息对于参数的所有可能排列是不变的;因此,得出这样的结论是有意义的,即由此产生的联合分布对于所有这些排列也是不变的,这尤其意味着所有边缘分布都是相同的。

类似地,一般来说,我们没有先验理由偏爱每个系数的正值或负值,即先验信息在改变每个变量的符号方面是不变的:一个一世→−一个一世. 因此可以合理地得出结论,边际分布也应该是不变的,即我们应该有ρ(−一个)=ρ(一个), 因此,ρ(一个)=ρ(|一个|).

此外,没有理由相信不同的参数是正相关或负相关,因此假设它们的分布在统计上是独立的是有意义的。这与一般最大熵(=拉普拉斯不确定性原理)思想 Jaynes 和 Bretthorst (2003) 一致,根据该思想,我们不应该假装确定——更准确地说,如果几个不同的概率分布与我们的知识一致:

  • 我们不应该选择熵小的分布(不确定性的度量),
  • 我们应该选择熵最大的那个。
    如果我们所知道的只是边际分布,那么这个原理就会得出相应变量是独立的结论;例如,参见 Jaynes 和 Bretthorst(2003).

由于独立性假设,联合分布n变量一个一世采取形式ρ(一个0,一个1,…,一个n)=∏一世=0nρ(|一个一世|). 在概率和统计的应用中,粗略地说,通常假设概率很小的事件不会发生。这是所有统计检验的基础——例如,如果我们假设分布在给定均值和标准差的情况下是正态分布,并且这种分布导致观察到的数据的概率非常小(例如,如果我们观察到 5 – sigma 偏差),那么我们可以很有信心地得出结论,实验证明了我们的假设。换句话说,我们采取一些阈值吨0, 我们只考虑元组一个=(一个0,一个1,…,一个n)为此ρ(一个0,一个1,…,一个n)= ∏一世=0nρ(|一个一世|)≥吨0. 取两边的对数并改变符号,我们得到一个等价的不等式

∑一世=0nψ(|一个一世|)≤p0

金融代写|金融计量经济学Financial Econometrics代考|Natural Invariances

尺度不变性:一般概念。物理量的数值取决于测量单位的选择。例如,如果我们以前使用米,现在开始使用厘米,所有物理量都将保持不变,但数值会发生变化——它们都会乘以 100。

一般来说,如果我们用一个新的测量单位替换原来的测量单位,即λ倍小,然后所有数值乘以λ :

X→X′=λ⋅X
同样,如果我们改变数量的原始计量单位是到一个新单位λ倍小,然后是所有系数一个一世在相应的依赖中是=一个0+⋯+一个一世⋅X一世+⋯也将乘以相同的因子:一个一世→λ⋅一个一世.
尺度不变性:概率约束的情况。要求相应的约束不应依赖于测量单位的选择是合理的。当然,如果我们改变一个一世至λ⋅一个一世, 那么值p0可能也需要相应地更改,但总的来说,约束应该保持不变。因此,我们得出以下定义。

定义4 我们说对应于函数的概率约束ψ(和)是尺度不变的,如果对于每个p0并且对于每个λ>0, 存在一个值p0′这样

∑一世=0nψ(|一个一世|)=p0⇔∑一世=0nψ(λ⋅|一个一世|)=p0′
尺度不变性:一般约束的情况。通常,不可能的程度与系数本身的单位相同。因此,不变性意味着如果替换一个和b和λ⋅一个和λ⋅b,然后是组合值一个∗b将被类似重新缩放的值替换λ⋅(一个∗b). 因此,我们得出以下定义。

金融代写|金融计量经济学Financial Econometrics代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

金融代写|金融计量经济学Financial Econometrics代考|The Rigorous Lasso for Time-Series Data

如果你也在 怎样代写金融计量经济学Financial Econometrics这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

金融计量学是将统计方法应用于金融市场数据。金融计量学是金融经济学的一个分支,在经济学领域。研究领域包括资本市场、金融机构、公司财务和公司治理。

statistics-lab™ 为您的留学生涯保驾护航 在代写金融计量经济学Financial Econometrics方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写金融计量经济学Financial Econometrics代写方面经验极为丰富,各种代写金融计量经济学Financial Econometrics相关的作业也就用不着说。

我们提供的金融计量经济学Financial Econometrics及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
金融代写|金融计量经济学Financial Econometrics代考|The Rigorous Lasso for Time-Series Data

金融代写|金融计量经济学Financial Econometrics代考|The Rigorous Lasso for Time-Series Data

We propose two estimators, the HAC-lasso and AC-lasso, that extend the rigorous lasso to the pure time-series setting. These estimators are, in effect, special cases of the rigorous lasso for dependent data presented in Chernozhukov et al. (2019).

We first present the HAC-lasso and then AC-lasso as a special case. For simplicity we consider the contemporaneous high-dimensional model, using $t$ to denote observations numbered $1, \ldots, n$ but not including lags:
$$
y_{t}=\boldsymbol{x}{t}^{\prime} \boldsymbol{\beta}+\varepsilon{t}
$$
The HAC-lasso uses the HAC (heteroskedastic- and autocorrelation-consistent) covariance estimator to estimate the variance of the $j$ th element of the score vector. The implementation we propose is a simplified version of the estimator in Chernozhukov et al. (2019). The simplification follows from the additional assumption that the score is autocorrelated up to order $q$ where $q$ is finite, fixed and known a priori. The form of autocorrelation of this $M A(q)$ process can be arbitrary. Denote the HAC sample autocovariance $s$ of the score for predictor $j$ hy $\Gamma_{j s}^{H A C}$ :
$$
\Gamma_{j s}^{H A C}:=\frac{1}{n} \sum_{t=s+1}^{n}\left(x_{t j} \varepsilon_{t}\right)\left(x_{t-s, j} \varepsilon_{t-s}\right)
$$
The sample variance of the score for predictor $j$ is
$$
\Gamma_{j 0}^{H A C}:-\frac{1}{n} \sum_{i=1}^{n}\left(x_{t j} \varepsilon_{t}\right)^{2}
$$
The variance of the $j$ th element of the score vector can be consistently estimated using the truncated kernel with bandwidth $q$ (Hayashi 2000 , p. 408), and hence the HAC ideal penalty loading is
$$
\psi_{j}^{H A C}=\sqrt{\Gamma_{j 0}^{H A C}+2 \sum_{s=1}^{q} \Gamma_{j s}^{H A C}}
$$

金融代写|金融计量经济学Financial Econometrics代考|Monte Carlo

In this section, we present results of Monte Carlo simulations to assess the performance of the HAC-lasso estimator. We focus attention on the HD-C model with only contemporaneous predictors and $p=K$; our motivation is that this resembles the nowcasting application we discuss in the next section. The underlying data generation process for the dependent variable with $p$ explanatory variables is:
$$
y_{t}=\beta_{0}+\sum_{j=1}^{p} \beta_{j} x_{t j}+\varepsilon_{t} .
$$

A total of $p=100$ predictors are generated, but only the first $s$ predictors are nonzero. Therefore, in all specifications, the coefficients on the predictors $\beta_{j}$ are defined as:
$$
\beta_{j}=\mathbb{1}{j \leq s} \forall j=1, \ldots, p
$$
where we set the number of non-zero predictors to $s=5 . \beta_{0}$ is a constant and set to 1 in all simulations.
The error component $\varepsilon_{t}$ for the dependent variable is an MA(q) process:
$$
\begin{aligned}
&\varepsilon_{t}=\sum_{r=0}^{q} \theta_{r} \eta_{t-r} \
&\eta_{t} \sim N\left(0, \sigma_{\eta}^{2}\right)
\end{aligned}
$$
We use three DGPs with $q=0, q=4$, and $q=8$. For all DGPs, the MA coefficient $\theta_{r}$ is fixed such that $\theta_{r}=\theta=1, \quad \forall l=1, \ldots, q$. The standard deviation varies across $\sigma_{\eta}=[0.5 ; 1 ; 2 ; 4 ; 5]$.
The predictors $x_{t j}$ follow an $A R(1)$ process:
$$
x_{i j}=\pi_{j} x_{t-1, j}+\xi_{t j}, \quad \forall j=1, \ldots, p
$$
The AR coefficients across all predictors are the same with $\pi_{j}=\pi=0.8$.
The random component $\xi_{t}=\left(\xi_{t 1}, \ldots, \xi_{t p}\right)^{\prime}$ is multivariate normal, generated as:
$$
\xi_{t}=M V N\left(0, \Sigma_{\xi}\right),
$$
where $\Sigma_{\xi}$ is a $p \times p$ covariance matrix. In this approach, we specify error components that are independent over time, and that are either also contemporaneously independent or correlated across $p$. In a first step the Monte Carlo specifies uncorrelated error components for the predictors $x$ and $\Sigma_{\xi}$ is diagonal with elements $\sigma_{\xi^{(1)}}^{2}-\cdots-\sigma_{\xi^{(p)}}^{2}-1$.

金融代写|金融计量经济学Financial Econometrics代考|Application to Nowcasting

In this section, we illustrate how the properties of the HAC-lasso and AC-lasso estimators are particularly useful for model consistency for fore- and nowcasting and that it produces competitive nowcasts at low computational cost.

The objective of nowcast models is to produce ‘early’ forecasts of the target variable which exploits the real time data publication schedule of the explanatory data set. Such real time data sets are usually in higher frequency and are published with a considerably shorter lag than the target variable of interest. Nowcasting is particularly relevant for central banks and other policy environments where key economic indices such as GDP or inflation are published with a lag of up to 7 weeks

with respect to their reference period. ${ }^{12}$ In order to conduct informed forward-looking policy decisions, policy makers require accurate nowcasts where it is now common to combine, next to traditional macroeconomic data, ever more information from Big Data sources such as internet search terms, satellite data, scanner data, etc. (Buono et al. 2018).

A data source which has garnered much attention in the recent nowcast literature is Google Trends (GT), Google’s search term indices. GT provides on a scale of 1-100, for a given time frame and location, the popularity of certain search terms entered into the Google search engine. Due to their timeliness as compared to conventional macro data and ability to function as an index of sentiment of demand and supply (Scott and Varian 2014), they have celebrated wide spread use in nowcasting applications in many disparate fields of economics (see Choi and Varian (2012), and Li (2016) for surveys). They have proven especially useful in applications where searches are directly related to the variable of interest, such as unemployment data where internet search engines provide the dominant funnel through which job seekers find jobs (Smith 2016). Only recently has Google Trends been applied to nowcasting such aggregate economic variables as GDP (Kohns and Bhattacharjee 2019).

金融代写|金融计量经济学Financial Econometrics代考|The Rigorous Lasso for Time-Series Data

金融计量经济学代考

金融代写|金融计量经济学Financial Econometrics代考|The Rigorous Lasso for Time-Series Data

我们提出了两个估计器,HAC-lasso 和 AC-lasso,将严格的 lasso 扩展到纯时间序列设置。实际上,这些估计器是 Chernozhukov 等人提出的依赖数据的严格套索的特殊情况。(2019)。

我们首先介绍 HAC-lasso,然后将 AC-lasso 作为一个特例。为简单起见,我们考虑同时期的高维模型,使用吨表示观察编号1,…,n但不包括滞后:

是吨=X吨′b+e吨
HAC-lasso 使用 HAC(heteroskedastic-and autocorrelation-consistent)协方差估计器来估计j分数向量的第 th 个元素。我们提出的实现是 Chernozhukov 等人的估计器的简化版本。(2019)。简化源于额外的假设,即分数是自相关的q在哪里q是有限的、固定的和先验已知的。这个自相关的形式米一个(q)过程可以是任意的。表示 HAC 样本自协方差s预测器的分数j他ΓjsH一个C :

ΓjsH一个C:=1n∑吨=s+1n(X吨je吨)(X吨−s,je吨−s)
预测变量得分的样本方差j是

Γj0H一个C:−1n∑一世=1n(X吨je吨)2
的方差j可以使用带带宽的截断内核一致地估计得分向量的第 th 个元素q(Hayashi 2000 , p. 408),因此 HAC 的理想惩罚负载为

ψjH一个C=Γj0H一个C+2∑s=1qΓjsH一个C

金融代写|金融计量经济学Financial Econometrics代考|Monte Carlo

在本节中,我们展示了蒙特卡罗模拟的结果,以评估 HAC-lasso 估计器的性能。我们将注意力集中在只有同时期预测变量的 HD-C 模型和p=ķ; 我们的动机是这类似于我们在下一节中讨论的临近预报应用程序。因变量的基础数据生成过程p解释变量是:

是吨=b0+∑j=1pbjX吨j+e吨.

总共p=100生成预测器,但只有第一个s预测变量非零。因此,在所有规范中,预测变量的系数bj定义为:

bj=1j≤s∀j=1,…,p
我们将非零预测变量的数量设置为s=5.b0是一个常数,在所有模拟中都设置为 1。
错误组件e吨因变量是一个 MA(q) 过程:

e吨=∑r=0qθr这吨−r 这吨∼ñ(0,σ这2)
我们使用三个 DGPq=0,q=4, 和q=8. 对于所有 DGP,MA 系数θr是固定的,使得θr=θ=1,∀l=1,…,q. 标准差因人而异σ这=[0.5;1;2;4;5].
预测器X吨j跟随一个R(1)过程:

X一世j=圆周率jX吨−1,j+X吨j,∀j=1,…,p
所有预测变量的 AR 系数与圆周率j=圆周率=0.8.
随机分量X吨=(X吨1,…,X吨p)′是多元正态,生成为:

X吨=米在ñ(0,ΣX),
在哪里ΣX是一个p×p协方差矩阵。在这种方法中,我们指定了随时间独立的误差分量,它们要么同时独立,要么相互关联。p. 在第一步中,蒙特卡罗为预测变量指定不相关的误差分量X和ΣX与元素对角线σX(1)2−⋯−σX(p)2−1.

金融代写|金融计量经济学Financial Econometrics代考|Application to Nowcasting

在本节中,我们将说明 HAC-lasso 和 AC-lasso 估计器的属性如何对预测和临近预报的模型一致性特别有用,并且它以低计算成本产生有竞争力的临近预报。

临近预报模型的目标是利用解释性数据集的实时数据发布时间表对目标变量进行“早期”预测。这种实时数据集的频率通常更高,并且发布的滞后时间比感兴趣的目标变量要短得多。临近预报尤其适用于中央银行和其他政策环境,在这些环境中,GDP 或通货膨胀等关键经济指标的发布延迟长达 7 周

关于他们的参考期。12为了做出明智的前瞻性政策决策,政策制定者需要准确的临近预报,除了传统的宏观经济数据之外,还需要结合来自大数据源的更多信息,例如互联网搜索词、卫星数据、扫描仪数据等。 .(Buono 等人,2018 年)。

在最近的临近预报文献中,一个备受关注的数据源是 Google 趋势 (GT),即 Google 的搜索词索引。GT 在 1-100 的范围内,针对给定的时间范围和位置,提供输入 Google 搜索引擎的某些搜索词的流行度。由于与传统宏观数据相比它们的及时性以及作为供需情绪指数的能力(Scott 和 Varian,2014 年),它们在许多不同的经济学领域的临近预报应用中得到了广泛的应用(参见 Choi 和 Varian (2012 年)和李(2016 年)进行调查)。事实证明,它们在搜索与感兴趣的变量直接相关的应用程序中特别有用,例如失业数据,其中互联网搜索引擎提供了求职者找到工作的主要渠道(Smith 2016)。

金融代写|金融计量经济学Financial Econometrics代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

金融代写|金融计量经济学Financial Econometrics代考|The ‘Rigorous’ or ‘Plug-in’ Lasso

如果你也在 怎样代写金融计量经济学Financial Econometrics这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

金融计量学是将统计方法应用于金融市场数据。金融计量学是金融经济学的一个分支,在经济学领域。研究领域包括资本市场、金融机构、公司财务和公司治理。

statistics-lab™ 为您的留学生涯保驾护航 在代写金融计量经济学Financial Econometrics方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写金融计量经济学Financial Econometrics代写方面经验极为丰富,各种代写金融计量经济学Financial Econometrics相关的作业也就用不着说。

我们提供的金融计量经济学Financial Econometrics及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
金融代写|金融计量经济学Financial Econometrics代考|The ‘Rigorous’ or ‘Plug-in’ Lasso

金融代写|金融计量经济学Financial Econometrics代考|The ‘regularisation event’

Bickel et al. (2009) present a theoretically-derived penalisation method for the lasso. Belloni, Chernozhukov, Hansen, and coauthors in a series of papers (e.g., Belloni et al. (2011), Belloni and Chernozhukov (2013), Belloni et al. (2016), Chernozhukov et al. (2015) and, most recently, Chernozhukov et al. (2019)) proposed feasible algorithms for implementing the ‘rigorous’ or ‘plug-in’ lasso and extended it to accommodate heteroskedasticity, non-Gaussian disturbances, and clustered data. The estimator has two attractive features for our purposes. First, it is theoretically and intuitively appealing, with well-established properties. Second, it is computationally attractive compared to cross-validation. We first present the main results for the rigorous lasso for the independent data, and then briefly summarise the ‘cluster-lasso’ of Belloni et al. (2016) before turning to the more general time-series setting analysed in Chernozhukov et al. (2019).

The rigorous lasso is consistent in terms of prediction and parameter estimation under three main conditions:

  • Sparsity
  • Restricted sparse eigenvalue condition
  • The ‘regularisation event’.
    We consider each of these in turn.
    Exact sparsity we have already discussed: there is a large set of potentially relevant predictors, but the true model has only a small number of regressors. Exact sparsity is a strong assumption, and in fact it is stronger than is needed for the rigorous lasso.

Instead, we assume approximate sparsity. Intuitively, some true coefficients may be non-zero but small enough in absolute size that the lasso performs well even if the corresponding predictors are not selected.
Belloni et al. (2012) define the approximate sparse model (ASM),
$$
y_{i}=f\left(\boldsymbol{w}{i}\right)+\varepsilon{i}=\boldsymbol{x}{i}^{\prime} \boldsymbol{\beta}{0}+r_{i}+\varepsilon_{i} .
$$
where $\varepsilon_{i}$ are independently distributed, but possibly heteroskedastic and nonGaussian errors. The elementary predictors $w_{i}$ are linked to the dependent variable through the unknown and possibly non-linear function $f(\cdot)$. The objective is to approximate $f\left(w_{i}\right)$ using the target parameter vector $\boldsymbol{\beta}{0}$ and the transformations $\boldsymbol{x}{i}:=P\left(\boldsymbol{w}{i}\right)$, where $P(\cdot)$ is a set of transformations. The vector of predictors $\boldsymbol{x}{i}$ may be large relative to the sample size. In particular, the setup accommodates the case where a large number of transformations (polynomials, dummies, etc.) approximate $f\left(w_{i}\right)$.

Approximate sparsity requires that $f\left(w_{i}\right)$ can be approximated sufficiently well using only a small number of non-zero coefficients. Specifically, the target vector $\boldsymbol{\beta}{0}$ and the sparsity index $s$ need to satisfy $$ \left|\boldsymbol{\beta}{0}\right|_{0}:=s \ll n \quad \text { with } \frac{s^{2} \log ^{2}(p \vee n)}{n} \rightarrow 0
$$
and the resulting approximation error $r_{i}=f\left(w_{i}\right)-\boldsymbol{x}{i}^{\prime} \boldsymbol{\beta}{0}$ satisfied the bound
$$
\sqrt{\frac{1}{n} \sum_{i=1}^{n} r_{i}^{2}} \leq C \sqrt{\frac{s}{n}}
$$
where $C$ is a positive constant.
For example, consider the case where $f\left(w_{i}\right)$ is linear with $f\left(\boldsymbol{w}{i}\right)=\boldsymbol{x}{i}^{\prime} \boldsymbol{\beta}^{*}$, but the true parameter vector $\boldsymbol{\beta}^{\star}$ is high-dimensional: $\left|\boldsymbol{\beta}^{\star}\right|_{0}>n$. Approximate sparsity means we can still approximate $\beta^{\star}$ using the sparse target vector $\boldsymbol{\beta}{0}$ as long as $r{i}=\boldsymbol{x}{i}^{\prime}\left(\boldsymbol{\beta}^{\star}-\boldsymbol{\beta}{0}\right)$ is sufficiently small as specified in (13).

金融代写|金融计量经济学Financial Econometrics代考|Implementing the Rigorous Lasso

The quantile function $q_{\Lambda}(\cdot)$ for the maximal element of the score vector is unknown. The most common approach to addressing this is to use a theoretically-derived upper bound that guarantees that the regularisation event (14) holds asymptotically. ${ }^{9}$ Specifically, Belloni et al. (2012) show that

A Theory-Based Lasso for Time-Series Data
17
$$
\mathrm{P}\left(\max {1 \leq j \leq p} c\left|S{j}\right| \leq \frac{\lambda \psi_{j}}{n}\right) \rightarrow 1 \text { as } n \rightarrow \infty, \gamma \rightarrow 0
$$
if the penalty levels and loadings are set to
$$
\lambda=2 c \sqrt{n} \Phi^{-1}(1-\gamma /(2 p)) \quad \psi_{j}=\sqrt{\frac{1}{n} \sum_{i} x_{i j}^{2} \varepsilon_{i}^{2}}
$$
$c$ is the slack parameter from above and $\gamma \rightarrow 0$ means the probability of the regularisation event converges towards 1. Common settings for $c$ and $\gamma$, based on Monte Carlo studies are $c=1.1$ and $\gamma=0.1 / \log (n)$, respectively.

The only remaining element is estimation of the ideal penalty loadings $\psi_{j}$. Belloni et al. $(2012,2014)$ recommend an iterative procedure based on some initial set of residuals $\hat{\varepsilon}{0, i}$. One choice is to use the $d$ predictors that have the highest correlation with $y{i}$ and regress $y_{i}$ on these using OLS; $d=5$ is their suggestion. The residuals from this OLS regression can be used to obtain an initial set of penalty loadings $\hat{\psi}_{j}$ according to $(20)$. These initial penalty loadings and the penalty level from (20) are used to obtain the lasso or post-lasso estimator $\hat{\boldsymbol{\beta}}$. This estimator is then used to obtain a updated set of residuals and penalty loadings according to (20), and then an updated lasso estimator. The procedure can be iterated further if desired.

The framework set out above requires only independence across observations; heteroskedasticity, a common issue facing empirical researchers, is automatically accommodated. For this reason we refer to it as the ‘heteroskedastic-consistent rigorous lasso’ or HC-lasso. The reason is that heteroskedasticity is captured in the penalty loadings for the score vector. ${ }^{10}$ Intuitively, heteroskedasticity affects the probability that the term $\max {j}\left|\sum{i} x_{i j} \varepsilon_{i}\right|$ takes on extreme values, and this needs to be captured via the penalty loadings. In the special case of homoskedasticity, the ideal penalisation in $(20)$ simplifies:
$$
\lambda=2 c \sigma \sqrt{n} \Phi^{-1}(1-\gamma /(2 p)), \quad \psi_{j}=1
$$
This follows from the fact that we have standardised the predictors to have unit variance and hence homoskedasticity implies $E\left(x_{i j}^{2} \varepsilon_{i}^{2}\right)=\sigma^{2} E\left(x_{i j}^{2}\right)=\sigma^{2}$. The iterative procedure above is used to obtain residuals to form an estimate $\hat{\sigma}^{2}$ of the error variance $\sigma^{2}$. We refer to the rigorous lasso with this simplification as the ‘standard’ or ‘basic’ rigorous lasso.

金融代写|金融计量经济学Financial Econometrics代考|The Rigorous Lasso for Panel Data

‘The rigorous lasso has been extended to cover a special case of dependent data, namely panel data. The ‘cluster-lasso’ proposed by Belloni et al. (2016) allows

for arbitrary within-panel correlation. The theoretical justification for the clusterlasso also supports the use of the rigorous lasso in a pure time series setting, and specifically the HAC-lasso and AC-lasso proposed in this paper. Belloni et al. (2016) prove consistency of the rigorous cluster-lasso for both the large $n$, fixed $T$ and large $n$, large $T$ settings. The large $n$-fixed $T$ results apply also to the specific forms of the HAC-lasso and AC-lasso proposed here. We first outline the Belloni et al. (2016) cluster-lasso and then our proposed estimators.

Belloni et al. (2016) present the approach in the context of a fixed-effects panel data model with balanced panels, but the fixed effects and balanced structure are not essential and the approach applies to any setups with clustered data. For presentation purposes we simplify and write the model as a balanced panel:
$$
y_{i t}=\boldsymbol{x}{i t}^{\prime} \boldsymbol{\beta}+\varepsilon{i t} \quad i=1, \ldots, n, t=1, \ldots, T
$$
The general intuition behind the rigorous lasso is to control the noise in the score vector $\boldsymbol{S}=\left(S_{1}, \ldots, S_{j}, \ldots, S_{p}\right)$ where $S_{j}=\frac{2}{n} \sum_{i=1}^{n} x_{i j} \varepsilon_{i}$. Specifically, we choose the overall penalty $\lambda$ and the predictor-specific penalty loading $\psi_{j}$ so that $\frac{\lambda}{n}$ exceeds the maximal element of the scaled score vector $\left|\psi_{j}^{-1} S_{j}\right|$ with high probability. In effect, the ideal penalty loading $\psi_{j}$ scales the $j$ th element of the score by its standard deviation. In the benchmark heteroskedastic case, the ideal penalty loading is $\psi_{j}=$ $\int_{\sigma} \sqrt{\frac{1}{n} \sum_{i} x_{i j}^{2} \varepsilon_{i}^{2}}$; under homoskedasticity, the ideal penalty loading is simply $\psi_{j}=$
$\forall j$ and hence can be absorbed into the overall penalty $\lambda$.
The cluster-lasso of Belloni et al. (2016) extends this to accommodate the case where the score is independent across but not within panels $i$. In this case, the ideal penalty loading is just an application of the standard cluster-robust covariance estimator, which provides a consistent estimate of the variance of the $j$ th element of the score vector. The ideal penalty loadings for the cluster-lasso are simply
$$
\psi_{j}=\sqrt{\frac{1}{n T} \sum_{i=1}^{n} u_{i j}^{2}} \quad \text { where } u_{i j}:=\sum_{t} x_{i j t} \varepsilon_{i t}
$$
Belloni et al. (2016) show that this ideal penalty can be implemented in the same way as the previous cases, i.e., by using an initial set of residuals and then iterating. They recommend that the overall penalty level is the same as in the heteroskedastic case, $\lambda=2 c \sqrt{n} \Phi^{-1}(1-\gamma /(2 p))$, except that $\gamma$ is $0.1 / \log (n)$, i.e., it uses the number of clusters rather than the number of observations.

金融代写|金融计量经济学Financial Econometrics代考|The ‘Rigorous’ or ‘Plug-in’ Lasso

金融计量经济学代考

金融代写|金融计量经济学Financial Econometrics代考|The ‘regularisation event’

比克尔等人。(2009)提出了套索的理论衍生惩罚方法。Belloni、Cernozhukov、Hansen 和一系列论文的合著者(例如,Belloni 等人(2011 年)、Belloni 和 Chernozhukov(2013 年)、Belloni 等人(2016 年)、Chernozhukov 等人(2015 年)以及最近的, Chernozhukov et al. (2019)) 提出了可行的算法来实现“严格”或“插件”套索,并将其扩展以适应异方差、非高斯干扰和聚类数据。对于我们的目的,估计器有两个吸引人的特征。首先,它在理论上和直观上都具有吸引力,具有完善的属性。其次,与交叉验证相比,它在计算上更具吸引力。我们首先介绍了独立数据的严格套索的主要结果,然后简要总结了 Belloni 等人的“集群套索”。(2016) 在转向 Chernozhukov 等人分析的更一般的时间序列设置之前。(2019)。

在三个主要条件下,严格的 lasso 在预测和参数估计方面是一致的:

  • 稀疏性
  • 受限稀疏特征值条件
  • “正规化事件”。
    我们依次考虑这些。
    我们已经讨论过精确的稀疏性:有大量潜在相关的预测变量,但真实模型只有少量回归变量。精确稀疏性是一个强有力的假设,实际上它比严格套索所需的要强。

相反,我们假设近似稀疏。直观地说,一些真实系数可能不为零,但绝对大小足够小,即使没有选择相应的预测变量,套索也能很好地执行。
贝洛尼等人。(2012)定义近似稀疏模型(ASM),

是一世=F(在一世)+e一世=X一世′b0+r一世+e一世.
在哪里e一世是独立分布的,但可能是异方差和非高斯误差。基本预测器在一世通过未知和可能的非线性函数链接到因变量F(⋅). 目标是近似F(在一世)使用目标参数向量b0和转变X一世:=磷(在一世), 在哪里磷(⋅)是一组变换。预测变量的向量X一世相对于样本量可能很大。特别是,该设置适用于大量变换(多项式、虚拟变量等)近似于F(在一世).

近似稀疏性要求F(在一世)仅使用少量非零系数就可以很好地近似。具体来说,目标向量b0和稀疏指数s需要满足

|b0|0:=s≪n 和 s2日志2⁡(p∨n)n→0
以及由此产生的近似误差r一世=F(在一世)−X一世′b0满足界限

1n∑一世=1nr一世2≤Csn
在哪里C是一个正常数。
例如,考虑以下情况F(在一世)是线性的F(在一世)=X一世′b∗,但真正的参数向量b⋆是高维的:|b⋆|0>n. 近似稀疏意味着我们仍然可以近似b⋆使用稀疏目标向量b0只要r一世=X一世′(b⋆−b0)足够小,如 (13) 中所述。

金融代写|金融计量经济学Financial Econometrics代考|Implementing the Rigorous Lasso

分位数函数qΛ(⋅)因为分数向量的最大元素是未知的。解决这个问题的最常见方法是使用理论上得出的上限,以保证正则化事件 (14) 渐近地成立。9具体来说,贝洛尼等人。(2012)表明

时间序列数据的基于理论的套索
17

磷(最大限度1≤j≤pC|小号j|≤λψjn)→1 作为 n→∞,C→0
如果惩罚水平和负荷设置为

λ=2Cn披−1(1−C/(2p))ψj=1n∑一世X一世j2e一世2
C是上面的松弛参数和C→0表示正则化事件的概率收敛于 1。常见设置为C和C,基于蒙特卡罗研究是C=1.1和C=0.1/日志⁡(n), 分别。

唯一剩下的元素是理想惩罚载荷的估计ψj. 贝洛尼等人。(2012,2014)推荐一个基于一些初始残差的迭代过程e^0,一世. 一种选择是使用d相关性最高的预测因子是一世和倒退是一世在这些上使用 OLS;d=5是他们的建议。此 OLS 回归的残差可用于获得一组初始惩罚载荷ψ^j根据(20). 这些初始惩罚载荷和(20)中的惩罚水平用于获得套索或后套索估计量b^. 然后根据(20),该估计器用于获得一组更新的残差和惩罚载荷,然后是更新的套索估计器。如果需要,该过程可以进一步迭代。

上述框架只要求观察之间的独立性;异方差是经验研究人员面临的一个常见问题,它会自动适应。出于这个原因,我们将其称为“heteroskedastic-consistent strict lasso”或 HC-lasso。原因是在分数向量的惩罚负载中捕获了异方差。10直观地说,异方差会影响项的概率最大限度j|∑一世X一世je一世|取极值,这需要通过惩罚负载来捕获。在同方差的特殊情况下,理想的惩罚是(20)简化:

λ=2Cσn披−1(1−C/(2p)),ψj=1
这是因为我们已经将预测变量标准化为具有单位方差,因此同方差意味着和(X一世j2e一世2)=σ2和(X一世j2)=σ2. 上面的迭代过程用于获得残差以形成估计σ^2误差方差σ2. 我们将这种简化的严格套索称为“标准”或“基本”严格套索。

金融代写|金融计量经济学Financial Econometrics代考|The Rigorous Lasso for Panel Data

‘严格套索已经扩展到涵盖依赖数据的特殊情况,即面板数据。Belloni 等人提出的“集群套索”。(2016)允许

用于任意面板内相关性。clusterlasso 的理论论证也支持在纯时间序列设置中使用严格的 lasso,特别是本文提出的 HAC-lasso 和 AC-lasso。贝洛尼等人。(2016)证明了严格的集群套索的一致性n, 固定的吨和大n, 大的吨设置。大n-固定的吨结果也适用于此处提出的 HAC-lasso 和 AC-lasso 的特定形式。我们首先概述了 Belloni 等人。(2016)集群套索,然后是我们提出的估计器。

贝洛尼等人。(2016)在具有平衡面板的固定效应面板数据模型的背景下提出了该方法,但固定效应和平衡结构不是必需的,该方法适用于任何具有聚类数据的设置。出于演示目的,我们将模型简化并编写为平衡面板:

是一世吨=X一世吨′b+e一世吨一世=1,…,n,吨=1,…,吨
严格套索背后的一般直觉是控制分数向量中的噪声小号=(小号1,…,小号j,…,小号p)在哪里小号j=2n∑一世=1nX一世je一世. 具体来说,我们选择整体惩罚λ和特定于预测器的惩罚加载ψj以便λn超过缩放分数向量的最大元素|ψj−1小号j|概率很高。实际上,理想的惩罚加载ψj缩放j分数的第 th 个元素由它的标准差决定。在基准异方差的情况下,理想的惩罚载荷是ψj= ∫σ1n∑一世X一世j2e一世2; 在同方差下,理想的惩罚载荷很简单ψj=
∀j因此可以被吸收到整体惩罚中λ.
Belloni 等人的集群套索。(2016) 对此进行了扩展,以适应分数独立但不在面板内的情况一世. 在这种情况下,理想的惩罚负载只是标准集群鲁棒协方差估计器的应用,它提供了对j分数向量的第 th 个元素。集群套索的理想惩罚载荷很简单

ψj=1n吨∑一世=1n在一世j2 在哪里 在一世j:=∑吨X一世j吨e一世吨
贝洛尼等人。(2016) 表明,这种理想的惩罚可以以与以前的情况相同的方式实现,即通过使用一组初始残差然后迭代。他们建议整体惩罚水平与异方差情况相同,λ=2Cn披−1(1−C/(2p)), 除了那个C是0.1/日志⁡(n),即它使用聚类的数量而不是观察的数量。

金融代写|金融计量经济学Financial Econometrics代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

金融代写|金融计量经济学Financial Econometrics代考|Sparsity and the Rigorous or Plug-In Lasso

如果你也在 怎样代写金融计量经济学Financial Econometrics这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

金融计量学是将统计方法应用于金融市场数据。金融计量学是金融经济学的一个分支,在经济学领域。研究领域包括资本市场、金融机构、公司财务和公司治理。

statistics-lab™ 为您的留学生涯保驾护航 在代写金融计量经济学Financial Econometrics方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写金融计量经济学Financial Econometrics代写方面经验极为丰富,各种代写金融计量经济学Financial Econometrics相关的作业也就用不着说。

我们提供的金融计量经济学Financial Econometrics及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
金融代写|金融计量经济学Financial Econometrics代考|Sparsity and the Rigorous or Plug-In Lasso

金融代写|金融计量经济学Financial Econometrics代考|The Penalisation Approach and the Lasso

The basic idea behind the lasso and its high-dimensional-friendly relatives is penalisation: put a penalty or ‘price’ on the use of predictors in the objective function that the estimator minimizes.

The lasso estimator minimizes the mean squared error subject to a penalty on the absolute size of coefficient estimates (i.e., using the $\ell_{1}$ norm):
$$
\hat{\boldsymbol{\beta}}{\text {lasso }}(\lambda)=\arg \min \frac{1}{n} \sum{i=1}^{n}\left(y_{i}-\boldsymbol{x}{i}^{\prime} \boldsymbol{\beta}\right)^{2}+\frac{\lambda}{n} \sum{j=1}^{p} \psi_{j}\left|\beta_{j}\right| .
$$
The tuning parameter $\lambda$ controls the overall penalty level and $\psi_{j}$ are predictor-specific penalty loadings.

The intuition behind the lasso is straightforward: there is a cost to including predictors, the unit ‘price’ per regressor is $\lambda$, and we can reduce the value of the objective function by removing the ones that contribute little to the fit. The bigger the $\lambda$, the higher the ‘price’, and the more predictors are removed. The penalty loadings $\psi_{j}$ introduce the additional flexibility of putting different prices on the different predictors, $x_{i j}$. The natural base case for standardised predictors is to price them all equally, i.e., the individual penalty loadings $\psi_{j}=1$ and they drop out of the problem. We will see shortly that separate pricing for individual predictors turns out to be important for our proposed estimators.

We can say ‘remove’ because in fact the effect of the penalisation with the $\ell_{1}$ norm is that the lasso sets the $\hat{\beta}_{j} \mathrm{~s}$ for some variables to zero. This is what makes the lasso so suitable to sparse problems: the estimator itself has a sparse solution. The lasso is also computationally feasible: the path-wise coordinate descent (‘shooting’) algorithm allows for fast estimation.

The lasso, like other penalized regression methods, is subject to an attenuation bias. This bias can be addressed by post-estimation using OLS, i.e., re-estimate the model using the variables selected by the first-stage lasso (Belloni and Chernozhukov 2013):
$$
\hat{\boldsymbol{\beta}}{\text {post }}=\arg \min \frac{1}{n} \sum{i=1}^{n}\left(y_{i}-\boldsymbol{x}{i}^{\prime} \boldsymbol{\beta}\right)^{2} \quad \text { subject to } \quad \beta{j}=0 \text { if } \tilde{\beta}{j}=0 $$ where $\tilde{\beta}{j}$ is the first-step lasso estimator. In other words, the first-step lasso is used exclusively as a model selection technique, and OLS is used to estimate the selected model. This estimator is sometimes referred to as the ‘Post-lasso’ (Belloni and Chernozhukov 2013).

金融代写|金融计量经济学Financial Econometrics代考|Cross-Validation

The objective in cross-validation is to choose the lasso penalty parameter based on predictive performance. Typically, the dataset is repeatedly divided into a portion which is used to fit the model (the ‘training’ sample) and the remaining portion which is used to assess predictive performance (the ‘validation’ or ‘holdout’ sample), usually with mean squared prediction error (MSPE) as the criterion. Arlot and Celisse (2010) survey the theory and practice of cross-validation.

In the case of independent data, common approaches are ‘leave-one-out’ (LOO) cross-validation and the more general ‘ $\mathrm{K}$-fold’ cross-validation.

In ‘ $K$-fold’ cross-validation, the dataset is split into $K$ portions or ‘folds’; each fold is used once as the validation sample and the remainder are used to fit the model for some value of $\lambda$. For example, in 10-fold cross-validation (a common choice of $K$ ) the MSPE for the chosen $\lambda$ is the MSPE across the 10 different folds when used for validation. LOO cross-validation is a special case where $K=1$, i.e., every observation is used once as the validation sample while the remaining $n-1$ observations are used to fit the model (Fig. 1).

Cross-validation is computationally intensive because of the need to repeatedly estimate the model and check its performance across different folds and across a grid of values for $\lambda$. Standardisation of data adds to the computational cost because it needs to be done afresh for each training sample; standardising the entire dataset once up-front would violate a key principle of cross-validation, which is that a training dataset cannot contain any information from the corresponding validation dataset. LOO is a partial exception because the MSPE has a closed-form solution for a chosen $\lambda$, but a grid search across $\lambda$ and repeated standardisation are still needed.

金融代写|金融计量经济学Financial Econometrics代考|Cross-Validation for Time Series

Cross-validation with dependent data adds further complications because we need to be careful that the validation data are independent of the training data. It is possible that some settings, standard $K$-fold cross-validation is appropriate. Bergmeir et al. (2018) show that standard cross-validation that ignores the time dimension is valid in the pure auto-regressive model if one is willing to assume that the errors are uncorrelated. This implies, for example, that $K$-fold cross-validation can be used with auto-regressive models that include a sufficient number of lags, since the errors will be uncorrelated (if the model is not otherwise misspecified).

In general, however, researchers typically use a version of ‘non-dependent cross validation’ (Bergmeir et al. 2018), whereby prior information about the nature of the dependence is incorporated into the structure of the cross-validation and possibly dependent observations are omitted from the validation data. For example, one approach used with time-series data is 1 -step-ahead cross-validation (Hyndman and Athanasopoulos 2018 ), where the predictive performance is based on a training sample with observations through time $t$ and the forecast for time $t+1$.

Rolling $h$-step ahead $\mathrm{CV}$ is an intuitively appealing approach that directly incorporates the ordered nature of time series-data (Hyndman and Athanasopoulos 2018). ${ }^{4}$ The procedure builds on repeated $h$-step ahead forecasts. The procedure is illustrated in Figs. 2 and 3 .

Figure 2 a displays the case of 1 -step ahead cross-validation. ‘ $T$ ‘ and ‘ $V$ ‘ refer to the training and validation samples, respectively. In the first step, observations 1 to 3 constitute the training data set and observation 4 used for validation; the remaining observations are unused as indicated by a dot (‘:). Figure 2 b illustrates 2 -step ahead

cross-validation. Figures $2 \mathrm{a}$ and $3 \mathrm{~b}$ both illustrate cross-validation where the training window expands incrementally. Figure 3 displays a variation of rolling $\mathrm{CV}$ where the training window is fixed in length.

We use 1-step-ahead rolling CV with a fixed window for the comparisons in this paper.

金融代写|金融计量经济学Financial Econometrics代考|Sparsity and the Rigorous or Plug-In Lasso

金融计量经济学代考

金融代写|金融计量经济学Financial Econometrics代考|The Penalisation Approach and the Lasso

套索及其对高维友好的亲戚背后的基本思想是惩罚:对估计器最小化的目标函数中预测变量的使用施加惩罚或“代价”。

套索估计器最小化均方误差,但会受到系数估计的绝对大小的惩罚(即,使用ℓ1规范):

b^套索 (λ)=参数⁡分钟1n∑一世=1n(是一世−X一世′b)2+λn∑j=1pψj|bj|.
调整参数λ控制整体处罚水平和ψj是特定于预测器的惩罚载荷。

套索背后的直觉很简单:包含预测变量是有成本的,每个回归变量的单位“价格”是λ,我们可以通过删除对拟合贡献不大的目标函数来降低目标函数的值。越大的λ,“价格”越高,移除的预测变量就越多。惩罚负荷ψj引入对不同预测变量设置不同价格的额外灵活性,X一世j. 标准化预测变量的自然基本情况是对它们进行同等定价,即单个惩罚载荷ψj=1他们退出了问题。我们很快就会看到,单独的预测变量的单独定价对于我们提出的估计器很重要。

我们可以说“删除”,因为事实上惩罚的效果与ℓ1规范是套索设置b^j s对于一些变量为零。这就是套索如此适合稀疏问题的原因:估计器本身有一个稀疏解决方案。套索在计算上也是可行的:路径坐标下降(“射击”)算法允许快速估计。

lasso 与其他惩罚回归方法一样,存在衰减偏差。这种偏差可以通过使用 OLS 的后估计来解决,即使用第一阶段套索选择的变量重新估计模型(Belloni 和 Chernozhukov 2013):

b^邮政 =参数⁡分钟1n∑一世=1n(是一世−X一世′b)2 受制于 bj=0 如果 b~j=0在哪里b~j是第一步套索估计器。换句话说,第一步套索专门用作模型选择技术,而OLS用于估计所选模型。该估计器有时被称为“后套索”(Belloni 和 Chernozhukov 2013)。

金融代写|金融计量经济学Financial Econometrics代考|Cross-Validation

交叉验证的目标是根据预测性能选择 lasso 惩罚参数。通常,数据集被重复分为用于拟合模型的部分(“训练”样本)和用于评估预测性能的剩余部分(“验证”或“保留”样本),通常具有均值平方预测误差(MSPE)作为标准。Arlot 和 Celisse (2010) 调查了交叉验证的理论和实践。

在独立数据的情况下,常见的方法是“留一法”(LOO)交叉验证和更通用的“ķ-fold’ 交叉验证。

在 ‘ķ-fold’ 交叉验证,将数据集拆分为ķ部分或“折叠”;每个折叠用作验证样本一次,其余的用于拟合模型的某个值λ. 例如,在 10 折交叉验证中(常见的选择ķ) 所选的 MSPEλ是用于验证时跨 10 个不同折叠的 MSPE。LOO 交叉验证是一种特殊情况,其中ķ=1,即每个观测值都被用作验证样本,而其余的n−1观察结果用于拟合模型(图 1)。

交叉验证是计算密集型的,因为需要重复估计模型并检查其跨不同折叠和跨值网格的性能λ. 数据标准化增加了计算成本,因为它需要对每个训练样本重新进行;预先对整个数据集进行标准化将违反交叉验证的一个关键原则,即训练数据集不能包含来自相应验证数据集的任何信息。LOO 是一个部分例外,因为 MSPE 有一个封闭形式的解决方案λ, 但网格搜索λ还需要反复标准化。

金融代写|金融计量经济学Financial Econometrics代考|Cross-Validation for Time Series

与相关数据的交叉验证增加了进一步的复杂性,因为我们需要注意验证数据独立于训练数据。可能某些设置、标准ķ-fold 交叉验证是合适的。伯格梅尔等人。(2018) 表明,如果愿意假设错误不相关,则忽略时间维度的标准交叉验证在纯自回归模型中是有效的。例如,这意味着ķ-fold 交叉验证可以与包含足够数量的滞后的自回归模型一起使用,因为错误将是不相关的(如果模型没有以其他方式错误指定)。

然而,一般而言,研究人员通常使用“非依赖交叉验证”的版本(Bergmeir 等人,2018 年),其中有关依赖性质的先验信息被纳入交叉验证的结构中,并且可能依赖的观察结果是从验证数据中省略。例如,用于时间序列数据的一种方法是提前 1 步交叉验证(Hyndman 和 Athanasopoulos 2018 ),其中预测性能基于训练样本以及随时间的观察吨和时间预测吨+1.

滚动H- 领先一步C在是一种直观吸引人的方法,它直接结合了时间序列数据的有序性质(Hyndman 和 Athanasopoulos 2018)。4该程序建立在重复H- 超前预测。该过程在图1和2中说明。2 和 3 。

图 2a 显示了提前 1 步交叉验证的情况。’吨’ 和 ‘在’ 分别指训练和验证样本。第一步,观察 1 到 3 构成训练数据集,观察 4 用于验证;如点 (‘:) 所示,剩余的观察结果未使用。图 2b 说明了提前 2 步

交叉验证。数字2一个和3 b两者都说明了训练窗口逐渐扩展的交叉验证。图 3 显示了滚动的变化C在其中训练窗口的长度是固定的。

在本文中,我们使用固定窗口的 1-step-ahead rolling CV 进行比较。

金融代写|金融计量经济学Financial Econometrics代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

金融代写|金融计量经济学Financial Econometrics代考|A Theory-Based Lasso for Time-Series Dat

如果你也在 怎样代写金融计量经济学Financial Econometrics这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

金融计量学是将统计方法应用于金融市场数据。金融计量学是金融经济学的一个分支,在经济学领域。研究领域包括资本市场、金融机构、公司财务和公司治理。

statistics-lab™ 为您的留学生涯保驾护航 在代写金融计量经济学Financial Econometrics方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写金融计量经济学Financial Econometrics代写方面经验极为丰富,各种代写金融计量经济学Financial Econometrics相关的作业也就用不着说。

我们提供的金融计量经济学Financial Econometrics及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
金融代写|金融计量经济学Financial Econometrics代考|A Theory-Based Lasso for Time-Series Dat

金融代写|金融计量经济学Financial Econometrics代考|Basic Setup and Notation

Wé bégin with thé simplé linéar régréssión mơdél in thé crooss-séction sêtting with $p$ independent variables.

A Theory-Based Lasso for Time-Series Data
5
$$
y_{i}=\beta_{0}+\beta_{1} x_{1 i}+\beta_{2} x_{2 i}+\cdots+\beta_{p} x_{p i}+\varepsilon_{i}
$$
In traditional least squares regression, estimated parameters are chosen to minimise the residual sum of squares (RSS):
$$
R S S=\sum_{i=1}^{n}\left(y_{i}-\beta_{0}-\sum_{j=1}^{p} \beta_{j} x_{i j}\right)^{2}
$$
The problem arises when $p$ is relatively large. If the model is too complex or flexible, the parameters estimated using the training dataset do not perform well with future datasets. This is where regularisation is key. By adding a shrinkage quantity to RSS, regularisation shrinks parameter estimates towards zero. A very popular regularised regression method is the lasso, introduced by Frank and Friedman (1993) and Tibshirani (1996). Instead of minimising the RSS, the lasso minimises
$$
R S S+\lambda \sum_{j=1}^{p}\left|\beta_{j}\right|
$$
where $\lambda$ is the tuning parameter that determines how much model complexity is penalised. At one extreme, if $\lambda=0$, the penalty term disappears, and lasso estimates are the same as OLS. At the other extreme, as $\lambda \rightarrow \infty$, the penalty term grows and estimated coefficients approach zero.

Choosing the tuning parameter, $\lambda$, is critical. We discuss below both the most popular method of tuning parameter choice, cross-validation, and the theory-derived ‘rigorous lasso’ approach.

We note here that our paper is concerned primarily with prediction and model selection with dependent data rather than causal inference. Estimates from regularised regression cannot be readily interpreted as causal, and statistical inference on these coefficients is complicated and an active area of research. ${ }^{1}$

We are interested in applying the lasso in a single-equation time series framework, where the number of predictors may be large, either because the set of contemporaneous regressors is inherently large (as in a nowcasting application), and/or because the model has many lags.

金融代写|金融计量经济学Financial Econometrics代考|Literature Review

The literature on lag selection in VAR and ARMA models is very rich. Lütkepohl (2005) notes that fitting a $\operatorname{VAR}(R)$ model to a VAR $(R)$ process yields a better outcome in terms of mean square error than fitting a $\operatorname{VAR}(R+i)$ model, because the latter results in inferior forecasts than the former, especially when the sample size is small. In practice, the order of data generating process (DGP) is. of course, unknown and we face a trade-off between out-of-sample prediction performance and model consistency. This suggests that it is advisable to avoid fitting VAR models with unnecessarily large orders. Hence, if an upper bound on the true order is known or suspected, the usual next step is to set up significance tests. In a causality context, Wald tests are useful. The likelihood ratio (LR) test can also be used to compare maximum log-likelihoods over the unrestricted and restricted parameter space.

If the focus is on forecasting, information criteria are typically favoured. In this vein, Akaike $(1969,1971)$ proposed using 1-step ahead forecast mean squared error (MSE) to select the VAR order, which led to the final prediction error (FPE) criterion. Akaike’s information criterion (AIC), proposed by Akaike (1974), led to (almost) the same outcome through different reasoning. AIC, defined as $-2 \times \log$-likelihood $+$ $2 \times$ no. of regressors, is approximately equal to FPE in moderate and large sample sizes $(T)$.

Two further information criteria are popular in applied work: Hannan-Quinn criterion (Hannan and Quinn 1979) and Bayesian information criterion (Schwarz 1978). These criteria perform better than AIC and FPE in terms of order selection consistency under certain conditions. However, AIC and FPE have better small sample properties, and models based on these criteria produce superior forecasts despite not estimating the orders correctly (Lütkepohl 2005). Further, the popular information criteria (AIC, BIC, Hannan-Quinn) tend to underfit the model in terms of lag order selection in a small- $t$ context (Lütkepohl 2005).

Although applications of lasso in a time series context are an active area of research, most analyses have focused solely on the use of lasso in lag selection. For example, Hsu et al. (2008) adopt the lasso for VAR subset selection. The authors compare predictive performance of two-dimensional VAR(5) models and US macroeconomic data based on information criteria (AIC, BIC), lasso, and combinations of the two. The findings indicate that the lasso performs better than conventional selection methods in terms of prediction mean squared errors in small samples. In a related application, Nardi and Rinaldo (2011) show that the lasso estimator is model selection consistent when fitting an autoregressive model, where the maximal lag is allowed to increase with sample size. The authors note that the advantage of the lasso with growing $R$ in an $\mathrm{AR}(R)$ model is that the ‘fitted model will be chosen among all possible AR models whose maximal lag is between 1 and $[. . .] \log (\mathrm{n})^{\prime}$ (Nardi and Rinaldo 2011).

金融代写|金融计量经济学Financial Econometrics代考|High-Dimensional Data and Sparsity

The high-dimensional linear model is:
$$
y_{i}=\boldsymbol{x}{i}^{\prime} \boldsymbol{\beta}+\varepsilon{i}
$$

Our initial exposition assumes independence, and to emphasise independence we index observations by $i$. Predictors are indexed by $j$. We have up to $p=\operatorname{dim}(\boldsymbol{\beta})$ potential predictors. $p$ can be very large, potentially even larger than the number of observations $n$. For simplicity we assume that all variables have already been meancentered and rescaled to have unit variance, i.e., $\sum_{i} y_{i}=0$ and $\frac{1}{n} \sum_{i} y_{i}^{2}=1$, and similarly for the predictors $x_{i j}$.

If we simply use OLS to estimate the model and $p$ is large, the result is very poor performance: we overfit badly and classical hypothesis testing leads to many false positives. If $p>n$, OLS is not even identified.

How to proceed depend on what we believe the ‘true model’ is. Does the true model (DGP) include a very large number of regressors? In other words, is the set of predictors that enter the model ‘dense’? Or does the true model consist of a small number of regressors $s$, and all the other $p-s$ regressors do not enter (or equivalently, have zero coefficients)? In other words, is the set of predictors that enter the model ‘sparse’?

In this paper, we focus primarily on the ‘sparse’ case and in particular an estimator that is particularly well-suited to the sparse setting, namely the lasso introduced by Tibshirani (1996).

In the exact sparsity case of the $p$ potential regressors, only $s$ regressors belong in the model, wherre
$$
s:=\sum_{j=1}^{p} \mathbb{1}\left{\beta_{j} \neq 0\right} \ll n
$$
In other words, most of the true coefficients $\beta_{j}$ are actually zero. The problem facing the researcher is that which are zeros and which are not is unknown.

We can also use the weaker assumption of approximate sparsity: some of the $\beta_{j}$ coefficients are well-approximated by zero, and the approximation error is sufficiently ‘small’. The discussion and methods we present in this paper typically carry over to the approximately sparse case, and for the most part we will use the term ‘sparse’ to refer to either setting.

The sparse high-dimensional model accommodates situations that are very familiar to researchers and that typically presented them with difficult problems where traditional statistical methods would perform badly. These include hoth settings where the number $p$ of observed potential predictors is very large and the researcher does not know which ones to use, and settings where the number of observed variables is small but the number of potential predictors in the model is large because of interactions and other non-linearities, model uncertainty, temporal and spatial effects, etc.

金融代写|金融计量经济学Financial Econometrics代考|A Theory-Based Lasso for Time-Series Dat

金融计量经济学代考

金融代写|金融计量经济学Financial Econometrics代考|Basic Setup and Notation

我们从横截面设置中的简单线性回归模型开始p自变量。

时间序列数据的基于理论的套索
5

是一世=b0+b1X1一世+b2X2一世+⋯+bpXp一世+e一世
在传统的最小二乘回归中,选择估计参数以最小化残差平方和 (RSS):

R小号小号=∑一世=1n(是一世−b0−∑j=1pbjX一世j)2
问题出现时p比较大。如果模型过于复杂或过于灵活,则使用训练数据集估计的参数在未来的数据集上表现不佳。这就是正则化是关键的地方。通过向 RSS 添加收缩量,正则化将参数估计收缩到零。一种非常流行的正则化回归方法是由 Frank 和 Friedman (1993) 和 Tibshirani (1996) 引入的套索。套索不是最小化 RSS,而是最小化

R小号小号+λ∑j=1p|bj|
在哪里λ是决定模型复杂度受到惩罚的调整参数。在一种极端情况下,如果λ=0,惩罚项消失,lasso 估计与 OLS 相同。在另一个极端,如λ→∞,惩罚项增长,估计系数接近零。

选择调整参数,λ, 很关键。我们在下面讨论了最流行的参数选择方法、交叉验证和理论派生的“严格套索”方法。

我们在这里注意到,我们的论文主要关注依赖数据的预测和模型选择,而不是因果推理。正则化回归的估计不能轻易解释为因果关系,对这些系数的统计推断很复杂,是一个活跃的研究领域。1

我们有兴趣在单方程时间序列框架中应用套索,其中预测变量的数量可能很大,或者是因为同时期回归变量的集合本身就很大(如在临近预报应用程序中),和/或因为模型具有许多滞后。

金融代写|金融计量经济学Financial Econometrics代考|Literature Review

关于 VAR 和 ARMA 模型中滞后选择的文献非常丰富。Lütkepohl (2005) 指出,拟合曾是⁡(R)模型到 VAR(R)过程在均方误差方面产生比拟合更好的结果曾是⁡(R+一世)模型,因为后者导致比前者更差的预测,尤其是在样本量较小的情况下。在实践中,数据生成过程(DGP)的顺序是。当然,未知,我们面临样本外预测性能和模型一致性之间的权衡。这表明建议避免用不必要的大订单拟合 VAR 模型。因此,如果已知或怀疑真实订单的上限,通常下一步是设置显着性检验。在因果关系中,Wald 检验很有用。似然比 (LR) 检验还可用于比较不受限制和受限制参数空间上的最大对数似然。

如果重点是预测,则通常倾向于使用信息标准。在这种情况下,赤池(1969,1971)提出使用 1 步提前预测均方误差 (MSE) 来选择 VAR 阶数,从而得出最终预测误差 (FPE) 标准。Akaike 的信息标准 (AIC) 由 Akaike (1974) 提出,通过不同的推理导致(几乎)相同的结果。AIC,定义为−2×日志-可能性+ 2×不。回归量,在中等和大样本量中大约等于 FPE(吨).

两个进一步的信息标准在应用工作中很流行:Hannan-Quinn 标准 (Hannan and Quinn 1979) 和贝叶斯信息标准 (Schwarz 1978)。在某些条件下,这些标准在订单选择一致性方面表现优于 AIC 和 FPE。然而,AIC 和 FPE 具有更好的小样本属性,并且基于这些标准的模型产生了更好的预测,尽管没有正确估计订单(Lütkepohl 2005)。此外,流行的信息标准(AIC、BIC、Hannan-Quinn)在小范围内的滞后阶选择方面倾向于欠拟合模型。吨背景(Lütkepohl 2005)。

尽管 lasso 在时间序列环境中的应用是一个活跃的研究领域,但大多数分析只关注在滞后选择中使用 lasso。例如,Hsu 等人。(2008) 采用 lasso 进行 VAR 子集选择。作者比较了基于信息标准(AIC、BIC)、套索和两者组合的二维 VAR(5) 模型和美国宏观经济数据的预测性能。研究结果表明,就小样本的预测均方误差而言,lasso 比传统的选择方法表现更好。在相关应用中,Nardi 和 Rinaldo (2011) 表明,在拟合自回归模型时,套索估计器的模型选择是一致的,其中允许最大滞后随样本量的增加而增加。作者指出,套索的优势随着增长R在一个一个R(R)模型是’拟合模型将在最大滞后在 1 到 1 之间的所有可能的 AR 模型中选择[…]日志⁡(n)′(纳尔迪和里纳尔多 2011)。

金融代写|金融计量经济学Financial Econometrics代考|High-Dimensional Data and Sparsity

高维线性模型为:

是一世=X一世′b+e一世

我们最初的阐述假定了独立性,为了强调独立性,我们通过以下方式索引观察结果一世. 预测变量由j. 我们有多达p=暗淡⁡(b)潜在的预测因素。p可能非常大,甚至可能大于观察次数n. 为简单起见,我们假设所有变量都已经被均值中心化并重新调整为具有单位方差,即∑一世是一世=0和1n∑一世是一世2=1,对于预测变量也是如此X一世j.

如果我们简单地使用 OLS 来估计模型并且p很大,结果是性能很差:我们过度拟合,经典假设检验导致许多误报。如果p>n, OLS 甚至没有被识别。

如何进行取决于我们认为“真正的模式”是什么。真实模型 (DGP) 是否包含大量回归变量?换句话说,进入模型的预测变量集是否“密集”?或者真实模型是否包含少量回归变量s, 和所有其他p−s回归器不输入(或等效地,系数为零)?换句话说,进入模型的预测变量集是否“稀疏”?

在本文中,我们主要关注“稀疏”情况,特别是特别适合稀疏设置的估计器,即 Tibshirani (1996) 引入的套索。

在精确的稀疏情况下p潜在的回归者,只有s回归量属于模型,在哪里

s:=\sum_{j=1}^{p} \mathbb{1}\left{\beta_{j} \neq 0\right} \ll ns:=\sum_{j=1}^{p} \mathbb{1}\left{\beta_{j} \neq 0\right} \ll n
换句话说,大多数真实系数bj实际上是零。研究人员面临的问题是哪些是零,哪些不是是未知的。

我们还可以使用近似稀疏性的较弱假设:一些bj系数很好地近似为零,并且近似误差足够“小”。我们在本文中提出的讨论和方法通常会延续到近似稀疏​​的情况,并且在大多数情况下,我们将使用术语“稀疏”来指代任一设置。

稀疏的高维模型适应了研究人员非常熟悉的情况,并且通常会给他们带来传统统计方法表现不佳的难题。这些包括热设置,其中数字p观察到的潜在预测变量非常大,研究人员不知道使用哪些变量,以及观察变量数量较少但模型中潜在预测变量数量很大的设置,因为相互作用和其他非线性,模型不确定性、时空效应等。

金融代写|金融计量经济学Financial Econometrics代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写