金融代写|金融计量经济学Financial Econometrics代考|The ‘Rigorous’ or ‘Plug-in’ Lasso

如果你也在 怎样代写金融计量经济学Financial Econometrics这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

金融计量学是将统计方法应用于金融市场数据。金融计量学是金融经济学的一个分支,在经济学领域。研究领域包括资本市场、金融机构、公司财务和公司治理。

statistics-lab™ 为您的留学生涯保驾护航 在代写金融计量经济学Financial Econometrics方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写金融计量经济学Financial Econometrics代写方面经验极为丰富,各种代写金融计量经济学Financial Econometrics相关的作业也就用不着说。

我们提供的金融计量经济学Financial Econometrics及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
金融代写|金融计量经济学Financial Econometrics代考|The ‘Rigorous’ or ‘Plug-in’ Lasso

金融代写|金融计量经济学Financial Econometrics代考|The ‘regularisation event’

Bickel et al. (2009) present a theoretically-derived penalisation method for the lasso. Belloni, Chernozhukov, Hansen, and coauthors in a series of papers (e.g., Belloni et al. (2011), Belloni and Chernozhukov (2013), Belloni et al. (2016), Chernozhukov et al. (2015) and, most recently, Chernozhukov et al. (2019)) proposed feasible algorithms for implementing the ‘rigorous’ or ‘plug-in’ lasso and extended it to accommodate heteroskedasticity, non-Gaussian disturbances, and clustered data. The estimator has two attractive features for our purposes. First, it is theoretically and intuitively appealing, with well-established properties. Second, it is computationally attractive compared to cross-validation. We first present the main results for the rigorous lasso for the independent data, and then briefly summarise the ‘cluster-lasso’ of Belloni et al. (2016) before turning to the more general time-series setting analysed in Chernozhukov et al. (2019).

The rigorous lasso is consistent in terms of prediction and parameter estimation under three main conditions:

  • Sparsity
  • Restricted sparse eigenvalue condition
  • The ‘regularisation event’.
    We consider each of these in turn.
    Exact sparsity we have already discussed: there is a large set of potentially relevant predictors, but the true model has only a small number of regressors. Exact sparsity is a strong assumption, and in fact it is stronger than is needed for the rigorous lasso.

Instead, we assume approximate sparsity. Intuitively, some true coefficients may be non-zero but small enough in absolute size that the lasso performs well even if the corresponding predictors are not selected.
Belloni et al. (2012) define the approximate sparse model (ASM),
$$
y_{i}=f\left(\boldsymbol{w}{i}\right)+\varepsilon{i}=\boldsymbol{x}{i}^{\prime} \boldsymbol{\beta}{0}+r_{i}+\varepsilon_{i} .
$$
where $\varepsilon_{i}$ are independently distributed, but possibly heteroskedastic and nonGaussian errors. The elementary predictors $w_{i}$ are linked to the dependent variable through the unknown and possibly non-linear function $f(\cdot)$. The objective is to approximate $f\left(w_{i}\right)$ using the target parameter vector $\boldsymbol{\beta}{0}$ and the transformations $\boldsymbol{x}{i}:=P\left(\boldsymbol{w}{i}\right)$, where $P(\cdot)$ is a set of transformations. The vector of predictors $\boldsymbol{x}{i}$ may be large relative to the sample size. In particular, the setup accommodates the case where a large number of transformations (polynomials, dummies, etc.) approximate $f\left(w_{i}\right)$.

Approximate sparsity requires that $f\left(w_{i}\right)$ can be approximated sufficiently well using only a small number of non-zero coefficients. Specifically, the target vector $\boldsymbol{\beta}{0}$ and the sparsity index $s$ need to satisfy $$ \left|\boldsymbol{\beta}{0}\right|_{0}:=s \ll n \quad \text { with } \frac{s^{2} \log ^{2}(p \vee n)}{n} \rightarrow 0
$$
and the resulting approximation error $r_{i}=f\left(w_{i}\right)-\boldsymbol{x}{i}^{\prime} \boldsymbol{\beta}{0}$ satisfied the bound
$$
\sqrt{\frac{1}{n} \sum_{i=1}^{n} r_{i}^{2}} \leq C \sqrt{\frac{s}{n}}
$$
where $C$ is a positive constant.
For example, consider the case where $f\left(w_{i}\right)$ is linear with $f\left(\boldsymbol{w}{i}\right)=\boldsymbol{x}{i}^{\prime} \boldsymbol{\beta}^{*}$, but the true parameter vector $\boldsymbol{\beta}^{\star}$ is high-dimensional: $\left|\boldsymbol{\beta}^{\star}\right|_{0}>n$. Approximate sparsity means we can still approximate $\beta^{\star}$ using the sparse target vector $\boldsymbol{\beta}{0}$ as long as $r{i}=\boldsymbol{x}{i}^{\prime}\left(\boldsymbol{\beta}^{\star}-\boldsymbol{\beta}{0}\right)$ is sufficiently small as specified in (13).

金融代写|金融计量经济学Financial Econometrics代考|Implementing the Rigorous Lasso

The quantile function $q_{\Lambda}(\cdot)$ for the maximal element of the score vector is unknown. The most common approach to addressing this is to use a theoretically-derived upper bound that guarantees that the regularisation event (14) holds asymptotically. ${ }^{9}$ Specifically, Belloni et al. (2012) show that

A Theory-Based Lasso for Time-Series Data
17
$$
\mathrm{P}\left(\max {1 \leq j \leq p} c\left|S{j}\right| \leq \frac{\lambda \psi_{j}}{n}\right) \rightarrow 1 \text { as } n \rightarrow \infty, \gamma \rightarrow 0
$$
if the penalty levels and loadings are set to
$$
\lambda=2 c \sqrt{n} \Phi^{-1}(1-\gamma /(2 p)) \quad \psi_{j}=\sqrt{\frac{1}{n} \sum_{i} x_{i j}^{2} \varepsilon_{i}^{2}}
$$
$c$ is the slack parameter from above and $\gamma \rightarrow 0$ means the probability of the regularisation event converges towards 1. Common settings for $c$ and $\gamma$, based on Monte Carlo studies are $c=1.1$ and $\gamma=0.1 / \log (n)$, respectively.

The only remaining element is estimation of the ideal penalty loadings $\psi_{j}$. Belloni et al. $(2012,2014)$ recommend an iterative procedure based on some initial set of residuals $\hat{\varepsilon}{0, i}$. One choice is to use the $d$ predictors that have the highest correlation with $y{i}$ and regress $y_{i}$ on these using OLS; $d=5$ is their suggestion. The residuals from this OLS regression can be used to obtain an initial set of penalty loadings $\hat{\psi}_{j}$ according to $(20)$. These initial penalty loadings and the penalty level from (20) are used to obtain the lasso or post-lasso estimator $\hat{\boldsymbol{\beta}}$. This estimator is then used to obtain a updated set of residuals and penalty loadings according to (20), and then an updated lasso estimator. The procedure can be iterated further if desired.

The framework set out above requires only independence across observations; heteroskedasticity, a common issue facing empirical researchers, is automatically accommodated. For this reason we refer to it as the ‘heteroskedastic-consistent rigorous lasso’ or HC-lasso. The reason is that heteroskedasticity is captured in the penalty loadings for the score vector. ${ }^{10}$ Intuitively, heteroskedasticity affects the probability that the term $\max {j}\left|\sum{i} x_{i j} \varepsilon_{i}\right|$ takes on extreme values, and this needs to be captured via the penalty loadings. In the special case of homoskedasticity, the ideal penalisation in $(20)$ simplifies:
$$
\lambda=2 c \sigma \sqrt{n} \Phi^{-1}(1-\gamma /(2 p)), \quad \psi_{j}=1
$$
This follows from the fact that we have standardised the predictors to have unit variance and hence homoskedasticity implies $E\left(x_{i j}^{2} \varepsilon_{i}^{2}\right)=\sigma^{2} E\left(x_{i j}^{2}\right)=\sigma^{2}$. The iterative procedure above is used to obtain residuals to form an estimate $\hat{\sigma}^{2}$ of the error variance $\sigma^{2}$. We refer to the rigorous lasso with this simplification as the ‘standard’ or ‘basic’ rigorous lasso.

金融代写|金融计量经济学Financial Econometrics代考|The Rigorous Lasso for Panel Data

‘The rigorous lasso has been extended to cover a special case of dependent data, namely panel data. The ‘cluster-lasso’ proposed by Belloni et al. (2016) allows

for arbitrary within-panel correlation. The theoretical justification for the clusterlasso also supports the use of the rigorous lasso in a pure time series setting, and specifically the HAC-lasso and AC-lasso proposed in this paper. Belloni et al. (2016) prove consistency of the rigorous cluster-lasso for both the large $n$, fixed $T$ and large $n$, large $T$ settings. The large $n$-fixed $T$ results apply also to the specific forms of the HAC-lasso and AC-lasso proposed here. We first outline the Belloni et al. (2016) cluster-lasso and then our proposed estimators.

Belloni et al. (2016) present the approach in the context of a fixed-effects panel data model with balanced panels, but the fixed effects and balanced structure are not essential and the approach applies to any setups with clustered data. For presentation purposes we simplify and write the model as a balanced panel:
$$
y_{i t}=\boldsymbol{x}{i t}^{\prime} \boldsymbol{\beta}+\varepsilon{i t} \quad i=1, \ldots, n, t=1, \ldots, T
$$
The general intuition behind the rigorous lasso is to control the noise in the score vector $\boldsymbol{S}=\left(S_{1}, \ldots, S_{j}, \ldots, S_{p}\right)$ where $S_{j}=\frac{2}{n} \sum_{i=1}^{n} x_{i j} \varepsilon_{i}$. Specifically, we choose the overall penalty $\lambda$ and the predictor-specific penalty loading $\psi_{j}$ so that $\frac{\lambda}{n}$ exceeds the maximal element of the scaled score vector $\left|\psi_{j}^{-1} S_{j}\right|$ with high probability. In effect, the ideal penalty loading $\psi_{j}$ scales the $j$ th element of the score by its standard deviation. In the benchmark heteroskedastic case, the ideal penalty loading is $\psi_{j}=$ $\int_{\sigma} \sqrt{\frac{1}{n} \sum_{i} x_{i j}^{2} \varepsilon_{i}^{2}}$; under homoskedasticity, the ideal penalty loading is simply $\psi_{j}=$
$\forall j$ and hence can be absorbed into the overall penalty $\lambda$.
The cluster-lasso of Belloni et al. (2016) extends this to accommodate the case where the score is independent across but not within panels $i$. In this case, the ideal penalty loading is just an application of the standard cluster-robust covariance estimator, which provides a consistent estimate of the variance of the $j$ th element of the score vector. The ideal penalty loadings for the cluster-lasso are simply
$$
\psi_{j}=\sqrt{\frac{1}{n T} \sum_{i=1}^{n} u_{i j}^{2}} \quad \text { where } u_{i j}:=\sum_{t} x_{i j t} \varepsilon_{i t}
$$
Belloni et al. (2016) show that this ideal penalty can be implemented in the same way as the previous cases, i.e., by using an initial set of residuals and then iterating. They recommend that the overall penalty level is the same as in the heteroskedastic case, $\lambda=2 c \sqrt{n} \Phi^{-1}(1-\gamma /(2 p))$, except that $\gamma$ is $0.1 / \log (n)$, i.e., it uses the number of clusters rather than the number of observations.

金融代写|金融计量经济学Financial Econometrics代考|The ‘Rigorous’ or ‘Plug-in’ Lasso

金融计量经济学代考

金融代写|金融计量经济学Financial Econometrics代考|The ‘regularisation event’

比克尔等人。(2009)提出了套索的理论衍生惩罚方法。Belloni、Cernozhukov、Hansen 和一系列论文的合著者(例如,Belloni 等人(2011 年)、Belloni 和 Chernozhukov(2013 年)、Belloni 等人(2016 年)、Chernozhukov 等人(2015 年)以及最近的, Chernozhukov et al. (2019)) 提出了可行的算法来实现“严格”或“插件”套索,并将其扩展以适应异方差、非高斯干扰和聚类数据。对于我们的目的,估计器有两个吸引人的特征。首先,它在理论上和直观上都具有吸引力,具有完善的属性。其次,与交叉验证相比,它在计算上更具吸引力。我们首先介绍了独立数据的严格套索的主要结果,然后简要总结了 Belloni 等人的“集群套索”。(2016) 在转向 Chernozhukov 等人分析的更一般的时间序列设置之前。(2019)。

在三个主要条件下,严格的 lasso 在预测和参数估计方面是一致的:

  • 稀疏性
  • 受限稀疏特征值条件
  • “正规化事件”。
    我们依次考虑这些。
    我们已经讨论过精确的稀疏性:有大量潜在相关的预测变量,但真实模型只有少量回归变量。精确稀疏性是一个强有力的假设,实际上它比严格套索所需的要强。

相反,我们假设近似稀疏。直观地说,一些真实系数可能不为零,但绝对大小足够小,即使没有选择相应的预测变量,套索也能很好地执行。
贝洛尼等人。(2012)定义近似稀疏模型(ASM),

是一世=F(在一世)+e一世=X一世′b0+r一世+e一世.
在哪里e一世是独立分布的,但可能是异方差和非高斯误差。基本预测器在一世通过未知和可能的非线性函数链接到因变量F(⋅). 目标是近似F(在一世)使用目标参数向量b0和转变X一世:=磷(在一世), 在哪里磷(⋅)是一组变换。预测变量的向量X一世相对于样本量可能很大。特别是,该设置适用于大量变换(多项式、虚拟变量等)近似于F(在一世).

近似稀疏性要求F(在一世)仅使用少量非零系数就可以很好地近似。具体来说,目标向量b0和稀疏指数s需要满足

|b0|0:=s≪n 和 s2日志2⁡(p∨n)n→0
以及由此产生的近似误差r一世=F(在一世)−X一世′b0满足界限

1n∑一世=1nr一世2≤Csn
在哪里C是一个正常数。
例如,考虑以下情况F(在一世)是线性的F(在一世)=X一世′b∗,但真正的参数向量b⋆是高维的:|b⋆|0>n. 近似稀疏意味着我们仍然可以近似b⋆使用稀疏目标向量b0只要r一世=X一世′(b⋆−b0)足够小,如 (13) 中所述。

金融代写|金融计量经济学Financial Econometrics代考|Implementing the Rigorous Lasso

分位数函数qΛ(⋅)因为分数向量的最大元素是未知的。解决这个问题的最常见方法是使用理论上得出的上限,以保证正则化事件 (14) 渐近地成立。9具体来说,贝洛尼等人。(2012)表明

时间序列数据的基于理论的套索
17

磷(最大限度1≤j≤pC|小号j|≤λψjn)→1 作为 n→∞,C→0
如果惩罚水平和负荷设置为

λ=2Cn披−1(1−C/(2p))ψj=1n∑一世X一世j2e一世2
C是上面的松弛参数和C→0表示正则化事件的概率收敛于 1。常见设置为C和C,基于蒙特卡罗研究是C=1.1和C=0.1/日志⁡(n), 分别。

唯一剩下的元素是理想惩罚载荷的估计ψj. 贝洛尼等人。(2012,2014)推荐一个基于一些初始残差的迭代过程e^0,一世. 一种选择是使用d相关性最高的预测因子是一世和倒退是一世在这些上使用 OLS;d=5是他们的建议。此 OLS 回归的残差可用于获得一组初始惩罚载荷ψ^j根据(20). 这些初始惩罚载荷和(20)中的惩罚水平用于获得套索或后套索估计量b^. 然后根据(20),该估计器用于获得一组更新的残差和惩罚载荷,然后是更新的套索估计器。如果需要,该过程可以进一步迭代。

上述框架只要求观察之间的独立性;异方差是经验研究人员面临的一个常见问题,它会自动适应。出于这个原因,我们将其称为“heteroskedastic-consistent strict lasso”或 HC-lasso。原因是在分数向量的惩罚负载中捕获了异方差。10直观地说,异方差会影响项的概率最大限度j|∑一世X一世je一世|取极值,这需要通过惩罚负载来捕获。在同方差的特殊情况下,理想的惩罚是(20)简化:

λ=2Cσn披−1(1−C/(2p)),ψj=1
这是因为我们已经将预测变量标准化为具有单位方差,因此同方差意味着和(X一世j2e一世2)=σ2和(X一世j2)=σ2. 上面的迭代过程用于获得残差以形成估计σ^2误差方差σ2. 我们将这种简化的严格套索称为“标准”或“基本”严格套索。

金融代写|金融计量经济学Financial Econometrics代考|The Rigorous Lasso for Panel Data

‘严格套索已经扩展到涵盖依赖数据的特殊情况,即面板数据。Belloni 等人提出的“集群套索”。(2016)允许

用于任意面板内相关性。clusterlasso 的理论论证也支持在纯时间序列设置中使用严格的 lasso,特别是本文提出的 HAC-lasso 和 AC-lasso。贝洛尼等人。(2016)证明了严格的集群套索的一致性n, 固定的吨和大n, 大的吨设置。大n-固定的吨结果也适用于此处提出的 HAC-lasso 和 AC-lasso 的特定形式。我们首先概述了 Belloni 等人。(2016)集群套索,然后是我们提出的估计器。

贝洛尼等人。(2016)在具有平衡面板的固定效应面板数据模型的背景下提出了该方法,但固定效应和平衡结构不是必需的,该方法适用于任何具有聚类数据的设置。出于演示目的,我们将模型简化并编写为平衡面板:

是一世吨=X一世吨′b+e一世吨一世=1,…,n,吨=1,…,吨
严格套索背后的一般直觉是控制分数向量中的噪声小号=(小号1,…,小号j,…,小号p)在哪里小号j=2n∑一世=1nX一世je一世. 具体来说,我们选择整体惩罚λ和特定于预测器的惩罚加载ψj以便λn超过缩放分数向量的最大元素|ψj−1小号j|概率很高。实际上,理想的惩罚加载ψj缩放j分数的第 th 个元素由它的标准差决定。在基准异方差的情况下,理想的惩罚载荷是ψj= ∫σ1n∑一世X一世j2e一世2; 在同方差下,理想的惩罚载荷很简单ψj=
∀j因此可以被吸收到整体惩罚中λ.
Belloni 等人的集群套索。(2016) 对此进行了扩展,以适应分数独立但不在面板内的情况一世. 在这种情况下,理想的惩罚负载只是标准集群鲁棒协方差估计器的应用,它提供了对j分数向量的第 th 个元素。集群套索的理想惩罚载荷很简单

ψj=1n吨∑一世=1n在一世j2 在哪里 在一世j:=∑吨X一世j吨e一世吨
贝洛尼等人。(2016) 表明,这种理想的惩罚可以以与以前的情况相同的方式实现,即通过使用一组初始残差然后迭代。他们建议整体惩罚水平与异方差情况相同,λ=2Cn披−1(1−C/(2p)), 除了那个C是0.1/日志⁡(n),即它使用聚类的数量而不是观察的数量。

金融代写|金融计量经济学Financial Econometrics代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

发表回复

您的电子邮箱地址不会被公开。