标签: COMP30027

计算机代写|机器学习代写machine learning代考|COMP4702

如果你也在 怎样代写机器学习 machine learning这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

机器学习是一个致力于理解和建立 “学习 “方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法。机器学习算法基于样本数据(称为训练数据)建立模型,以便在没有明确编程的情况下做出预测或决定。机器学习算法被广泛用于各种应用,如医学、电子邮件过滤、语音识别和计算机视觉,在这些应用中,开发传统算法来执行所需任务是困难的或不可行的。

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习 machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习 machine learning代写方面经验极为丰富,各种代写机器学习 machine learning相关的作业也就用不着说。

我们提供的机器学习 machine learning及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
计算机代写|机器学习代写machine learning代考|COMP4702

计算机代写|机器学习代写machine learning代考|The Research Behind Interpretability

Several industries are witnessing an increasing trend of leveraging ML for high stake prediction applications, which deeply impacts human lives.

When automated algorithms make high-stake decisions, the problem of incorrect predictions becomes even more severe. To address this issue, explainable machine learning emerged as a field of study focusing on machine learning interpretability and shifting toward a more transparent AI. The main goal of this was to create a suite of interpretable models and methods that produce human-friendly explanations and maintain high predictive performance levels.
One of the entities in this field is the Defense Advanced Research Projects Agency (DARPA), funded by the US Department of Defense. It created the interpretability and explainability program that funds academic and military research at 11 US research laboratories. The program information states that the program aims to produce more explainable models while maintaining high predictive performance levels, enabling appropriate human trust, and understanding for better management of the emerging generation of artificially intelligent partners.
This is not the only example of public focus on AI and machine learning interpretability. In 2016, the White House Office of Science and Technology Policy (OSTP) released a report titled, “Preparing for the Future of Artificial Intelligence,” which states that AI systems are open, transparent, and understandable so that people can interrogate the assumptions and decisions behind the models’ decisions.
Also, the Association for Computing Machinery US Public Policy Council (USACM) released a “Statement on algorithmic transparency and accountability” in 2017. It is stated that explainability is one of the seven principles for algorithmic transparency and accountability. Then it is particularly important in public policy contexts.
Other countries have also made public the demand for AI and machine learning interpretability. One example is the draft version of the Dutch AI, which is utterly focused on explainable AI, stating the utmost importance of AI systems being accurate and able to explain how the system came to its decision.

计算机代写|机器学习代写machine learning代考|Machine Learning Interpretability Taxonomy

Interpretable machine learning techniques can generally be grouped into three categories.

  • Pre-model interpretability uses interpretable techniques used before model building.
  • Intrinsic interpretability uses explanations derived using the model structure.
  • Post hoc interpretability uses explanations derived from methods outside the model structure generally run after the model has been built and predictions have been made using the model.

Pre-model interpretability is exploratory data analysis on a data set to understand the distribution of various features. It helps determine any relationships in different feature values and each feature with the dependent.

Intrinsic interpretability or explanations are computed using self-explanatory models that incorporate interpretability directly to their structures. The algorithms of this category include decision trees, rule-based models, linear models, and attention models. With the use of an intrinsic interpretable model, you might not achieve the same accuracy as black-box models; however, it becomes easy to understand the models’ working because of their inherent structure. Intrinsic interpretable models can further be divided into global methods and local methods.

Global interpretability means users can understand how the model works globally by inspecting the structures and parameters of a complex model. In contrast, local interpretability examines an individual prediction of a model locally, figuring out why the model makes its decision.

After fitting a model on the data, the data scientist then analyses it to understand the model results. The process of analyzing the model using the interpretability method to extract various types of information is called post hoc interpretability. There are several post hoc interpretability methods that can be used in different forms on top of various models to understand the model’s inner workings. Post hoc interpretability methods are implemented after the predictions are made from the model. The common types of input that go into these kinds of models involve training data, the black-box model itself, or prediction functions.
The diagram in Figure 3-2 shows how all interpretability models can be divided into different sections. Some sections focus on the s separations of different techniques, while some sections focus on model-related sections.

计算机代写|机器学习代写machine learning代考|COMP4702

机器学习代考

计算机代写|机器学习代写machine learning代考|The Research Behind Interpretability

多个行业正在目睹利用 ML 进行高风险预测应用程序的增长趋势,这对人类生活产生了深远的影响。

当自动化算法做出高风险决策时,不正确预测的问题变得更加严重。为了解决这个问题,可解释的机器学习成为一个专注于机器学习可解释性并转向更透明的人工智能的研究领域。这样做的主要目标是创建一套可解释的模型和方法,以产生人性化的解释并保持高预测性能水平。
该领域的实体之一是由美国国防部资助的国防高级研究计划局 (DARPA)。它创建了可解释性和可解释性计划,资助 11 个美国研究实验室的学术和军事研究。该计划信息表明,该计划旨在产生更多可解释的模型,同时保持高预测性能水平,实现适当的人类信任和理解,以更好地管理新一代人工智能合作伙伴。
这并不是公众关注人工智能和机器学习可解释性的唯一例子。2016 年,白宫科技政策办公室 (OSTP) 发布了一份题为“为人工智能的未来做准备”的报告,其中指出人工智能系统是开放、透明和可理解的,以便人们可以质疑假设和模型决策背后的决策。
此外,计算机协会美国公共政策委员会(USACM)在 2017 年发布了一份“关于算法透明度和问责制的声明”。其中指出,可解释性是算法透明度和问责制的七项原则之一。然后它在公共政策环境中尤为重要。
其他国家也公开了对人工智能和机器学习可解释性的需求。一个例子是荷兰 AI 的草案版本,它完全专注于可解释的 AI,说明 AI 系统的准确性和能够解释系统如何做出决定的重要性。

计算机代写|机器学习代写machine learning代考|Machine Learning Interpretability Taxonomy

可解释的机器学习技术通常可以分为三类。

  • 预模型可解释性使用模型构建之前使用的可解释技术。
  • 内在可解释性使用从模型结构派生的解释。
  • 事后可解释性使用从模型结构外部的方法派生的解释,这些方法通常在构建模型并使用模型进行预测后运行。

预模型可解释性是对数据集的探索性数据分析,以了解各种特征的分布。它有助于确定不同特征值之间的任何关系以及每个特征与依赖关系。

内在的可解释性或解释是使用不言自明的模型计算的,这些模型将可解释性直接结合到它们的结构中。此类算法包括决策树、基于规则的模型、线性模型和注意力模型。使用内在的可解释模型,您可能无法达到与黑盒模型相同的准确性;然而,由于模型的内在结构,理解模型的工作变得容易。内在可解释模型可以进一步分为全局方法和局部方法。

全局可解释性意味着用户可以通过检查复杂模型的结构和参数来了解模型如何在全局范围内工作。相比之下,局部可解释性在局部检查模型的个体预测,弄清楚模型做出决定的原因。

在对数据拟合模型后,数据科学家随后对其进行分析以了解模型结果。使用可解释性方法分析模型以提取各类信息的过程称为事后可解释性。有几种事后解释性方法可以在各种模型之上以不同的形式使用,以了解模型的内部工作原理。在根据模型做出预测后,实施事后可解释性方法。进入这些模型的常见输入类型包括训练数据、黑盒模型本身或预测函数。
图 3-2 中的图表显示了如何将所有可解释性模型划分为不同的部分。一些部分侧重于不同技术的分离,而一些部分侧重于与模型相关的部分。

计算机代写|机器学习代写machine learning代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

计算机代写|机器学习代写machine learning代考|COMP30027

如果你也在 怎样代写机器学习 machine learning这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

机器学习是一个致力于理解和建立 “学习 “方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法。机器学习算法基于样本数据(称为训练数据)建立模型,以便在没有明确编程的情况下做出预测或决定。机器学习算法被广泛用于各种应用,如医学、电子邮件过滤、语音识别和计算机视觉,在这些应用中,开发传统算法来执行所需任务是困难的或不可行的。

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习 machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习 machine learning代写方面经验极为丰富,各种代写机器学习 machine learning相关的作业也就用不着说。

我们提供的机器学习 machine learning及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
计算机代写|机器学习代写machine learning代考|COMP30027

计算机代写|机器学习代写machine learning代考|What Are Black-Box Models

Black-box model is a term to describe models that have complex workings to compute an output typically spread over multiple steps. In a black-box model, only the input and the output are known to the users, while all interim steps and calculations are difficult to comprehend (see Figure 2-6). Over time the black-box models have gained popularity as the preferred modeling technique due to their ability to generate high accuracy over a variety of data sources.

But adopting these advanced techniques poses a few questions.

  • Can we interpret a deep neural network?
  • How about a random forest with 500 trees?
  • Building a complex and dense machine learning model has the potential of reaching our desired accuracy, but does it make sense?
  • Can you open the black-box model and explain how it arrived at the result?
    The spark of black-box models was further ignited in recent years on competitive coding platforms such as Kaggle, where black-box models started topping the chart
  • across multiple problem statements. By 2015 , gradient boosting and neural networks were the most popular terms among data scientists, and very soon, these black-box models entered the world of actual implementation across businesses. In an ideal world, every model would be explainable and transparent, useful in the following.
  • Critical decisions (e.g., healthcare)
  • Seldom made or non-routine decisions (e.g., M\&A work)
  • Stakeholder justification-required decisions (e.g., strategic business choices)
  • Situations where interactions matter more than outcomes (e.g., root cause analysis)
    In the real world, however, there’s a time and place for both sorts of models. Not all decisions are equivalent, and developing interpretable models is extremely challenging (and in some cases impossible; for instance, modeling a posh scenario or a highdimensional space, as in image classification). Even in easier problems, black-box models typically outperform white-box counterparts due to black-box models’ ability to capture high non-linearity and interactions between features. Despite the advantage of having high performance in terms of accuracy, there is a very prevalent downside to black-box models: the lack of ability to provide explanations behind the predictions made to internal teams or audit firms and regulators.
    Figure 2-7 shows how different methods are placed on a two-way axis between interpretability and accuracy. We can see in the image that more complex methods like deep neural networks and support vector machines are high in accuracy but fall on the lower value of the interpretability axis.

计算机代写|机器学习代写machine learning代考|What Is Interpretability

Interpretability is that the degree to which we can understand the explanation for a choice. Another one is: Interpretability is the degree to which a person can consistently predict the model’s result. Higher the interpretability of a machine learning model, the better it’s for somebody to grasp why certain decisions or predictions are made. A model is more interpretable than another model if its decisions are easier to grasp.
Most machine learning systems require the power to explain to stakeholders why certain predictions are made. When choosing an appropriate machine learning model, we frequently think about the accuracy vs. interpretability trade-off.
The accuracy vs. interpretability trade-off is based on an important assumption: explainability is an inherent property of the model. We believe, however, that with the right techniques, any machine learning model can be made more interpretable, albeit at complexity and cost, which is higher for some models than others.
When a model predicts or finds insights, it takes certain decisions and choices.
Model interpretation tries to understand and explain these decisions taken by the model (i.e., the what, why, and how). The key to model interpretation is transparency, the ability to question, and the ease of understanding model decisions by humans. The three most important aspects of model interpretation are explained as follows.

  • What caused the model to make certain predictions? We should have the ability to query our model and find out feature interactions to get an idea of which features might be important in the decisionmaking rules of the model. This ensures the fairness of the model.
  • Why did the model take a particular decision? We should also validate and justify why certain key features were responsible for driving decisions made by a model during predictions. This ensures the accountability and reliability of the model.
  • Can we trust model predictions? We should evaluate and validate any data point and how a model takes decisions on it. This should be demonstrable and easy to understand for key stakeholders that the model works as expected. This ensures the transparency of the model.
计算机代写|机器学习代写machine learning代考|COMP30027

机器学习代考

计算机代写|机器学习代写machine learning代考|What Are Black-Box Models

黑盒模型是一个术语,用于描述具有复杂工作原理的模型来计算通常分布在多个步骤中的输出。在黑盒模型中,用户只知道输入和输出,而所有中间步骤和计算都难以理解(见图2-6)。随着时间的推移,黑盒模型作为首选建模技术越来越受欢迎,因为它们能够在各种数据源上生成高精度。

但采用这些先进技术会带来一些问题。

  • 我们可以解释深度神经网络吗?
  • 有 500 棵树的随机森林怎么样?
  • 构建一个复杂而密集的机器学习模型有可能达到我们想要的精度,但这有意义吗?
  • 你能打开黑盒模型并解释它是如何得出结果的吗?
    近年来,黑盒模型的火花在 Kaggle 等竞争编码平台上进一步被点燃,黑盒模型开始登上榜首
  • 跨多个问题陈述。到 2015 年,梯度提升和神经网络成为数据科学家中最流行的术语,很快,这些黑盒模型进入了跨业务实际实施的世界。在理想的世界中,每个模型都是可解释和透明的,在以下方面很有用。
  • 关键决定(例如,医疗保健)
  • 很少做出或非常规的决定(例如,并购工作)
  • 利益相关者理由要求的决策(例如,战略业务选择)
  • 交互比结果更重要的情况(例如,根本原因分析)
    然而,在现实世界中,两种模型都有时间和地点。并非所 即使在更简单的问题中,黑盒模型通常也优于白盒模型,因为黑盒模型能够捕获高非线性和特征之间的交互。尽管在准确性方面具有高性能的优势,但黑盒模型存在一个非常普遍的缺点:无法向内部团队或审计公司和监管机构提供预测背后的解释。
    图 2-7 显示了如何将不同的方法置于可解释性和准确性之间的双向轴上。我们可以在图像中看到更复杂的方法,如深度神经网络和支持向量机,其准确性很高,但落在可解释性轴的较低值上。

计算机代写|机器学习代写machine learning代考|What Is Interpretability

可解释性是我们可以理解对一个选择的解释的程度。另一个是:可解释性是一个人可以一致地预测模型结果的程度。机器学习模型的可解释性越高,人们就越能理解为什么做出某些决定或预测。如果一个模型的决策更容易理解,那么它比另一个模型更容易解释。
大多数机器学习系统都需要向利益相关者解释为什么做出某些预测的能力。在选择合适的机器学习模型时,我们经常会考虑准确性与可解释性之间的权衡。
准确性与可解释性的权衡基于一个重要假设:可解释性是模型的固有属性。然而,我们相信,使用正确的技术,任何机器学习模型都可以变得更易于解释,尽管复杂性和成本更高,某些模型的复杂性和成本高于其他模型。
当模型预测或发现见解时,它会做出某些决定和选择。
模型解释试图理解和解释模型做出的这些决定(即是什么、为什么以及如何)。模型解释的关键是透明度、质疑能力以及人类理解模型决策的难易程度。模型解释的三个最重要的方面解释如下。

  • 是什么导致模型做出某些预测?我们应该能够查询我们的模型并找出特征交互,以了解哪些特征在模型的决策规则中可能很重要。这保证了模型的公平性。
  • 为什么模型会做出特定决定?我们还应该验证和证明为什么某些关键特征负责驱动模型在预测期间做出的决策。这确保了模型的问责制和可靠性。
  • 我们可以相信模型预测吗?我们应该评估和验证任何数据点以及模型如何对其做出决策。对于模型按预期工作的主要利益相关者来说,这应该是可证明的并且易于理解。这保证了模型的透明性。
计算机代写|机器学习代写machine learning代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

计算机代写|机器学习代写machine learning代考|COMP5318

如果你也在 怎样代写机器学习 machine learning这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

机器学习是一个致力于理解和建立 “学习 “方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法。机器学习算法基于样本数据(称为训练数据)建立模型,以便在没有明确编程的情况下做出预测或决定。机器学习算法被广泛用于各种应用,如医学、电子邮件过滤、语音识别和计算机视觉,在这些应用中,开发传统算法来执行所需任务是困难的或不可行的。

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习 machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习 machine learning代写方面经验极为丰富,各种代写机器学习 machine learning相关的作业也就用不着说。

我们提供的机器学习 machine learning及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
计算机代写|机器学习代写machine learning代考|COMP5318

计算机代写|机器学习代写machine learning代考|Humans Are Explanation Hungry

Humans are explanation hungry animals. Since the start of civilization, we have always tried to find the why and how of things. Using the knowledge of why and how that has been collected over centuries, we humans have built rules or best practices for specific tasks. With the evolution of technology, we have expanded the rules and have been able to create computer software to process these rules. The following story highlights why simple explanations or the why and how behind processes are important.

Two doctors were in the same room attending their patients. Most of the patients were suffering from diabetes. Arjun sat in front of his doctor with curious eyes.
Occasionally he looked across the room. A person of similar age, weight, and height sat across the room with the other doctor. Arjun’s doctor told him that his diabetes was not under control, and he prescribed medicines for a few more weeks. Arjun was disheartened. This illness was like a black box to him. He tried to discuss why the medicines were not working, but his doctor was too busy to handle additional questions. He asked the attendant to send in the next patient and politely signaled Arjun to leave and come back after two weeks.

Arjun slowly walked out of the room and noticed the same person sitting with the other doctor. Hoping that he might be experiencing the same problem, Arjun approached them and introduced himself. The fellow was very joyful. His name was Vikas, and he was the same age as Arjun. He also had diabetes, but currently, it was under control, and he had come to his doctor to express his gratitude for the treatment. Arjun was excited after hearing his treatment story. He puzzlingly asked Vikas how he got it under control. What medicines did the doctor prescribe? Vikas showed his prescription to Arjun, and Arjun was completely surprised. Every medicine was the same as his. Arjun was curious about how the same medicines that worked for Vikas did not change his own symptoms. They agreed to get some coffee nearby and started talking.
Vikas then explained how he was also struggling at the start of the treatment and how he felt that diabetes was like a black box until he read a book that explained diabetes to ordinary people in simple terms. After that, his life changed. Vikas told Arjun how diabetes is not just a disease that can be treated with medicines, but it also requires life style changes, good food habits, and a healthy workout regime. The book had simple explanations for everything. How a particular food affects sugar levels in the body, how the sleep cycle affects sugar levels, the most important factors that increase sugar levels, and the important exercises that reduce stress and manage sugar. The answers to these questions helped Vikas convert his black-box disease into an explainable one. He knew the reason behind his fluctuating levels, and he started taking relevant actions. He suddenly knew which foods elevate his sugar levels and what actions to take post-eating to bring it down. With his newfound knowledge and medicine, Vikas was very soon able to control his diabetes. He now enjoys his favorite foods and feels healthy more than before.

计算机代写|机器学习代写machine learning代考|Explanations in Machine Learning

Let’s look at an example of a bank loan processing application. The rules for processing bank loans have been made after years of research. In the past, the bank manager decided who should get a loan based on an applicant’s income and credit history. For an application denied, the bank manager had a straightforward answer to why the loan didn’t get through. These days banking companies have machine learning models trained on millions of loan applications with hundreds of variables. These models can help the bank manager determine with high accuracy whether a loan should be granted or not. But since it is now an algorithmic decision with a very complex process, a few questions arise: Why was the loan denied? Or why was the loan granted? Is the decision made by the algorithm correct?
Throughout this book, we try to answer such questions and explain methods that help companies or individuals answer such questions.

Chapter 1 explained machine learning and how its importance is rising. Now, let’s apply this concept of understanding why and how to machine learning models by looking at a simple loan approval or rejection.
Figure 2-1 shows simple banking loan model data.

The data has variables like loan status, loan amount term, income, education, credit history, and age. While building models, we would fit a logistic regression model to predict whether a loan application is approved or rejected. We have some independent variables and one target variable (i.e., Loan_Status in the data set). In logistic regression, the target $\mathbf{y}$ is binary (Approved $\mathrm{p}=1$ /Rejected $\mathrm{p}=0$ ), and the probability of granting/ rejecting the loan $(\mathbf{p})$ is determined based on the cutoff value. The goal is to estimate the coefficients $\boldsymbol{\alpha i}$.
Logit $(p)=\log (p /[p-1])=\alpha 0+\alpha 1$. age $+\alpha 2$. income $+\alpha 3$. age $+$ $\alpha 4$. credit history
To find coefficients $\boldsymbol{\alpha} \mathbf{i}$, we train the classification model with a labeled data history. The decision approved/rejected is already known, using cross-entropy as a loss function to compare the predictions $\wedge \boldsymbol{y}$, vs. labels, $\boldsymbol{y}$ (see Figure 2-2).

计算机代写|机器学习代写machine learning代考|COMP5318

机器学习代考

计算机代写|机器学习代写machine learning代考|Humans Are Explanation Hungry

人类是解释饥饿的动物。自文明诞生以来,我们一直试图找出事物发生的原因和方式。利用几个世纪以来收集的关于为什么以及如何收集的知识,我们人类已经为特定任务建立了规则或最佳实践。随着技术的发展,我们扩展了规则,并且已经能够创建计算机软件来处理这些规则。下面的故事强调了为什么简单的解释或过程背后的原因和方式很重要。

两位医生在同一个房间里照顾他们的病人。大多数患者患有糖尿病。Arjun 带着好奇的眼神坐在他的医生面前。
偶尔他会环顾整个房间。一个年龄、体重和身高相似的人和另一位医生坐在房间对面。Arjun 的医生告诉他,他的糖尿病没有得到控制,他又开了几个星期的药。阿俊很沮丧。这种疾病对他来说就像一个黑匣子。他试图讨论药物无效的原因,但他的医生太忙了,无法处理其他问题。他让服务员派下一位病人进来,并礼貌地示意阿俊离开,两周后再回来。

Arjun 慢慢走出房间,发现同一个人和另一位医生坐在一起。希望自己可能遇到同样的问题,Arjun 走近他们并自我介绍。那家伙非常高兴。他叫维卡斯,和阿琼同岁。他也有糖尿病,但目前已经得到控制,他来找医生表达对治疗的感激之情。Arjun 在听到他的治疗故事后很兴奋。他不解地问维卡斯他是如何控制住它的。医生开了什么药?维卡斯将他的药方拿给阿琼看,阿琼彻底惊呆了。每一种药都和他的一样。Arjun 很好奇对 Vikas 有效的相同药物为何没有改变他自己的症状。他们同意在附近喝点咖啡,然后开始交谈。
维卡斯接着解释了他在治疗开始时也是如何挣扎的,以及他如何觉得糖尿病就像一个黑匣子,直到他读到一本用简单的术语向普通人解释糖尿病的书。在那之后,他的生活发生了变化。Vikas 告诉 Arjun,糖尿病不仅仅是一种可以用药物治疗的疾病,还需要改变生活方式、良好的饮食习惯和健康的锻炼方式。这本书对一切都有简单的解释。特定食物如何影响体内糖分水平、睡眠周期如何影响糖分水平、增加糖分水平的最重要因素,以及减轻压力和控制糖分的重要锻炼。这些问题的答案帮助 Vikas 将他的黑匣子疾病转化为可解释的疾病。他知道自己水平波动的原因,并开始采取相关行动。他突然知道哪些食物会提高他的血糖水平,以及在进食后采取什么行动来降低血糖水平。凭借他新获得的知识和药物,Vikas 很快就能够控制他的糖尿病。他现在喜欢吃他最喜欢的食物,感觉比以前更健康。

计算机代写|机器学习代写machine learning代考|Explanations in Machine Learning

让我们看一个银行贷款处理应用程序的示例。处理银行贷款的规则是经过多年研究制定的。过去,银行经理根据申请人的收入和信用记录来决定谁应该获得贷款。对于被拒绝的申请,银行经理直截了当地回答了为什么贷款没有通过。如今,银行公司拥有针对数百万个具有数百个变量的贷款申请进行训练的机器学习模型。这些模型可以帮助银行经理高度准确地确定是否应该授予贷款。但由于现在这是一个流程非常复杂的算法决策,因此出现了一些问题:为什么贷款被拒绝了?或者为什么要发放贷款?算法做出的决定是否正确?
在本书中,我们试图回答此类问题,并解释帮助公司或个人回答此类问题的方法。

第 1 章解释了机器学习及其重要性如何上升。现在,让我们通过查看简单的贷款批准或拒绝,将了解原因和方式的概念应用于机器学习模型。
图 2-1 显示了简单的银行贷款模型数据。

数据具有贷款状态、贷款金额期限、收入、教育程度、信用记录和年龄等变量。在构建模型时,我们将拟合逻辑回归模型来预测贷款申请是被批准还是被拒绝。我们有一些自变量和一个目标变量(即数据集中的 Loan_Status)。在逻辑回归中,目标是是二进制的(已批准p=1/被拒绝p=0), 以及批准/拒绝贷款的概率(p)是根据截止值确定的。目标是估计系数一个一世.
登录(p)=日志⁡(p/[p−1])=一个0+一个1. 年龄+一个2. 收入+一个3. 年龄+ 一个4. 信用记录
寻找系数一个一世,我们用标记的数据历史训练分类模型。批准/拒绝的决定是已知的,使用交叉熵作为损失函数来比较预测∧是,与标签,是(见图 2-2)。

计算机代写|机器学习代写machine learning代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

计算机代写|机器学习代写machine learning代考|COMP4702

如果你也在 怎样代写机器学习 machine learning这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

机器学习是一个致力于理解和建立 “学习 “方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法。机器学习算法基于样本数据(称为训练数据)建立模型,以便在没有明确编程的情况下做出预测或决定。机器学习算法被广泛用于各种应用,如医学、电子邮件过滤、语音识别和计算机视觉,在这些应用中,开发传统算法来执行所需任务是困难的或不可行的。

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习 machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习 machine learning代写方面经验极为丰富,各种代写机器学习 machine learning相关的作业也就用不着说。

我们提供的机器学习 machine learning及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
计算机代写|机器学习代写machine learning代考|COMP4702

计算机代写|机器学习代写machine learning代考|Silhouette coefficient

In this section, we describe a common heuristic method for picking the number of clusters in a K-means clustering model. This is designed to work for spherical (not elongated) clusters. First we define the silhouette coefficient of an instance $i$ to be $s c(i)=\left(b_i-a_i\right) / \max \left(a_i, b_i\right)$, where $a_i$ is the mean distance to the other instances in cluster $k_i=\operatorname{argmin}k\left|\boldsymbol{\mu}_k-\boldsymbol{x}_i\right|$, and $b_i$ is the mean distance to the other instances in the next closest cluster, $k_i^{\prime}=\operatorname{argmin}{k \neq k_i}\left|\boldsymbol{\mu}_k-\boldsymbol{x}_i\right|$. Thus $a_i$ is a measure of compactness of $i$ ‘s cluster, and $b_i$ is a measure of distance between the clusters. The silhouette coefficient varies from $-1$ to $+1$. A value of $+1$ means the instance is close to all the members of its cluster, and far from other clusters; a value of 0 means it is close to a cluster boundary; and a value of $-1$ means it may be in the wrong cluster. We define the silhouette score of a clustering $K$ to be the mean silhouette coefficient over all instances.

In Figure 21.11a, we plot the distortion vs $K$ for the data in Figure 21.7. As we explained above, it goes down monotonically with $K$. There is a slight “kink” or “elbow” in the curve at $K=3$, but this is hard to detect. In Figure 21.11c, we plot the silhouette score vs $K$. Now we see a more prominent peak at $K=3$, although it seems $K=7$ is almost as good. See Figure $21.12$ for a comparison of some of these clusterings.

It can be informative to look at the individual silhouette coefficients, and not just the mean score. We can plot these in a silhouette diagram, as shown in Figure 21.13, where each colored region corresponds to a different cluster. The dotted vertical line is the average coefficient. Clusters with many points to the left of this line are likely to be of low quality. We can also use the silhouette diagram to look at the size of each cluster, even if the data is not $2 \mathrm{~d}$.

计算机代写|机器学习代写machine learning代考|Unidentifiability and label switching

Note that we are free to permute the labels in a mixture model without changing the likelihood. This is called the label switching problem, and is an example of non-identifiability of the parameters.

This can cause problems if we wish to perform posterior inference over the parameters (as opposed to just computing the MLE or a MAP estimate). For example, suppose we fit a GMM with $K=2$ components to the data in Figure $21.15$ using HMC. The posterior over the means, $p\left(\mu_1, \mu_2 \mid \mathcal{D}\right)$, is shown in Figure 21.16a. We see that the marginal posterior for each component, $p\left(\mu_k \mid \mathcal{D}\right)$, is bimodal. This reflects the fact that there are two equally good explanations of the data: either $\mu_1 \approx 47$ and $\mu_2 \approx 57$, or vice versa.

To break symmetry, we can add an ordering constraint on the centers, so that $\mu_1<\mu_2$. We can do this by adding a penalty or potential function to the objective if the penalty is violated. More precisely, the penalized log joint becomes
$$
\ell^{\prime}(\boldsymbol{\theta})=\log p(\mathcal{D} \mid \boldsymbol{\theta})+\log p(\boldsymbol{\theta})+\phi(\boldsymbol{\mu})
$$
where
$$
\phi(\boldsymbol{\mu})= \begin{cases}-\infty & \text { if } \mu_1<\mu_0 \ 0 & \text { otherwise }\end{cases}
$$
This has the desired effect, as shown in Figure 21.16b.
A more general approach is to apply a transformation to the parameters, to ensure identifiability. That is, we sample the parameters $\boldsymbol{\theta}$ from a proposal, and then apply an invertible transformation $\boldsymbol{\theta}^{\prime}=f(\boldsymbol{\theta})$ to them before computing the $\log$ joint, $\log p\left(\mathcal{D}, \boldsymbol{\theta}^{\prime}\right)$. To account for the change of variables (Section 2.8.3), we add the $\log$ of the determinant of the Jacobian. In the case of a 1d ordering transformation, which just sorts its inputs, the determinant of the Jacobian is 1, so the log-det-Jacohian term vanishes.

Unfortunately, this approach does not scale to more than 1 dimensional problems, because there is no obvious way to enforce an ordering constraint on the centers $\boldsymbol{\mu}_{k \text { s }}$

计算机代写|机器学习代写machine learning代考|COMP4702

机器学习代考

计算机代写|机器学习代写machine learning代考|Silhouette coefficient

在本节中,我们描述了一种在 $K$ 均值聚类模型中选择聚类数量的常用启发式方法。这是为球形 (非细长) 星团 设计的。首先我们定义一个实例的轮廓系数 $i$ 成为 $s c(i)=\left(b_i-a_i\right) / \max \left(a_i, b_i\right)$ , 在哪里 $a_i$ 是到集群中其 他实例的平均距离 $k_i=\operatorname{argmin} k\left|\boldsymbol{\mu}_k-\boldsymbol{x}_i\right|$ ,和 $b_i$ 是到下一个最近的集群中其他实例的平均距离,
$k_i^{\prime}=\operatorname{argmin} k \neq k_i\left|\boldsymbol{\mu}_k-\boldsymbol{x}_i\right|$. 因此 $a_i$ 是紧凑性的度量 $i$ 的集群,和 $b_i$ 是集群之间距离的度量。轮廓系数从 $-1$ 至 $+1$. 的价值 $+1$ 表示该实例靠近其集群的所有成员,并且远离其他集群;值为 0 表示它接近集群边界;和 价值 $-1$ 意味着它可能在错误的集群中。我们定义聚类的轮廓分数 $K$ 是所有实例的平均轮廓系数。
在图 21.11a 中,我们绘制了失真与 $K$ 对于图 $21.7$ 中的数据。正如我们上面解释的,它单调下降 $K$. 曲线中有一 个轻微的“扭结“或“弯头” $K=3$ ,但这很难检测到。在图 21.11c 中,我们绘制了剪影得分与 $K$. 现在我们看到一 个更突出的峰值 $K=3$ ,虽然看起来 $K=7$ 几平一样好。见图21.12用于比较其中一些聚类。
查看各个轮廓系数可能会提供信息,而不仅仅是平均分数。我们可以在轮廓图中绘制这些,如图 $21.13$ 所示,其 中每个彩色区域对应一个不同的集群。垂直虚线是平均系数。这条线左侧有很多点的聚类可能是低质量的。我们 还可以使用剪影图来查看每个集群的大小,即使数据不是 $2 \mathrm{~d}$.

计算机代写|机器学习代写machine learning代考|Unidentifiability and label switching

请注意,我们可以在不改变可能性的情况下自由排列混合模型中的标签。这称为标签切换问题,是参数不可识别 性的一个例子。
如果我们布望对参数执行后验推理(而不是仅仅计算 MLE 或 MAP 估计),这可能会导致问题。例如,假设我 们用 GMM 拟合 $K=2$ 组件到图中的数据21.15使用 HMC。手段的后部, $p\left(\mu_1, \mu_2 \mid \mathcal{D}\right)$, 如图 21.16a 所示。 我们看到每个组件的边缘后验, $p\left(\mu_k \mid \mathcal{D}\right)$ ,是双峰的。这反映了一个事实,即对数据有两种同样好的解释: 要 么 $\mu_1 \approx 47$ 和 $\mu_2 \approx 57$ ,或相反亦然。
为了打破对称性,我们可以在中心上添加一个排序约束,这样 $\mu_1<\mu_2$. 如果违反惩罚,我们可以通过向目标添 加惩罚或潜在函数来做到这一点。更准确地说,惩罚对数关节变成
$$
\ell^{\prime}(\boldsymbol{\theta})=\log p(\mathcal{D} \mid \boldsymbol{\theta})+\log p(\boldsymbol{\theta})+\phi(\boldsymbol{\mu})
$$
在哪里
$$
\phi(\boldsymbol{\mu})=\left{-\infty \quad \text { if } \mu_1<\mu_0 0 \quad\right. \text { otherwise }
$$
这具有预期的效果,如图 21.16b 所示。
一种更通用的方法是对参数应用转换,以确保可识别性。也就是说,我们对参数进行采样 $\boldsymbol{\theta}$ 来自提案,然后应用 可逆变换 $\boldsymbol{\theta}^{\prime}=f(\boldsymbol{\theta})$ 在计算之前给他们 $\log$ 联合的, $\log p\left(\mathcal{D}, \boldsymbol{\theta}^{\prime}\right)$. 为了解释变量的变化 (第 $2.8 .3$ 节),我们 添加了 $\log$ 雅可比矩阵的行列式。在 1d 排序转换的情况下,它只是对其输入进行排序,雅可比行列式的行列式 为 1 ,因此 log-det-Jacohian 项消失了。
不幸的是,这种方法不能扩展到多于一维的问题,因为没有明显的方法来强制对中心进行排序约束 $\boldsymbol{\mu}_{k \mathrm{~s}}$

计算机代写|机器学习代写machine learning代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

计算机代写|机器学习代写machine learning代考|COMP30027

如果你也在 怎样代写机器学习 machine learning这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

机器学习是一个致力于理解和建立 “学习 “方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法。机器学习算法基于样本数据(称为训练数据)建立模型,以便在没有明确编程的情况下做出预测或决定。机器学习算法被广泛用于各种应用,如医学、电子邮件过滤、语音识别和计算机视觉,在这些应用中,开发传统算法来执行所需任务是困难的或不可行的。

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习 machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习 machine learning代写方面经验极为丰富,各种代写机器学习 machine learning相关的作业也就用不着说。

我们提供的机器学习 machine learning及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
计算机代写|机器学习代写machine learning代考|COMP30027

计算机代写|机器学习代写machine learning代考|The K-medoids algorithm

There is a variant of K-means called $\mathbf{K}$-medoids algorithm, in which we estimate each cluster center $\boldsymbol{\mu}_k$ by choosing the data example $\boldsymbol{x}_n \in \mathcal{X}$ whose average dissimilarity to all other points in that cluster is minimal; such a point is known as a medoid. By contrast, in K-means, we take averages over points $\boldsymbol{x}_n \in \mathbb{R}^D$ assigned to the cluster to compute the center. K-medoids can be more robust to outliers (although that issue can also be tackled by using mixtures of Student distributions, instead of mixtures of Gaussians). More importantly, K-medoids can be applied to data that does not live in $\mathbb{R}^D$, where averaging may not be well defined. In K-medoids, the input to the algorithm is $N \times N$ pairwise distance matrix, $D\left(n, n^{\prime}\right)$, not an $N \times D$ feature matrix.

The classic algorithm for solving the K-medoids is the partitioning around medoids or PAM method [KR87]. In this approach, at each iteration, we loop over all $K$ medoids. For each medoid $m$, we consider each non-medoid point $o$, swap $m$ and $o$, and recompute the cost (sum of all the distances of points to their medoid). If the cost has decreased, we keep this swap. The running time of this algorithm is $O\left(N^2 K T\right)$, where $T$ is the number of iterations.

There is also a simpler and faster method, known as the Voronoi iteration method due to [PJ09]. In this approach, at each iteration, we have two steps, similar to K-means. First, for each cluster $k$, look at all the points currently assigned to that cluster, $S_k=\left{n: z_n=k\right}$, and then set $m_k$ to be the index of the medoid of that set. (To find the medoid requires examining all $\left|S_k\right|$ candidate points, and choosing the one that has the smallest sum of distances to all the other points in $S_k$.) Second, for each point $n$, assign it to its closest medoid, $z_n=\operatorname{argmin}_k D(n, k)$. The pseudo-code is given in Algorithm 12.

计算机代写|机器学习代写machine learning代考|Minimizing the distortion

Based on our experience with supervised learning, a natural choice for picking $K$ is to pick the value that minimizes the reconstruction error on a validation set, defined as follows:
$$
\operatorname{err}\left(\mathcal{D}{\text {valid }}, K\right)=\frac{1}{\left|\mathcal{D}{\text {valid }}\right|} \sum_{n \in \mathcal{D}_{\text {valia }}}\left|\boldsymbol{x}_n-\hat{\boldsymbol{x}}_n\right|_2^2
$$
where $\hat{\boldsymbol{x}}_n=$ decode $\left(\right.$ encode $\left.\left(\boldsymbol{x}_n\right)\right)$ is the reconstruction of $\boldsymbol{x}_n$.
Unfortunately, this technique will not work. Indeed, as we see in Figure 21.11a, the distortion monotonically decreases with $K$. To see why, note that the K-means model is a degenerate density model which consists of $K$ “spikes” at the $\boldsymbol{\mu}_k$ centers. As we increase $K$, we “cover” more of the input space. Hence any given input point is more likely to find a close prototype to accurately represent it as $K$ increases, thus decreasing reconstruction error. Thus unlike with supervised learning, we cannot use reconstruction error on a validation set as a way to select the best unsupervised model. (This comment also applies to picking the dimensionality for PCA, see Section 20.1.4.)

A method that does work is to use a proper probabilistic model, such as a GMM, as we describe in Section 21.4.1. We can then use the log marginal likelihood (LML) of the data to perform model selection.

We can approximate the LML using the BIC score as we discussed in Section 5.2.5.1. From Equation (5.59), we have
$$
\operatorname{BIC}(K)=\log p\left(\mathcal{D} \mid \hat{\boldsymbol{\theta}}_k\right)-\frac{D_K}{2} \log (N)
$$
where $D_K$ is the number of parameters in a model with $K$ clusters, and $\hat{\boldsymbol{\theta}}_K$ is the MLE. We see from Figure 21.11b that this exhibits the typical U-shaped curve, where the penalty decreases and then increases.

The reason this works is that each cluster is associated with a Gaussian distribution that fills a volume of the input space, rather than being a degenerate spike. Once we have enough clusters to cover the true modes of the distribution, the Bayesian Occam’s razor (Section 5.2.3) kicks in, and starts penalizing the model for being unncessarily complex.
See Section 21.4.1.3 for more discussion of Bayesian model selection for mixture models.

计算机代写|机器学习代写machine learning代考|COMP30027

机器学习代考

计算机代写|机器学习代写machine learning代考|The K-medoids algorithm

K-means 有一个变体叫做钾-medoids 算法,我们在其中估计每个聚类中心米k通过选择数据示例Xn∈X与该集群中所有其他点的平均差异最小;这样的点被称为中心点。相比之下,在 K-means 中,我们对点取平均值Xn∈R丁分配给集群计算中心。K-medoids 对离群值更稳健(尽管这个问题也可以通过使用学生分布的混合来解决,而不是高斯分布的混合)。更重要的是,K-medoids 可以应用于不存在于R丁,其中平均可能没有明确定义。在 K-medoids 中,算法的输入是否×否成对距离矩阵,丁(n,n′), 不是否×丁特征矩阵。

求解 K-medoids 的经典算法是 partitioning around medoids 或 PAM 方法 [KR87]。在这种方法中,在每次迭代中,我们遍历所有钾中心点。对于每个中心点米,我们考虑每个非中心点欧, 交换米和欧,并重新计算成本(点到其中心点的所有距离的总和)。如果成本降低,我们将保留此掉期。该算法的运行时间为欧(否2钾吨), 在哪里吨是迭代次数。

还有一种更简单、更快的方法,由于 [PJ09] 而被称为 Voronoi 迭代法。在这种方法中,在每次迭代中,我们有两个步骤,类似于 K-means。首先,对于每个集群k,查看当前分配给该集群的所有点,S_k=\left{n: z_n=k\right}S_k=\left{n: z_n=k\right}, 然后设置米k成为该集合的中心点的索引。(要找到中心点需要检查所有|小号k|候选点,并选择与所有其他点的距离之和最小的点小号k.) 其次,对于每个点n,将其分配给最接近的中心点,和n=精氨酸k⁡丁(n,k). 伪代码在算法 12 中给出。

计算机代写|机器学习代写machine learning代考|Minimizing the distortion

根据我们在监督学习方面的经验,采摘的自然选择 $K$ 是选择最小化验证集上的重构误差的值,定义如下:
$$
\operatorname{err}(\mathcal{D} \text { valid }, K)=\frac{1}{\mid \mathcal{D} \text { valid } \mid} \sum_{n \in \mathcal{D}_{\text {valia }}}\left|\boldsymbol{x}_n-\hat{\boldsymbol{x}}_n\right|_2^2
$$
在哪里 $\hat{\boldsymbol{x}}_n=$ 解码 (编码 $\left.\left(\boldsymbol{x}_n\right)\right)$ 是重建 $\boldsymbol{x}_n$.
不幸的是,这种技术行不通。实际上,正如我们在图 21.11a 中看到的,失真随着 $K$. 要了解原因,请注意 $\mathrm{K}-$ means 模型是一个退化密度模型,它由以下部分组成 $K^{\prime \prime}$ 尖峰”在 $\boldsymbol{\mu}_k$ 中心。随着我们增加 $K$ ,我们 “覆盖”了更多 的输入空间。因此,任何给定的输入点更有可能找到一个接近的原型来准确地将其表示为 $K$ 增加,从而减少重建 误差。因此,与监督学习不同,我们不能使用验证集上的重构误差作为选择最佳无监督模型的方法。(此评论也 适用于为 PCA 选择维度,请参阅第 20.1.4 节。)
一种有效的方法是使用适当的概率模型,例如 GMM,如我们在第 $21.4 .1$ 节中所述。然后,我们可以使用数据 的对数边际似然 $(L M L)$ 来执行模型选择。
正如我们在第 5.2.5.1 节中讨论的那样,我们可以使用 BIC 分数来近似 LML。从等式 (5.59),我们有
$$
\operatorname{BIC}(K)=\log p\left(\mathcal{D} \mid \hat{\boldsymbol{\theta}}_k\right)-\frac{D_K}{2} \log (N)
$$
在哪里 $D_K$ 是模型中的参数数量 $K$ 集群,和 $\hat{\boldsymbol{\theta}}_K$ 是 $\mathrm{MLE}$ 。我们从图 21.11b 中看到,这呈现出典型的 U 形曲线, 其中惩罚先减小后增加。
这样做的原因是每个集群都与填充输入空间体积的高斯分布相关联,而不是退化尖峰。一旦我们有足够的集群来 覆盖分布的真实模式,贝叶斯奥卡姆挮刀(第 5.2.3 节) 就会启动,并开始征罚不必要的复杂模型。
有关混合模型的贝叶斯模型选择的更多讨论,请参见第 21.4.1.3 节。

计算机代写|机器学习代写machine learning代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

计算机代写|机器学习代写machine learning代考|COMP5318

如果你也在 怎样代写机器学习 machine learning这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

机器学习是一个致力于理解和建立 “学习 “方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法。机器学习算法基于样本数据(称为训练数据)建立模型,以便在没有明确编程的情况下做出预测或决定。机器学习算法被广泛用于各种应用,如医学、电子邮件过滤、语音识别和计算机视觉,在这些应用中,开发传统算法来执行所需任务是困难的或不可行的。

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习 machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习 machine learning代写方面经验极为丰富,各种代写机器学习 machine learning相关的作业也就用不着说。

我们提供的机器学习 machine learning及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
计算机代写|机器学习代写machine learning代考|COMP5318

计算机代写|机器学习代写machine learning代考|Vector quantization

Suppose we want to perform lossy compression of some real-valued vectors, $\boldsymbol{x}n \in \mathbb{R}^D$. A very simple approach to this is to use vector quantization or VQ. The basic idea is to replace each real-valued vector $\boldsymbol{x}_n \in \mathbb{R}^D$ with a discrete symbol $z_n \in{1, \ldots, K}$, which is an index into a codebook of $K$ prototypes, $\boldsymbol{\mu}_k \in \mathbb{R}^D$. Each data vector is encoded by using the index of the most similar prototype, where similarity is measured in terms of Euclidean distance: $$ \operatorname{encode}\left(\boldsymbol{x}_n\right)=\arg \min _k\left|\boldsymbol{x}_n-\boldsymbol{\mu}_k\right|^2 $$ We can define a cost function that measures the quality of a codebook by computing the reconstruction error or distortion it induces: $$ J \triangleq \frac{1}{N} \sum{n=1}^N\left|\boldsymbol{x}n-\operatorname{decode}\left(\operatorname{encode}\left(\boldsymbol{x}_n\right)\right)\right|^2=\frac{1}{N} \sum{n=1}^N\left|\boldsymbol{x}n-\boldsymbol{\mu}{z_n}\right|^2
$$
where decode $(k)=\boldsymbol{\mu}_k$. This is exactly the cost function that is minimized by the K-means algorithm. Of course, we can achieve zero distortion if we assign one prototype to every data vector, by using $K=N$ and assigning $\boldsymbol{\mu}_n=\boldsymbol{x}_n$. However, this does not compress the data at all. In particular, it takes $O(N D B)$ bits, where $N$ is the number of real-valued data vectors, each of length $D$, and $B$ is the number of bits needed to represent a real-valued scalar (the quantization accuracy to represent each $\left.\boldsymbol{x}_n\right)$

We can do better by detecting similar vectors in the data, creating prototypes or centroids for them, and then representing the data as deviations from these prototypes. This reduces the space requirement to $O\left(N \log _2 K+K D B\right)$ bits. The $O\left(N \log _2 K\right)$ term arises because each of the $N$ data vectors needs to specify which of the $K$ codewords it is using; and the $O(K D B)$ term arises because we have to store each codebook entry, each of which is a $D$-dimensional vector. When $N$ is large, the first term dominates the second, so we can approximate the rate of the encoding scheme (number of bits needed per object) as $O\left(\log _2 K\right)$, which is typically much less than $O(D B)$.

One application of VQ is to image compression. Consider the $200 \times 320$ pixel image in Figure $21.9$; we will treat this as a set of $N=64,000$ scalars. If we use one byte to represent each pixel (a gray-scale intensity of 0 to 255 ), then $B=8$, so we need $N B=512,000$ bits to represent the image in uncompressed form. For the compressed image, we need $O\left(N \log _2 K\right)$ bits. For $K=4$, this is about $128 \mathrm{~kb}$, a factor of 4 compression, yet it results in negligible perceptual loss (see Figure 21.9(b)). Greater compression could be achieved if we modeled spatial correlation between the pixels, e.g., if we encoded $5 \times 5$ blocks (as used by JPEG). This is because the residual errors (differences from the connection between data compression and density estimation. See the sequel to this book, [Mur22], for more information.

计算机代写|机器学习代写machine learning代考|The K-means++ algorithm

K-means is optimizing a non-convex objective, and hence needs to be initialized carefully. A simple approach is to pick $K$ data points at random, and to use these as the initial values for $\boldsymbol{\mu}_k$. We can improve on this by using multiple restarts, i.e., we run the algorithm multiple times from different random starting points, and then pick the best solution. However, this can be slow.

A better approach is to pick the centers sequentially so as to try to “cover” the data. That is, we pick the initial point uniformly at random, and then each subsequent point is picked from the remaining points, with probability proportional to its squared distance to the point’s closest cluster center. That is, at iteration $t$, we pick the next cluster center to be $\boldsymbol{x}n$ with probability $$ p\left(\boldsymbol{\mu}_t=\boldsymbol{x}_n\right)=\frac{D{t-1}\left(\boldsymbol{x}n\right)}{\sum{n^{\prime}=1}^N D_{t-1}\left(\boldsymbol{x}{n^{\prime}}\right)} $$ where $$ D_t(\boldsymbol{x})=\min {k=1}^{t-1}\left|\boldsymbol{x}-\boldsymbol{\mu}_k\right|_2^2
$$
is the squared distance of $\boldsymbol{x}$ to the closest existing centroid. Thus points that are far away from a centroid are more likely to be picked, thus reducing the distortion. This is known as farthest point clustering [Gon85], or K-means++ [AV07; Bah+12; Bac+16; BLK17; LS19a]. Surprisingly, this simple trick can be shown to guarantee that the recontruction error is never more than $O(\log K)$ worse than optimal [AV07].

计算机代写|机器学习代写machine learning代考|COMP5318

机器学习代考

计算机代写|机器学习代写machine learning代考|Vector quantization

假设我们要对一些实值向量进行有损压缩, $x n \in \mathbb{R}^D$.一种非常简单的方法是使用矢量量化或 $V Q_{\text {。 基本思想是 }}$ 替换每个实值向量 $\boldsymbol{x}_n \in \mathbb{R}^D$ 带有离散符号 $z_n \in 1, \ldots, K$ ,这是一个密码本的索引 $K$ 原型, $\boldsymbol{\mu}_k \in \mathbb{R}^D$. 每个数 据向量都使用最相似原型的索引进行编码,其中相似性根据欧氏距离来衡量:
$$
\operatorname{encode}\left(\boldsymbol{x}_n\right)=\arg \min _k\left|\boldsymbol{x}_n-\boldsymbol{\mu}_k\right|^2
$$
我们可以定义一个成本函数,通过计算它引起的重构误差或失真来衡量码本的质量:
$$
J \triangleq \frac{1}{N} \sum n=1^N\left|\boldsymbol{x} n-\operatorname{decode}\left(\operatorname{encode}\left(\boldsymbol{x}_n\right)\right)\right|^2=\frac{1}{N} \sum n=1^N\left|\boldsymbol{x} n-\boldsymbol{\mu} z_n\right|^2
$$
在哪里解码 $(k)=\boldsymbol{\mu}_k$. 这正是 K-means 算法最小化的成本函数。当然,如果我们为每个数据向量分配一个原 型,我们可以实现零失真,通过使用 $K=N$ 并分配 $\boldsymbol{\mu}_n=\boldsymbol{x}_n$. 但是,这根本不会压缩数据。特别是,它需要 $O(N D B)$ 位,其中 $N$ 是实值数据向量的数量,每个向量的长度 $D$ ,和 $B$ 是表示实数值标量所需的位数(表示 每个标量的量化精度 $\left.\boldsymbol{x}_n\right)$
我们可以通过检测数据中的相似向量,为它们创建原型或质心,然后将数据表示为与这些原型的偏差来做得更 好。这减少了空间需求 $O\left(N \log _2 K+K D B\right)$ 位。这 $O\left(N \log _2 K\right)$ 术语出现是因为每个 $N$ 数据向量需要指 定哪一个 $K$ 它正在使用的代码字;和 $O(K D B)$ 出现术语是因为我们必须存储每个密码本条目,每个条目都是一 个 $D$ 维向量。什么时候 $N$ 很大,第一项支配第二项,因此我们可以将编码方案的速率 (每个对象所需的位数) 近似为 $O\left(\log _2 K\right)$ ,这通常远小于 $O(D B)$.
VQ 的一个应用是图像压缩。考虑 $200 \times 320$ 图中的像素图像 $21.9$; 我们将把它当作一组 $N=64,000$ 标量。如 果我们用一个字节来表示每个像素 (灰度强度为 0 到 255 ) ,那么 $B=8$ ,所以我们需要 $N B=512,000$ 以末 压缩形式表示图像的位。对于压缩图像,我们需要 $O\left(N \log _2 K\right)$ 位。为了 $K=4$ ,这是关于 $128 \mathrm{~kb}$ ,一个 4 倍的压缩因子,但它导致的感知损失可以忽略不计(见图 $21.9$ (b) ) 。如果我们对像素之间的空间相关性进行 建模,例如,如果我们编码,则可以实现更大的压缩 $5 \times 5$ 块(由JPEG 使用)。这是因为残差 (不同于数据压 缩和密度估计之间的联系。有关更多信息,请参阅本书的续集 [Mur22]。

计算机代写|机器学习代写machine learning代考|The K-means++ algorithm

K-means 正在优化一个非凸目标,因此需要仔细初始化。一个简单的方法是选择 $K$ 随机数据点,并使用这些作 为初始值 $\boldsymbol{\mu}k$. 我们可以通过使用多次重新启动来改进这一点,即我们从不同的随机起点多次运行算法,然后选择 最佳解决方案。但是,这可能很慢。 更好的方法是按顺序选择中心以尝试”覆盖”数据。也就是说,我们随机均匀地选择初始点,然后从剩余的点中选 择每个后续点,概率与其到该点最近的聚类中心的距离的平方成正比。也就是说,在迭代 $t$ ,我们选择下一个聚 类中心 $\boldsymbol{x} n$ 有概率 $$ p\left(\boldsymbol{\mu}_t=\boldsymbol{x}_n\right)=\frac{D t-1(\boldsymbol{x} n)}{\sum n^{\prime}=1^N D{t-1}\left(\boldsymbol{x} n^{\prime}\right)}
$$
在哪里
$$
D_t(\boldsymbol{x})=\min k=1^{t-1}\left|\boldsymbol{x}-\boldsymbol{\mu}_k\right|_2^2
$$
是的平方距离 $\boldsymbol{x}$ 到最近的现有质心。因此远离质心的点更有可能被拾取,从而减少失真。这被称为最远点聚类 [Gon85],或 K-means++ [AV07;呸+12;背+16;BLK17;LS19a]。令人惊讶的是,这个简单的技巧可以保证 重构误差永远不会超过 $O(\log K)$ 比最优 [AV07] 更差。

计算机代写|机器学习代写machine learning代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

机器学习代考_Machine Learning代考_COMP4702

如果你也在 怎样代写机器学习 machine learning这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

机器学习是一个致力于理解和建立 “学习 “方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法。机器学习算法基于样本数据(称为训练数据)建立模型,以便在没有明确编程的情况下做出预测或决定。机器学习算法被广泛用于各种应用,如医学、电子邮件过滤、语音识别和计算机视觉,在这些应用中,开发传统算法来执行所需任务是困难的或不可行的。

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习 machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习 machine learning代写方面经验极为丰富,各种代写机器学习 machine learning相关的作业也就用不着说。

我们提供的机器学习 machine learning及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
机器学习代考_Machine Learning代考_COMP4702

机器学习代考_Machine Learning代考_Classical MDS

Suppose we start an $N \times D$ data matrix $\mathbf{X}$ with rows $\boldsymbol{x}i$. Let us define the centered Gram (similarity) matrix as follows: $$ \ddot{K}{i j}=\left\langle\boldsymbol{x}i-\overline{\boldsymbol{x}}, \boldsymbol{x}_j-\overline{\boldsymbol{x}}\right\rangle $$ In matrix notation, we have $\tilde{\mathbf{K}}=\tilde{\mathbf{X}} \tilde{\mathbf{X}}^{\top}$, where $\tilde{\mathbf{X}}=\mathbf{C}_N \mathbf{X}$ and $\mathbf{C}_N=\mathbf{I}_N-\frac{1}{N} \mathbf{1}_N \mathbf{1}_N^{\top}$ is the centering matrix. Now define the strain of a set of embeddings as follows: $$ \mathcal{L}{\text {strain }}(\mathbf{Z})=\sum_{i, j}\left(\tilde{K}_{i j}-\left\langle\tilde{z}_i, \tilde{z}_j\right\rangle\right)^2=\left|\tilde{\mathbf{K}}-\tilde{\mathbf{Z}} \tilde{\mathbf{Z}}^{\boldsymbol{\top}}\right|_F^2
$$

where $\tilde{\boldsymbol{z}}i=\boldsymbol{z}_i-\overline{\boldsymbol{z}}$ is the centered embedding vector. Intuitively this measures how well similarities in the high-dimensional data space, $\tilde{K}{i j}$, are matched by similarities in the low-dimensional embedding space, $\left\langle\tilde{z}_i, \tilde{z}_j\right\rangle$. Minimizing this loss is called classical MDS.

We know from Section $7.5$ that the best rank $L$ approximation to a matrix is its truncated SVD representation, $\tilde{\mathbf{K}}=\mathbf{U S V}^{\top}$. Since $\tilde{\mathbf{K}}$ is positive semi definite, we have that $\mathbf{V}=\mathbf{U}$. Hence the optimal embedding satisfies
$$
\tilde{\mathbf{Z}} \tilde{\mathbf{Z}}^{\top}=\mathbf{U S}^{\top}=\left(\mathbf{U S}^{\frac{1}{2}}\right)\left(\mathbf{S}^{\frac{1}{2}} \mathbf{U}^{\top}\right)
$$
Thus we can set the embedding vectors to be the rows of $\tilde{\mathbf{Z}}=$ US $^{\frac{1}{2}}$.
Now we describe how to apply classical MDS to a dataset where we just have Euclidean distances, rather than raw features. First we compute a matrix of squared Euclidean distances, $\mathbf{D}^{(2)}=\mathbf{D} \odot \mathbf{D}$, which has the following entries:
$$
\begin{aligned}
D_{i j}^{(2)}=\left|\boldsymbol{x}i-\boldsymbol{x}_j\right|^2 &=\left|\boldsymbol{x}_i-\overline{\boldsymbol{x}}\right|^2+\left|\boldsymbol{x}_j-\overline{\boldsymbol{x}}\right|^2-2\left\langle\boldsymbol{x}_i-\overline{\boldsymbol{x}}, \boldsymbol{x}_j-\overline{\boldsymbol{x}}\right\rangle \ &=\left|\boldsymbol{x}_i-\overline{\boldsymbol{x}}\right|^2+\left|\boldsymbol{x}_j-\overline{\boldsymbol{x}}\right|^2-2 \tilde{K}{i j}
\end{aligned}
$$
We see that $\mathbf{D}^{(2)}$ only differs from $\tilde{\mathbf{K}}$ by some row and column constants (and a factor of -2). Hence we can compute $\tilde{\mathbf{K}}$ by double centering $\mathbf{D}^{(2)}$ using Equation (7.89) to get $\tilde{\mathbf{K}}=-\frac{1}{2} \mathbf{C}N \mathbf{D}^{(2)} \mathbf{C}_N$. In other words, $$ \tilde{K}{i j}=-\frac{1}{2}\left(d_{i j}^2-\frac{1}{N} \sum_{l=1}^N d_{i l}^2-\frac{1}{N} \sum_{l=1}^N d_{j l}^2+\frac{1}{N^2} \sum_{l=1}^N \sum_{m=1}^N d_{l m}^2\right)
$$
We can then compute the embeddings as before.
It turns out that classical MDS is equivalent to PCA (Section 20.1). To see this, let $\tilde{\mathbf{K}}=\mathbf{U}L \mathbf{S}_L \mathbf{U}_L^{\top}$ he the rank $L{\text {a truncated SVD of the centered kernel matrix. The MDS emberding is given by }}$ $\mathbf{Z}{\mathrm{MDS}}=\mathbf{U}_L \mathbf{S}_L^{\frac{1}{2}}$. Now consider the rank $L$ SVD of the centered data matrix, $\tilde{\mathbf{X}}=\mathbf{U}_X \mathbf{S}_X \mathbf{V}_X^{\top}$. The PCA embedding is $\mathbf{Z}{\mathrm{PCA}}=\mathbf{U}X \mathbf{S}_X$. Now $$ \tilde{\mathbf{K}}=\tilde{\mathbf{X}} \tilde{\mathbf{X}}^{\top}=\mathbf{U}_X \mathbf{S}_X \mathbf{V}_X^{\top} \mathbf{V}_X \mathbf{S}_X \mathbf{U}_X^{\top}=\mathbf{U}_X \mathbf{S}_X^2 \mathbf{U}_X^{\top}=\mathbf{U}_L \mathbf{S}_L \mathbf{U}_L^{\top} $$ Hence $\mathbf{U}_X=\mathbf{U}_L$ and $\mathbf{S}_X=\mathbf{S}_L^2$, and so $\mathbf{Z}{\mathrm{PCA}}=\mathbf{Z}_{\mathrm{MDS}}$.

机器学习代考_Machine Learning代考_Metric MDS

Classical MDS assumes Euclidean distances. We can generalize it to allow for any dissimilarity measure by defining the stress function
$$
\mathcal{L}{\text {stress }}(\mathbf{Z})=\sqrt{\frac{\sum{i<j}\left(d_{i, j}-\hat{d}{i j}\right)^2}{\sum{i j} d_{i j}^2}}
$$
where $\hat{d}{i j}=\left|\boldsymbol{z}_i-\boldsymbol{z}_j\right|$. This is called metric MDS. Note that this is a different objective than the one used by classical MDS, so even if $d{i j}$ are Euclidean distances, the results will be different.
We can use gradient descent to solve the optimization problem. However, it is better to use an bound optimization algorithm (Section 8.7) called SMACOF [Lee77], which stands for “Scaling by MAjorizing a COmplication Function”. (This is the method implemented in scikit-learn.) See Figure $20.31$ for the results of applying this to our running example.

Instead of trying to match the distance between points, we can instead just try to match the ranking of how similar points are. To do this, let $f(d)$ be a monotonic transformation from distances to ranks. Now define the loss
$$
\mathcal{L}{\mathrm{NM}}(\mathbf{Z})=\sqrt{\frac{\sum{i<j}\left(f\left(d_{i, j}\right)-\hat{d}{i j}\right)^2}{\sum{i j} \hat{d}{i j}^2}} $$ where $\hat{d}{i j}=\left|z_i-z_j\right|$. Minimizing this is known as non-metric MDS.
This objective can be optimized iteratively. First the function $f$ is optimized, for a given $\mathbf{Z}$, using isotonic regression; this finds the optimal monotonic transformation of the input distances to match the current embedding distances. Then the embeddings $\mathbf{Z}$ are optimized, for a given $f$, using gradient descent, and the process repeats.

机器学习代考_Machine Learning代考_COMP4702

机器学习代考

机器学习代考_Machine Learning代考_Classical MDS

假设我们开始一个 $N \times D$ 数据矩阵 $\mathbf{X}$ 有行 $\boldsymbol{x} i$. 让我们定义居中的 Gram(相似性)矩阵如下:
$$
\ddot{K} i j=\left\langle\boldsymbol{x} i-\overline{\boldsymbol{x}}, \boldsymbol{x}j-\overline{\boldsymbol{x}}\right\rangle $$ 在矩阵符号中,我们有 $\tilde{\mathbf{K}}=\tilde{\mathbf{X}} \tilde{\mathbf{X}}^{\top}$ , 在哪里 $\tilde{\mathbf{X}}=\mathbf{C}_N \mathbf{X}$ 和 $\mathbf{C}_N=\mathbf{I}_N-\frac{1}{N} \mathbf{1}_N \mathbf{1}_N^{\top}$ 是中心矩阵。现在定义一 组嵌入的应变如下: $$ \mathcal{L} \text { strain }(\mathbf{Z})=\sum{i, j}\left(\tilde{K}{i j}-\left\langle\tilde{z}_i, \tilde{z}_j\right\rangle\right)^2=\left|\tilde{\mathbf{K}}-\tilde{\mathbf{Z}} \tilde{\mathbf{Z}}^{\top}\right|_F^2 $$ 在哪里 $\tilde{z} i=z_i-\bar{z}$ 是中心嵌入向量。直观地,这衡量了高维数据空间中的相似性, $\tilde{K} i j$, 由低维嵌入空间中的 相似性匹配, $\left\langle\tilde{z}_i, \tilde{z}_j\right\rangle$.最小化这种损失称为经典 MDS。 我们从科知道 $7.5$ 最好的排名 $L$ 矩阵的近似值是其截断的 SVD 表示, $\tilde{\mathbf{K}}=\mathbf{U S V}^{\top}$. 自从 $\tilde{\mathbf{K}}$ 是半正定的,我们有 $\mathbf{V}=\mathbf{U}$. 因此最优嵌入满足 $$ \tilde{\mathbf{Z}} \tilde{\mathbf{Z}}^{\top}=\mathbf{U S}^{\top}=\left(\mathbf{U S}^{\frac{1}{2}}\right)\left(\mathbf{S}^{\frac{1}{2}} \mathbf{U}^{\top}\right) $$ 因此我们可以将嵌入向量设置为 $\tilde{\mathbf{Z}}=$ 我们 $^{\frac{1}{2}}$. 现在我们描述如何将经典 MDS 应用于我们只有欧几里德距离而不是原始特征的数据集。首先我们计算平方欧氏 距离的矩阵, $\mathbf{D}^{(2)}=\mathbf{D} \odot \mathbf{D}$ ,其中包含以下条目: $$ D{i j}^{(2)}=\left|\boldsymbol{x} i-\boldsymbol{x}j\right|^2=\left|\boldsymbol{x}_i-\overline{\boldsymbol{x}}\right|^2+\left|\boldsymbol{x}_j-\overline{\boldsymbol{x}}\right|^2-2\left\langle\boldsymbol{x}_i-\overline{\boldsymbol{x}}, \boldsymbol{x}_j-\overline{\boldsymbol{x}}\right\rangle \quad=\left|\boldsymbol{x}_i-\overline{\boldsymbol{x}}\right|^2+\left|\boldsymbol{x}_j-\overline{\boldsymbol{x}}\right|^2-2 $$ 我们看到 $\mathbf{D}^{(2)}$ 仅不同于 $\tilde{\mathbf{K}}$ 通过一些行和列常量 (和 $-2$ 的因子) 。因此我们可以计算 $\tilde{\mathbf{K}}$ 双中心 $\mathbf{D}^{(2)}$ 用式 (7.89) 得到 $\tilde{\mathbf{K}}=-\frac{1}{2} \mathbf{C} N \mathbf{D}^{(2)} \mathbf{C}_N$. 换句话说, $$ \tilde{K} i j=-\frac{1}{2}\left(d{i j}^2-\frac{1}{N} \sum_{l=1}^N d_{i l}^2-\frac{1}{N} \sum_{l=1}^N d_{j l}^2+\frac{1}{N^2} \sum_{l=1}^N \sum_{m=1}^N d_{l m}^2\right)
$$
然后我们可以像以前一样计算嵌入。
事实证明,经典 MDS 等同于 PCA (第 $20.1$ 节) 。为了看到这一点,让 $\tilde{\mathbf{K}}=\mathbf{U} L \mathbf{S}L \mathbf{U}_L^{\top}$ 他的等级 $L \mathrm{a}$ truncated SVD of the centered kernel matrix. The MDS emberding is given by $\mathbf{Z M D S}=\mathbf{U}_L \mathbf{S}_L^{\frac{1}{2}}$. 现在考虑排名 $L$ 居中数据矩阵的 SVD, $\tilde{\mathbf{X}}=\mathbf{U}_X \mathbf{S}_X \mathbf{V}_X^{\top}$. PCA嵌入是 $\mathbf{Z P C A}=\mathbf{U} X \mathbf{S}_X$ . 现在 $$ \tilde{\mathbf{K}}=\tilde{\mathbf{X}} \tilde{\mathbf{X}}^{\top}=\mathbf{U}_X \mathbf{S}_X \mathbf{V}_X^{\top} \mathbf{V}_X \mathbf{S}_X \mathbf{U}_X^{\top}=\mathbf{U}_X \mathbf{S}_X^2 \mathbf{U}_X^{\top}=\mathbf{U}_L \mathbf{S}_L \mathbf{U}_L^{\top} $$ 因此 $\mathbf{U}_X=\mathbf{U}_L$ 和 $\mathbf{S}_X=\mathbf{S}_L^2$ , 所以 $\mathbf{Z P C A}=\mathbf{Z}{\mathrm{MDS}}$.

机器学习代考_Machine Learning代考_Metric MDS

经典 MDS 假设欧氏距离。我们可以通过定义压力函数将其概括为允许任何差异性度量
$$
\mathcal{L} \text { stress }(\mathbf{Z})=\sqrt{\frac{\sum i<j\left(d_{i, j}-\hat{d} i j\right)^2}{\sum i j d_{i j}^2}}
$$
在哪里 $\hat{d} i j=\left|\boldsymbol{z}i-\boldsymbol{z}_j\right|$. 这称为公制 MDS。请注意,这与经典 MDS 使用的目标不同,因此即使 $d i j$ 是欧氏距 离,结果会不同。 我们可以使用梯度下降来解决优化问题。然而,最好使用称为 SMACOF [Lee77] 的边界优化算法 (第 $8.7$ 节),它代表“通过 MAjorizing a COmplication Function 进行缩放”(这是scikit-learn中实现的方法。)见图 $20.31$ 将其应用于我们的运行示例的结果。 与其尝试匹配点之间的距离,不如尝试匹配相似点的排名。为此,让 $f(d)$ 是从距离到等级的单调变换。现在定 义损失 $$ \mathcal{L} N M(\mathbf{Z})=\sqrt{\frac{\sum i{i, j}\right)-\hat{d} i j\right)^2}{\sum i j \hat{d} i j^2}}
$$
在哪里 $\hat{d} i j=\left|z_i-z_j\right|$. 将其最小化称为非公制 MDS。
这个目标可以迭代优化。首先是功能 $f$ 被优化,对于给定的 $\mathbf{Z}$ ,使用等渗回归;这找到了输入距离的最佳单调变 换以匹配当前嵌入距离。然后是嵌入Z $\mathbf{Z}$ 被优化,对于给定的 $f$ ,使用梯度下降,然后重复该过程。

计算机代写|机器学习代写machine learning代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

机器学习代考_Machine Learning代考_COMP30027

如果你也在 怎样代写机器学习 machine learning这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

机器学习是一个致力于理解和建立 “学习 “方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法。机器学习算法基于样本数据(称为训练数据)建立模型,以便在没有明确编程的情况下做出预测或决定。机器学习算法被广泛用于各种应用,如医学、电子邮件过滤、语音识别和计算机视觉,在这些应用中,开发传统算法来执行所需任务是困难的或不可行的。

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习 machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习 machine learning代写方面经验极为丰富,各种代写机器学习 machine learning相关的作业也就用不着说。

我们提供的机器学习 machine learning及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
机器学习代考_Machine Learning代考_COMP30027

机器学习代考_Machine Learning代考_Manifold learning

In this section, we discuss the problem of recovering the underlying low-dimensional structure in a high-dimensional dataset. This structure is often assumed to be a curved manifold (explained in Section 20.4.1), so this problem is called manifold learning or nonlinear dimensionality reduction. The key difference from methods such as autoencoders (Section 20.3) is that we will focus on non-parametric methods, in which we compute an embedding for each point in the training set, as opposed to learning a generic model that can embed any input vector. That is, the methods we discuss do not (easily) support out-of-sample generalization. However, they can be easier to fit, and are quite flexible. Such methods can be a useful for unsupervised learning (knowledge discovery), data visualization, and as a preprocessing step for supervised learning. See [AAB21] for a recent review of this field.

Roughly speaking, a manifold is a topological space which is locally Euclidean. One of the simplest examples is the surface of the earth, which is a curved $2 \mathrm{~d}$ surface embedded in a $3 \mathrm{~d}$ space. At each local point on the surface, the earth seems flat.

More formally, a $d$-dimensional manifold $\mathcal{X}$ is a space in which each point $x \in \mathcal{X}$ has a neighborhood which is topologically equivalent to a $d$-dimensional Euclidean space, called the tangent space, denoted $\mathcal{T}_x=T_x \mathcal{X}$. This is illustrated in Figure $20.28$.

A Riemannian manifold is a differentiable manifold that associates an inner product operator at each point $x$ in tangent space; this is assumed to depend smoothly on the position $x$. The inner product induces a notion of distance, angles, and volume. The collection of these inner products is called a Riemannian metric. It can be shown that any sufficiently smooth Riemannian manifold can be embedded into a Euclidean space of potentially higher dimension; the Riemannian inner product at a point then becomes Euclidean inner product in that tangent space.

机器学习代考_Machine Learning代考_The manifold hypothesis

Most “naturally occuring” high dimensional dataset lie a low dimensional manifold. This is called the manifold hypothesis [FMN16]. For example, consider the case of an image. Figure 20.29a shows a single image of size $64 \times 57$. This is a vector in a 3,648-dimensional space, where each dimension corresponds to a pixel intensity. Suppose we try to generate an image by drawing a random point in this space; it is unlikely to look like the image of a digit, as shown in Figure 20.29b. However,the pixels are not independent of each other, since they are generated by some lower dimensional structure, namely the shape of the digit 6 .

As we vary the shape, we will generate different images. We can often characterize the space of shape variations using a low-dimensional manifold. This is illustrated in Figure 20.29c, where we apply PCA (Section 20.1) to project a dataset of 360 images, each one a slightly rotated version of the digit 6 , into a $2 \mathrm{~d}$ space. We see that most of the variation in the data is captured by an underlying curved $2 \mathrm{~d}$ manifold. We say that the intrinsic dimensionality $d$ of the data is 2 , even though the ambient dimensionality $D$ is 3,648 .

In the rest of this section, we discuss ways to learn manifolds from data. There are many different algorithms that have been proposed, which make different assumptions about the nature of the manifold, and which have different computational properties. We discuss a few of these methods in the following sections. For more details, see e.g., [Bur10].

The methods can be categorized as shown in Table 20.1. The term “nonparametric” refers to methods that learn a low dimensional embedding $\boldsymbol{z}_i$ for each datapoint $\boldsymbol{x}_i$, but do not learn a mapping function which can be applied to an out-of-sample datapoint. (However, [Ben $+04 \mathrm{~b}$ ] discusses how to extend many of these methods beyond the training set by learning a kernel.)

In the sections below, we compare some of these methods using 2 different datasets: a set of 1000 3d-points sampled from the $2 \mathrm{~d}$ “Swiss roll” manifold, and a set of 179764 -dimensional points sampled from the UCI digits dataset. See Figure $20.30$ for an illustration of the data. We will learn a 2 d manifold, so we can visualize the data.

机器学习代考_Machine Learning代考_COMP30027

机器学习代考

机器学习代考_Machine Learning代考_Manifold learning

在本节中,我们将讨论在高维数据集中恢复底层低维结构的问题。这个结构通常被假设为一个弯曲的流形(在 20.4.1 节中解释),所以这个问题被称为流形学习或非线性降维。与自动编码器(第 20.3 节)等方法的主要区别在于,我们将专注于非参数方法,在这种方法中,我们为训练集中的每个点计算嵌入,而不是学习可以嵌入任何输入向量的通用模型. 也就是说,我们讨论的方法不(容易)支持样本外泛化。然而,它们更容易安装,而且非常灵活。此类方法可用于无监督学习(知识发现)、数据可视化以及作为监督学习的预处理步骤。

粗略地说,流形是局部欧几里德的拓扑空间。最简单的例子之一是地球表面,它是一个弯曲的2 d表面嵌入3 d空间。在表面上的每个局部点,地球看起来都是平坦的。

更正式地说,一个d维流形X是一个空间,其中每个点X∈X有一个邻域在拓扑上等价于d维欧氏空间,称为切线空间,表示为吨X=吨XX. 如图所示20.28.

黎曼流形是一种可微流形,它在每个点关联一个内积算子X在切线空间;假设这平稳地取决于位置X. 内积引入了距离、角度和体积的概念。这些内积的集合称为黎曼度量。可以证明,任何足够光滑的黎曼流形都可以嵌入到潜在更高维度的欧几里德空间中;某一点的黎曼内积在该切空间中变为欧几里得内积。

机器学习代考_Machine Learning代考_The manifold hypothesis

大多数“自然发生的”高维数据集都是低维流形。这称为流形假设 [FMN16]。例如,考虑图像的情况。图 20.29a 显示了大小为64×57. 这是一个 3,648 维空间中的向量,其中每个维度对应一个像素强度。假设我们尝试通过在这个空间中随机绘制一个点来生成图像;它不太可能看起来像数字图像,如图 20.29b 所示。然而,像素并不是相互独立的,因为它们是由一些低维结构生成的,即数字 6 的形状。

当我们改变形状时,我们将生成不同的图像。我们通常可以使用低维流形来表征形状变化的空间。这在图 20.29c 中进行了说明,其中我们应用 PCA(第 20.1 节)将 360 幅图像的数据集投影到一个数字 6 的稍微旋转的版本中2 d空间。我们看到数据中的大部分变化都被底层曲线捕获2 d多方面的。我们说内在维度d的数据是 2 ,即使环境维度丁是 3,648 。

在本节的其余部分,我们将讨论从数据中学习流形的方法。已经提出了许多不同的算法,它们对流形的性质做出不同的假设,并且具有不同的计算特性。我们将在以下部分讨论其中的一些方法。有关详细信息,请参阅 [Bur10]。

这些方法可按表 20.1 所示进行分类。术语“非参数”是指学习低维嵌入的方法和一世对于每个数据点X一世,但不学习可应用于样本外数据点的映射函数。(然而,[本+04 b] 讨论了如何通过学习内核将许多这些方法扩展到训练集之外。)

在下面的部分中,我们使用 2 个不同的数据集比较了其中一些方法:一组 1000 个 3d 点从2 d“瑞士卷”流形,以及一组从 UCI 数字数据集中采样的 179764 维点。见图20.30用于说明数据。我们将学习一个二维流形,因此我们可以可视化数据。

计算机代写|机器学习代写machine learning代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

机器学习代考_Machine Learning代考_COMP5318

如果你也在 怎样代写机器学习 machine learning这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

机器学习是一个致力于理解和建立 “学习 “方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法。机器学习算法基于样本数据(称为训练数据)建立模型,以便在没有明确编程的情况下做出预测或决定。机器学习算法被广泛用于各种应用,如医学、电子邮件过滤、语音识别和计算机视觉,在这些应用中,开发传统算法来执行所需任务是困难的或不可行的。

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习 machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习 machine learning代写方面经验极为丰富,各种代写机器学习 machine learning相关的作业也就用不着说。

我们提供的机器学习 machine learning及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
机器学习代考_Machine Learning代考_COMP5318

机器学习代考_Machine Learning代考_Training VAEs

We cannot compute the exact marginal likelihood $p(\boldsymbol{x} \mid \boldsymbol{\theta})$ needed for MLE training, because posterior inference in a nonlinear FA model is intractable. However, we can use the inference network to compute an approximate posterior, $q(\boldsymbol{z} \mid \boldsymbol{x})$. We can then use this to compute the evidence lower bound or ELBO. For a single example $\boldsymbol{x}$, this is given by
$$
\begin{aligned}
\mathrm{L}(\boldsymbol{\theta}, \boldsymbol{\phi} \mid \boldsymbol{x}) &=\mathbb{E}{q{\boldsymbol{\phi}}(\boldsymbol{z} \mid \boldsymbol{x})}\left[\log p_{\boldsymbol{\theta}}(\boldsymbol{x}, \boldsymbol{z})-\log q_{\boldsymbol{\phi}}(\boldsymbol{z} \mid \boldsymbol{x})\right] \
&=\mathbb{E}{q(\boldsymbol{z} \mid \boldsymbol{x}, \boldsymbol{\phi})}[\log p(\boldsymbol{x} \mid \boldsymbol{z}, \boldsymbol{\theta})]-D{\mathrm{KL}}(q(\boldsymbol{z} \mid \boldsymbol{x}, \boldsymbol{\phi}) | p(\boldsymbol{z}))
\end{aligned}
$$
This can be interpreted as the expected log likelihood, plus a regularizer, that penalizes the posterior from deviating too much from the prior. (This is different than the approach in Section 20.3.4, where we applied the KL penalty to the aggregate posterior in each minibatch.)

The ELBO is a lower bound of the log marginal likelihood (aka evidence), as can be seen from Jensen’s inequality:
$$
\begin{aligned}
\llcorner(\boldsymbol{\theta}, \boldsymbol{\phi} \mid \boldsymbol{x})&=\int q_{\boldsymbol{\phi}}(\boldsymbol{z} \mid \boldsymbol{x}) \log \frac{p_{\boldsymbol{\theta}}(\boldsymbol{x}, \boldsymbol{z})}{q_\phi(\boldsymbol{z} \mid \boldsymbol{x})} d \boldsymbol{z} \
& \leq \log \int q_{\boldsymbol{\phi}}(\boldsymbol{z} \mid \boldsymbol{x}) \frac{p_{\boldsymbol{\theta}}(\boldsymbol{x}, \boldsymbol{z})}{q_{\boldsymbol{\phi}}(\boldsymbol{z} \mid \boldsymbol{x})} d \boldsymbol{z}=\log p_{\boldsymbol{\theta}}(\boldsymbol{x})
\end{aligned}
$$
Thus for fixed inference network parameters $\phi$, increasing the ELBO should increase the log likelihood of the data, similar to EM Section 8.7.2.

机器学习代考_Machine Learning代考_The reparameterization trick

In this section, we discuss how to compute the ELBO and its gradient. For simplicity, let us suppose that the inference network estimates the parameters of a Gaussian posterior. Since $q_\phi(\boldsymbol{z} \mid \boldsymbol{x})$ is Gaussian, we can write
$$
\boldsymbol{z}=f_{\epsilon, \mu}(\boldsymbol{x} ; \boldsymbol{\phi})+f_{e, \sigma}(\boldsymbol{x} ; \boldsymbol{\phi}) \odot \boldsymbol{\epsilon}
$$
where $\boldsymbol{\epsilon} \sim \mathcal{N}(\mathbf{0}, \mathbf{I})$. Hence
$$
£(\boldsymbol{\theta}, \boldsymbol{\phi} \mid \boldsymbol{x})=\mathbb{E}{\boldsymbol{\epsilon} \sim \mathcal{N}(\mathbf{0}, \mathbf{I})}\left[\log p{\boldsymbol{\theta}}\left(\boldsymbol{x} \mid \boldsymbol{z}=\mu_{\boldsymbol{\phi}}(\boldsymbol{x})+\sigma_{\boldsymbol{\phi}}(\boldsymbol{x}) \odot \boldsymbol{\epsilon}\right)\right]-D_{\mathrm{KL}}\left(q_{\boldsymbol{\phi}}(\boldsymbol{z} \mid \boldsymbol{x}) | p(\boldsymbol{z})\right)
$$
Now the expectation is independent of the parameters of the model, so we can safely push gradients inside and use backpropagation for training in the usual way, by minimizing $-\mathbb{E}_{\boldsymbol{x} \sim \mathcal{D}}[\mathrm{L}(\boldsymbol{\theta}, \boldsymbol{\phi} \mid \boldsymbol{x})]$ wrt $\boldsymbol{\theta}$ and $\boldsymbol{\phi}$. This is known as the reparameterization trick. See Figure $20.23$ for an illustration.
The first term in the ELBO can be approximated by sampling $\epsilon$, scaling it by the output of the inference network to get $\boldsymbol{z}$, and then evaluating $\log p(\boldsymbol{x} \mid \boldsymbol{z})$ using the decoder network.

The second term in the ELBO is the KL of two Gaussians, which has a closed form solution. In particular, inserting $p(\boldsymbol{z})=\mathcal{N}(\boldsymbol{z} \mid \mathbf{0}, \mathbf{I})$ and $q(\boldsymbol{z})=\mathcal{N}(\boldsymbol{z} \mid \boldsymbol{\mu}, \operatorname{diag}(\boldsymbol{\sigma}))$ into Equation (6.33), we get
$$
D_{\mathrm{KL}}(q | p)=\sum_{k=1}^K\left[\log \left(\frac{1}{\sigma_k}\right)+\frac{\sigma_k^2+\left(\mu_k-0\right)^2}{2 \cdot 1}-\frac{1}{2}\right]=-\frac{1}{2} \sum_{k=1}^K\left[\log \sigma_k^2-\sigma_k^2-\mu_k^2+1\right]
$$

机器学习代考_Machine Learning代考_COMP5318

机器学习代考

机器学习代考_Machine Learning代考_Training VAEs

我们无法计算确切的边际似然 $p(\boldsymbol{x} \mid \boldsymbol{\theta})$ MLE 训练需要,因为非线性 FA 模型中的后验推理是棘手的。然而,我们 可以使用推理网络来计算近似后验, $q(\boldsymbol{z} \mid \boldsymbol{x})$. 然后我们可以使用它来计算证据下限或 ELBO。举个例子 $\boldsymbol{x}$, 这是 由
$$
\mathrm{L}(\boldsymbol{\theta}, \boldsymbol{\phi} \mid \boldsymbol{x})=\mathbb{E} q \boldsymbol{\phi}(\boldsymbol{z} \mid \boldsymbol{x})\left[\log p_{\boldsymbol{\theta}}(\boldsymbol{x}, \boldsymbol{z})-\log q_\phi(\boldsymbol{z} \mid \boldsymbol{x})\right] \quad=\mathbb{E} q(\boldsymbol{z} \mid \boldsymbol{x}, \boldsymbol{\phi})[\log p(\boldsymbol{x} \mid \boldsymbol{z}, \boldsymbol{\theta})]-D \mathrm{KL}
$$
这可以解释为预期的对数似然加上一个正则化器,它惩罚后验与先验偏离太多。(这与第 $20.3 .4$ 节中的方法不 同,我们在每个小批量中将 KL 惩罚应用于聚合后验。)
ELBO 是对数边际似然 (又名证据) 的下限,从詹森不等式可以看出:
$$
\left\llcorner(\boldsymbol{\theta}, \boldsymbol{\phi} \mid \boldsymbol{x})=\int q_\phi(\boldsymbol{z} \mid \boldsymbol{x}) \log \frac{p_{\boldsymbol{\theta}}(\boldsymbol{x}, \boldsymbol{z})}{q_\phi(\boldsymbol{z} \mid \boldsymbol{x})} d \boldsymbol{z} \quad \leq \log \int q_\phi(\boldsymbol{z} \mid \boldsymbol{x}) \frac{p_{\boldsymbol{\theta}}(\boldsymbol{x}, \boldsymbol{z})}{q_\phi(\boldsymbol{z} \mid \boldsymbol{x})} d \boldsymbol{z}=\log p_{\boldsymbol{\theta}}(\boldsymbol{x})\right.
$$
因此对于固定的推理网络参数 $\phi$ ,增加 ELBO 应该增加数据的对数似然,类似于 EM 第 8.7.2 节。

机器学习代考_Machine Learning代考_The reparameterization trick

在本节中,我们将讨论如何计算 ELBO 及其梯度。为简单起见,让我们假设推理网络估计高斯后验的参数。自从 $q_\phi(\boldsymbol{z} \mid \boldsymbol{x})$ 是高斯分布的,我们可以写
$$
\boldsymbol{z}=f_{\epsilon, \mu}(\boldsymbol{x} ; \boldsymbol{\phi})+f_{e, \sigma}(\boldsymbol{x} ; \boldsymbol{\phi}) \odot \boldsymbol{\epsilon}
$$
在哪里 $\boldsymbol{\epsilon} \sim \mathcal{N}(\mathbf{0}, \mathbf{I})$. 因此
$$
£(\boldsymbol{\theta}, \boldsymbol{\phi} \mid \boldsymbol{x})=\mathbb{E} \boldsymbol{\epsilon} \sim \mathcal{N}(\mathbf{0}, \mathbf{I})\left[\log p \boldsymbol{\theta}\left(\boldsymbol{x} \mid \boldsymbol{z}=\mu_{\boldsymbol{\phi}}(\boldsymbol{x})+\sigma_\phi(\boldsymbol{x}) \odot \boldsymbol{\epsilon}\right)\right]-D_{\mathrm{KL}}\left(q_\phi(\boldsymbol{z} \mid \boldsymbol{x}) \mid p(\boldsymbol{z})\right)
$$
现在期望独立于模型的参数,所以我们可以安全地将梯度推入内部并以通常的方式使用反向传播进行训练,通过 最小化 $-\mathbb{E}{\boldsymbol{x} \sim \mathcal{D}}[\mathrm{L}(\boldsymbol{\theta}, \boldsymbol{\phi} \mid \boldsymbol{x})] \mathrm{wrt} \boldsymbol{\theta}$ 和 $\boldsymbol{\phi}$. 这被称为重新参数化技巧。见图20.23一个例子。 ELBO 中的第一项可以通过采样来近似 $\epsilon$ ,通过推理网络的输出对其进行缩放以获得 $\boldsymbol{z}$, 然后评估 $\log p(\boldsymbol{x} \mid \boldsymbol{z})$ 使 用解码器网络。 ELBO 中的第二项是两个高斯分布的 $\mathrm{KL}$ ,它有一个封闭形式的解。特别是,揷入 $p(\boldsymbol{z})=\mathcal{N}(\boldsymbol{z} \mid \mathbf{0}, \mathbf{I})$ 和 $q(\boldsymbol{z})=\mathcal{N}(\boldsymbol{z} \mid \boldsymbol{\mu}, \operatorname{diag}(\boldsymbol{\sigma}))$ 带入方程 (6.33),我们得到 $$ D{\mathrm{KL}}(q \mid p)=\sum_{k=1}^K\left[\log \left(\frac{1}{\sigma_k}\right)+\frac{\sigma_k^2+\left(\mu_k-0\right)^2}{2 \cdot 1}-\frac{1}{2}\right]=-\frac{1}{2} \sum_{k=1}^K\left[\log \sigma_k^2-\sigma_k^2-\mu_k^2+1\right]
$$

计算机代写|机器学习代写machine learning代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

计算机代写|机器学习代写machine learning代考|COMP4702

如果你也在 怎样代写机器学习 machine learning这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

机器学习是一个致力于理解和建立 “学习 “方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法。机器学习算法基于样本数据(称为训练数据)建立模型,以便在没有明确编程的情况下做出预测或决定。机器学习算法被广泛用于各种应用,如医学、电子邮件过滤、语音识别和计算机视觉,在这些应用中,开发传统算法来执行所需任务是困难的或不可行的。

statistics-lab™ 为您的留学生涯保驾护航 在代写机器学习 machine learning方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写机器学习 machine learning代写方面经验极为丰富,各种代写机器学习 machine learning相关的作业也就用不着说。

我们提供的机器学习 machine learning及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
计算机代写|机器学习代写machine learning代考|COMP4702

计算机代写|机器学习代写machine learning代考|Consistency regularization

Consistency regularizalion leverages the simple idea that perturbing a given dalapoint (or the model itself) should not cause the model’s output to change dramatically. Since measuring consistency in this way only makes use of the model’s outputs (and not ground-truth labels), it is readily applicable to unlabeled data and therefore can be used to create appropriate loss functions for semi-supervised learning. This idea was first proposed under the framework of “learning with pseudo-ensembles” [BAP14], with similar variants following soon thereafter [LA16; SJT16].

In its most general form, both the model $p_\theta(y \mid x)$ and the transformations applied to the input can be stochastic. For example, in computer vision problems we may transform the input by using data augmentation like randomly rotating or adding noise the input image, and the network may include stochastic components like dropout (Section 13.5.4) or weight noise [Gra11]. A common and simple form of consistency regularization first samples $\boldsymbol{x}^{\prime} \sim q\left(\boldsymbol{x}^{\prime} \mid \boldsymbol{x}\right)$ (where $q\left(\boldsymbol{x}^{\prime} \mid x\right)$ is the distribution induced by the stochastic input transformations) and then minimizes the loss $\left|p_\theta(y \mid x)-p_\theta\left(y \mid x^{\prime}\right)\right|^2$. In practice, the first term $p_\theta(y \mid x)$ is typically treated as fixed (i.e. gradients are not propagated through it). In the semi-supervised setting, the combined loss function over a batch of labeled data $\left(\boldsymbol{x}1, y_1\right),\left(\boldsymbol{x}_2, y_2\right), \ldots,\left(\boldsymbol{x}_M, y_M\right)$ and unlabeled data $\boldsymbol{x}_1, \boldsymbol{x}_2, \ldots, \boldsymbol{x}_N$ is $$ \mathcal{L}(\boldsymbol{\theta})=-\sum{i=1}^M \log p_\theta\left(y=y_i \mid \boldsymbol{x}i\right)+\lambda \sum{j=1}^N\left|p_\theta\left(y \mid \boldsymbol{x}j\right)-p\theta\left(y \mid \boldsymbol{x}_j^{\prime}\right)\right|^2
$$
where $\lambda$ is a scalar hyperparameter that balances the importance of the loss on unlabeled data and, for simplicity, we write $\boldsymbol{x}_j^{\prime}$ to denote a sample drawn from $q\left(\boldsymbol{x}^{\prime} \mid \boldsymbol{x}_j\right)$.

The basic form of consistency regularization in Equation (19.27) reveals many design choices that impact the success of this semi-supervised learning approach. First, the value chosen for the $\lambda$ hyperparameter is important. If it is too large, then the model may not give enough weight to learning the supervised task and will instead start to reinforce its own bad predictions (as with confirmation bias in self-training). Since the model is often poor at the start of training before it has been trained on much labeled data, it is common in practice to initialize set $\lambda$ to zero and increase its value over the course of training.

计算机代写|机器学习代写machine learning代考|Variational autoencoders

In Section 20.3.5, we describe the variational autoencoder (VAE), which defines a probabilistic model of the joint distribution of data $\boldsymbol{x}$ and latent variables $\boldsymbol{z}$. Data is assumed to be generated by first sampling $\boldsymbol{z} \sim p(\boldsymbol{z})$ and then sampling $\boldsymbol{x} \sim p(\boldsymbol{x} \mid \boldsymbol{z})$. For learning, the VAE uses an encoder $\boldsymbol{q}{\boldsymbol{\lambda}}(\boldsymbol{z} \mid \boldsymbol{x})$ to approximate the posterior and a decoder $p\theta(\boldsymbol{x} \mid \boldsymbol{z})$ to approximate the likelihood. The encoder and decoder are typically deep neural networks. The parameters of the encoder and decoder can be jointly trained by maximizing the evidence lower bound (ELBO) of data.

The marginal distribution of latent variables $p(\boldsymbol{z})$ is often chosen to be a simple distribution like a diagonal-covariance Gaussian. In practice, this can make the latent variables $\boldsymbol{z}$ more amenable to downstream classification thanks to the facts that $\boldsymbol{z}$ is typically lower-dimensional than $\boldsymbol{x}$, that $\boldsymbol{z}$ is constructed via cascaded nonlinear transformations, and that the dimensions of the latent variables are designed to be independent. In other words, the latent variables can provide a (learned) representation where data may be more easily separable. In [Kin $+14]$, this approach is called M1 and it is indeed shown that the latent variables can be used to train stronger models when labels are scarce. (The general idea of unsupervised learning of representations to help with downstream classification tasks is described further in Section 19.2.4.)

An alternative approach to leveraging VAEs, also proposed in [Kin $+14]$ and called M2, has the form
$$
p_{\boldsymbol{\theta}}(\boldsymbol{x}, y)=p_{\boldsymbol{\theta}}(y) p_{\boldsymbol{\theta}}(\boldsymbol{x} \mid y)=p_{\boldsymbol{\theta}}(y) \int p_{\boldsymbol{\theta}}(\boldsymbol{x} \mid y, \boldsymbol{z}) p_{\boldsymbol{\theta}}(\boldsymbol{z}) d \boldsymbol{z}
$$
where $\boldsymbol{z}$ is a latent variable, $p_{\boldsymbol{\theta}}(\boldsymbol{z})=\mathcal{N}(\boldsymbol{z} \mid \mathbf{0}, \mathbf{I})$ is the latent prior, $p_{\boldsymbol{\theta}}(y)=\operatorname{Cat}(y \mid \boldsymbol{\pi})$ the label prior, and $p_{\boldsymbol{\theta}}(\boldsymbol{x} \mid y, \boldsymbol{z})=p\left(\boldsymbol{x} \mid f_{\boldsymbol{\theta}}(y, \boldsymbol{z})\right)$ is the likelihood, such as a Gaussian, with parameters computed by $f$ (a deep neural network). The main innovation of this approach is to assume that data is generated according to both a latent class variable $y$ as well as the continuous latent variable $\boldsymbol{z}$. The class variable $y$ is observed for labeled data and unobserved for unlabled data.

计算机代写|机器学习代写machine learning代考|COMP4702

机器学习代考

计算机代写|机器学习代写machine learning代考|Consistency regularization

一致性正则化利用了一个简单的想法,即扰动给定的 dalapoint (或模型本身) 不应导致模型的输出发生显着变 化。由于以这种方式测量一致性仅使用模型的输出(而不是真实标签),因此它很容易适用于末标记的数据, 因此可用于为半监督学习创建适当的损失函数。这个想法首先是在“使用伪集成学习”[BAP14] 的框架下提出的, 此后不久就出现了类似的变体 [LA16;SJT16]。
在其最一般的形式中,模型 $p_\theta(y \mid x)$ 应用于输入的变换可以是随机的。例如,在计算机视觉问题中,我们可以 通过使用数据增强来转换输入,例如随机旋转输入图像或在输入图像中添加橾声,并且网络可能包括随机成 分,例如 dropout(第 13.5.4 节) 或权重噪声 [Gra11]。一致性正则化第一个样本的一种常见且简单的形式 $\boldsymbol{x}^{\prime} \sim q\left(\boldsymbol{x}^{\prime} \mid \boldsymbol{x}\right)$ (在哪里 $q\left(\boldsymbol{x}^{\prime} \mid x\right)$ 是由随机输入变换引起的分布) 然后最小化损失
$\left|p_\theta(y \mid x)-p_\theta\left(y \mid x^{\prime}\right)\right|^2$. 在实践中,第一个词 $p_\theta(y \mid x)$ 通常被视为固定的(即梯度不通过它传播)。在半 监督设置中,一批标记数据的组合损失函数 $\left(\boldsymbol{x} 1, y_1\right),\left(\boldsymbol{x}2, y_2\right), \ldots,\left(\boldsymbol{x}_M, y_M\right)$ 和末标记的数据 $\boldsymbol{x}_1, \boldsymbol{x}_2, \ldots, \boldsymbol{x}_N$ 是 $$ \mathcal{L}(\boldsymbol{\theta})=-\sum i=1^M \log p\theta\left(y=y_i \mid \boldsymbol{x} i\right)+\lambda \sum j=1^N\left|p_\theta(y \mid \boldsymbol{x} j)-p \theta\left(y \mid \boldsymbol{x}_j^{\prime}\right)\right|^2
$$
在哪里 $\lambda$ 是一个标量超参数,用于平衡末标记数据损失的重要性,为简单起见,我们写 $\boldsymbol{x}_j^{\prime}$ 表示从中抽取的样本 $q\left(\boldsymbol{x}^{\prime} \mid \boldsymbol{x}_j\right)$
等式 (19.27) 中一致性正则化的基本形式揭示了许多影响这种半监督学习方法成功的设计选择。首先,为 $\lambda$ 超参 数很重要。如果它太大,那么模型可能不会为学习监督任务提供足够的权重,而是会开始强化自己的错误预测 (就像自我训练中的确认偏差一样)。由于模型在训练开始时通常很差,然后才用大量标记数据进行训练,因 此在实践中通常会初始化集合 $\lambda$ 为零并在培训过程中增加其价值。

计算机代写|机器学习代写machine learning代考|Variational autoencoders

在第 20.3.5 节中,我们描述了变分自动编码器 (VAE),它定义了数据联合分布的概率模型 $\boldsymbol{x}$ 和潜在变量 $\boldsymbol{z}$. 假定 数据是由第一次采样生成的 $\boldsymbol{z} \sim p(\boldsymbol{z})$ 然后取样 $\boldsymbol{x} \sim p(\boldsymbol{x} \mid \boldsymbol{z})$. 为了学习,VAE 使用编码器 $\boldsymbol{q} \boldsymbol{\lambda}(\boldsymbol{z} \mid \boldsymbol{x})$ 近似后验 和解码器 $p \theta(\boldsymbol{x} \mid \boldsymbol{z})$ 来估计可能性。编码器和解码器通常是深度神经网络。编码器和解码器的参数可以通过最大 化数据的证据下界 (ELBO) 来联合训练。
潜在变量的边际分布 $p(\boldsymbol{z})$ 通常选择为简单分布,如对角协方差高斯分布。实际上,这可以使潜在变量 $\boldsymbol{z}$ 由于以 下事实,更适合下游分类 $z$ 通常比 $\boldsymbol{x}$ ,那 $\boldsymbol{z}$ 是通过级联非线性变换构建的,并且潜在变量的维度被设计为独立 的。换句话说,潜在变量可以提供(学习的)表示,其中数据可能更容易分离。在[健 $+14]$ ,这种方法称为 M1,它确实表明当标签稀缺时,潜在变量可用于训练更强的模型。(无监督表示学习以帮助下游分类任务的一 般思想在第 19.2.4 节中进一步描述。)
[Kin] 中也提出了一种利用 VAE 的替代方法 $+14]$ 并称为 M2,具有以下形式
$$
p_\theta(\boldsymbol{x}, y)=p_\theta(y) p_{\boldsymbol{\theta}}(\boldsymbol{x} \mid y)=p_{\boldsymbol{\theta}}(y) \int p_{\boldsymbol{\theta}}(\boldsymbol{x} \mid y, \boldsymbol{z}) p_{\boldsymbol{\theta}}(\boldsymbol{z}) d \boldsymbol{z}
$$
在哪里 $\boldsymbol{z}$ 是一个潜在变量, $p_{\boldsymbol{\theta}}(\boldsymbol{z})=\mathcal{N}(\boldsymbol{z} \mid \mathbf{0}, \mathbf{I})$ 是潜在先验, $p_\theta(y)=\operatorname{Cat}(y \mid \boldsymbol{\pi})$ 之前的标签,和 $p_\theta(\boldsymbol{x} \mid y, \boldsymbol{z})=p\left(\boldsymbol{x} \mid f_\theta(y, \boldsymbol{z})\right)$ 是可能性,例如高斯,参数由 $f$ (一个深度神经网络)。这种方法的主要创 新是假设数据是根据潜在类变量生成的 $y$ 以及连续的潜在变量 $\boldsymbol{z}$. 类变量 $y$ 对于标记数据是观察到的,对于末标记 数据是末观察到的。

计算机代写|机器学习代写machine learning代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写