经济代写|博弈论代写Game Theory代考|ECON3503

如果你也在 怎样代写博弈论Game Theory这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

博弈论是对理性主体之间战略互动的数学模型的研究。它在社会科学的所有领域,以及逻辑学、系统科学和计算机科学中都有应用。最初,它针对的是两人的零和博弈,其中每个参与者的收益或损失都与其他参与者的收益或损失完全平衡。在21世纪,博弈论适用于广泛的行为关系;它现在是人类、动物以及计算机的逻辑决策科学的一个总称。

statistics-lab™ 为您的留学生涯保驾护航 在代写博弈论Game Theory方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写博弈论Game Theory代写方面经验极为丰富,各种代写博弈论Game Theory相关的作业也就用不着说。

我们提供的博弈论Game Theory及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
经济代写|博弈论代写Game Theory代考|ECON3503

经济代写|博弈论代写Game Theory代考|Further Discussions

Game theory attempts to bring mathematical precision to decision-making so that best strategies can be played, even in the arms race between the learner and the adversary. In game theory, we assume the players are rational-they seek to maximize their payoffs or minimize their losses. This assumption is not necessarily valid in real life, especially in cybersecurity domains. What appears irrational to one player may be rational to the opponent player. For example, when we model a game between airport security and terrorists, it may not be a good idea to view the terrorists based on our own experiences. When the opponent is not rational or simply plays poorly, it is important to realize that continuing to play the equilibrium strategy will lead to a losing situation or the loss of opportunity to exploit the opponent’s weaknesses.

Behavioral economists have long questioned the strict assumptions about rationality in existing theories in game theory (Aumann 1997). The actual decision-making by individuals is often irrational even in simple decision problems. Individuals typically fail to select the best response from a set of choice. As a matter of fact, optimization is so difficult that individuals are often unable to come up with their best responses to their opponents’ moves, unlike what the rational decision theory has always assumed. In response, theories that relax the rationality constraints have been proposed among which include: Quantal Response Equilibrium (QRE) (McKelvey and Palfrey 1995), a solution concept that promotes an equilibrium notion with bounded rationality that acknowledges the possibility that players do not always play a best response; Prospect Theory (Kahneman and Tversky 1979; Tversky and Kahneman 1992), a solution that introduces payoffs with respect to a reference point at which there is larger slope for losses than for gains and agents tend to overestimate small probabilities and underestimate large probabilities.

The same debate is applicable to mixed strategy games. In the airport security game, how the airport deploys security patrols depends on the response from the terrorists. If the rationality of the terrorists is predictable, it would be best for the airport to deploy its security patrols randomly by playing a mixed strategy. However, when there is a good reason to believe that the terrorists are not going to play the equilibrium strategy, airport security may be better off by playing pure strategies. Generally speaking, unless the odds are strongly in our favor, playing equilibrium strategies would be our best choice. Nevertheless, we should always keep in mind that our calculation of rationality may lead to different behavior, new rules may need to be defined in the game to take this into consideration.

经济代写|博弈论代写Game Theory代考|Adversarial Machine Learning

While there is a growing interest in applying machine learning to different data domains and deploying machine learning algorithms in real systems, it has become imperative to understand vulnerabilities of machine learning in the presence of adversaries. To that end, adversarial machine learning (Kurakin et al. 2016a; Vorobeychik and Kantarcioglu 2018; Shi et al. 2018b) has emerged as a critical field to enable safe adoption of machine learning subject to adversarial effects. One example that has attracted recent attention involves machine learning applications offered to public or paid subscribers via APIs; e.g. Google Cloud Vision (2020) provides cloud-based machine learning tools to build machine learning models. This online service paradigm creates security concerns of adversarial inputs to different machine learning algorithms ranging from computer vision to NLP (Shi et al. 2018c,d). As another application domain, automatic speech recognition and voice controllable systems were studied in terms of the vulnerabilities of their underlying machine learning algorithms (Vaidya et al. 2016; Zhang et al. 2017). As an effort to identify vulnerabilities in autonomous driving, attacks on self-driving vehicles were demonstrated in Kurakin et al. (2016), where the adversary manipulated traffic signs to confuse the learning model.

The manipulation in adversarial machine learning may happen during the training or inference (test) time, or both. During the training time, the goal of the adversary is to provide wrong inputs (features and/or labels) to the training data such that the machine learning algorithm is not properly trained. During the test time, the goal of the adversary is to provide wrong inputs (features) to the machine algorithm such that it returns wrong outputs. As illustrated in Figure 14.1, attacks built upon adversarial machine learning can be categorized as follows.

  1. Attack during the test time.
    a. Inference (exploratory) attack: The adversary aims to infer the machine learning architecture of the target system to build a shadow or surrogate model that has the same functionality as the original machine learning architecture (Barreno et al. 2006; Tramer et al. 2016; Wu et al. 2016; Papernot et al. 2017; Shi et al. 2017; Shi et al. 2018b). This corresponds to a white-box or black-box attack depending on whether the machine learning model such as the deep neural network structure is available to the adversary, or not. For a black-box attack, the adversary queries the target classifier with a number of samples and records the labels. Then, it uses this labeled data as its own training data to train a functionally equivalent (i.e. statistically similar) deep learning classifier, namely a surrogate model. Once the machine learning functionality is learned, the adversary can use the inference results obtained from the surrogate model for subsequent attacks such as confidence reduction or targeted misclassification.
    b. Membership inference attack: The adversary aims to determine if a given data sample is a member of the training data, i.e. if a given data sample has been used to train the machine learning algorithm of interest (Nasr et al. 2018; Song et al. 2018; Jia et al. 2019; Leino and Fredrikson 2020). Membership inference attack is based on the analysis of overfitting to check whether a machine learning algorithm is trained for a particular data type, e.g. a particular type of images. By knowing which type of data the machine learning algorithm is trained to classify, the adversary can then design a subsequent attack more successfully.
经济代写|博弈论代写Game Theory代考|ECON3503

博弈论代考

经济代写|博弈论代写Game Theory代考|Further Discussions

博弈论试图将数学精确性带入决策制定,以便即使在学习者和对手之间的军备竞赛中也能发挥最佳策略。在博弈论中,我们假设参与者是理性的——他们寻求最大化收益或最小化损失。这种假设在现实生活中不一定有效,尤其是在网络安全领域。对一个玩家来说不合理的事情可能对对手玩家来说是合理的。例如,当我们模拟机场安全和恐怖分子之间的博弈时,根据我们自己的经验来看待恐怖分子可能不是一个好主意。当对手不理性或只是打得不好时,重要的是要意识到继续采用均衡策略将导致失败的局面或失去利用对手弱点的机会。

长期以来,行为经济学家一直质疑博弈论中现有理论对理性的严格假设(Aumann 1997)。即使在简单的决策问题中,个人的实际决策也往往是非理性的。个人通常无法从一组选择中选择最佳反应。事实上,优化是如此困难,以至于个人往往无法对对手的举动做出最佳反应,这与理性决策理论一直假设的不同。作为回应,人们提出了放松理性约束的理论,其中包括: 量子响应平衡 (QRE)(McKelvey 和 Palfrey 1995),这是一种解决方案概念,它促进具有有限理性的均衡概念,承认玩家并不总是玩游戏的可能性最好的回应;

同样的争论也适用于混合策略游戏。在机场安保博弈中,机场如何部署安保巡逻,取决于恐怖分子的反应。如果恐怖分子的理性是可以预见的,机场安保巡逻最好是随机部署,玩混合策略。然而,当有充分的理由相信恐怖分子不会采用均衡策略时,机场安全可能会通过采用纯策略而变得更好。一般而言,除非赔率对我们有利,否则采用均衡策略将是我们的最佳选择。然而,我们应该始终牢记,我们的理性计算可能会导致不同的行为,可能需要在游戏中定义新的规则来考虑到这一点。

经济代写|博弈论代写Game Theory代考|Adversarial Machine Learning

尽管人们对将机器学习应用于不同的数据域并在真实系统中部署机器学习算法的兴趣越来越大,但了解机器学习在存在对手的情况下的弱点已变得势在必行。为此,对抗性机器学习(Kurakin 等人 2016a;Vorobeychik 和 Kantarcioglu 2018 年;Shi 等人 2018b)已成为一个关键领域,可以安全采用受对抗影响的机器学习。最近引起关注的一个例子涉及通过 API 向公众或付费用户提供的机器学习应用程序;例如 Google Cloud Vision (2020) 提供基于云的机器学习工具来构建机器学习模型。这种在线服务范式对从计算机视觉到 NLP 的不同机器学习算法的对抗性输入产生了安全问题(Shi 等人,2018c,d)。作为另一个应用领域,自动语音识别和语音可控系统根据其底层机器学习算法的漏洞进行了研究(Vaidya 等人 2016 年;Zhang 等人 2017 年)。为了识别自动驾驶中的漏洞,Kurakin 等人演示了对自动驾驶车辆的攻击。(2016),对手操纵交通标志来混淆学习模型。2016; 张等。2017)。为了识别自动驾驶中的漏洞,Kurakin 等人演示了对自动驾驶车辆的攻击。(2016),对手操纵交通标志来混淆学习模型。2016; 张等。2017)。为了识别自动驾驶中的漏洞,Kurakin 等人演示了对自动驾驶车辆的攻击。(2016),对手操纵交通标志来混淆学习模型。

对抗性机器学习中的操作可能发生在训练或推理(测试)时间,或两者兼而有之。在训练期间,对手的目标是向训练数据提供错误的输入(特征和/或标签),从而导致机器学习算法无法正确训练。在测试期间,对手的目标是向机器算法提供错误的输入(特征),使其返回错误的输出。如图 14.1 所示,基于对抗性机器学习的攻击可分为以下几类。

  1. 在测试时间内攻击。
    A。推理(探索性)攻击:对手旨在推断目标系统的机器学习架构,以构建与原始机器学习架构具有相同功能的影子或替代模型(Barreno 等人,2006 年;Tramer 等人,2016 年; Wu 等人 2016 年;Papernot 等人 2017 年;Shi 等人 2017 年;Shi 等人 2018b)。这对应于白盒或黑盒攻击,具体取决于对手是否可以使用深度神经网络结构等机器学习模型。对于黑盒攻击,对手使用大量样本查询目标分类器并记录标签。然后,它使用这个标记数据作为自己的训练数据来训练一个功能等效(即统计相似)的深度学习分类器,即代理模型。
    b. 成员推理攻击:对手旨在确定给定数据样本是否是训练数据的成员,即给定数据样本是否已用于训练感兴趣的机器学习算法(Nasr 等人,2018 年;Song 等人,2018 年)。 2018 年;Jia 等人 2019 年;莱诺和弗雷德里克森 2020 年)。Membership inference attack 是基于过度拟合的分析,以检查机器学习算法是否针对特定数据类型(例如特定类型的图像)进行了训练。通过了解训练机器学习算法分类的数据类型,对手可以更成功地设计后续攻击。
经济代写|博弈论代写Game Theory代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注