物理代写|统计力学代写Statistical mechanics代考|PHYSICS 7546

如果你也在 怎样代写统计力学Statistical mechanics这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

统计力学是一个数学框架,它将统计方法和概率理论应用于大型微观实体的集合。它不假设或假定任何自然法则,而是从这种集合体的行为来解释自然界的宏观行为。

statistics-lab™ 为您的留学生涯保驾护航 在代写统计力学Statistical mechanics方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写统计力学Statistical mechanics代写方面经验极为丰富,各种代写统计力学Statistical mechanics相关的作业也就用不着说。

我们提供的统计力学Statistical mechanics及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础
物理代写|统计力学代写Statistical mechanics代考|PHYSICS 7546

物理代写|统计力学代写Statistical mechanics代考|“Subjective” Versus “Objective” Probabilities

As we said, there are, broadly speaking, two different meanings given to the word ‘probability’ in the natural sciences. The first notion is the so-called “objective” or “frequentist” one, namely the view of probability as something like a “theoretical frequency”: if one says that the probability of the event $E$ under condition $X, Y, Z$ equals $\mathrm{p}$, one means that, if one reproduces the ‘same’ conditions $X, Y, Z$ “sufficiently often”, the event E will appear with frequency p. Of course, since the world is constantly changing, it is not clear what reproducing the ‘same’ conditions means exactly; besides, the expression “sufficiently often” is vague and this is the source of much criticism of that notion of probability. ${ }^{2}$ But, putting those objections aside for a moment, probabilistic statements are, according to the “frequentist” view, factual statements that can in principle be confirmed or refuted by observations or experiments. We will come back to the discussion of the frequentist view in Sect. $2.4$ below, but now we will turn to the other meaning of the word ‘probability’, the “subjective” or Bayesian one.

In this approach, probabilities refer to a form of reasoning and not to a factual statement. Assigning a probability to an event expresses a judgment on the likelihood of that single event, based on the information available at that moment. Note that, here, one is not interested in what happens when one reproduces many times the ‘same’ event, as in the objective approach, but in the probability of a single event. This is of course very important in practice: when I wonder whether I need to take my umbrella because it may rain, or whether the stock market will crash next week, I am not mainly interested in the frequencies with which such events occur but with what will happen here and now; of course, these frequencies may be part of the information that is used in arriving at a judgment on the probability of a single event, but, typically, they are not the only information available.

One may even ask probabilistic questions, like “what is the probability of life or of intelligent life in the universe or in our galaxy?” or “what is the probability that the value of a given physical constants lies in a given interval” that do not make sense from a frequentist point of view. ${ }^{3}$ Yet, people do try to answer these questions; those answers may not be better than educated guesses, but these examples show that our intuitive notion of probability is not restricted to theoretical frequencies.

Note that, to add to the confusion, one has to make a distinction between the “objective” or “rational” Bayesian approach and the “subjective” Bayesian approach. In the latter approach, which was championed among others by the Italian mathematician de Finetti $[93,94]$, probabilities can be assigned more or less arbitrarily, provided one follows the rules of probability, like
$$
P(A \cup B)=P(A)+P(B)
$$
whenever $A \cap B=\emptyset$

物理代写|统计力学代写Statistical mechanics代考|The Indifference Principle

This principle says: first, list a series of possibilities for a “random” event, about which we know nothing, namely that we have no reason to think that one of them is more likely to occur than another one (so that “we are equally ignorant” with respect to all those possibilities). Then, assign to each of them an equal probability. If there are $N$ possibilities, we have:
$$
\begin{gathered}
P(i)=\frac{1}{N} \
\forall i=1, \ldots, N
\end{gathered}
$$

This “principle” is just another expression of our equal ignorance. ${ }^{7}$
There are many problems with this definition and several objections have been raised against it. First of all, when are we in this situation of indifference? In games of chance where there is a symmetry between the different outcomes of the random event (tossing of a coin, throwing of a die, roulette wheels etc.) it is easy to apply the indifference principle. But for more complicated situations, it is not obvious how to proceed.

Some people object that we use our ignorance to gain some information about that random event: at first, we do not know anything about it and from that we deduce that all those events are equally probable. But, from a subjectivist view of probabilities, not knowing anything about a series of possibilities and saying that all those possibilities have equal probabilities are equivalent statements, since, in that view, a probability statement is not a statement about the world but about our state of knowledge.

In more complicated situations, where there is no symmetry between the different possibilities one uses the maximum entropy principle. Namely one assigns to each probability distribution $\mathbf{p}=\left(p_{i}\right){i=1}^{N}$ over $N$ objects its Shannon entropy, given by: $$ S(\mathbf{p})=-\sum{i=1}^{N} p_{i} \log p_{i}
$$
One then chooses the probability distribution that has the maximum entropy, among those that satisfy certain constraints that incorporate the information that we have about the system.

The rationale behind this principle, as for the indifference principle, is not to introduce bias in our judgments, namely information that we do not have (like people who believe in lucky numbers). And one can argue that maximizing the Shannon entropy is indeed the best way to formalize that notion. We will discuss in detail this idea and its justification in Sect. 7.2, see also Shannon [291] and Jaynes [180], [183, Sect. 11.3].

物理代写|统计力学代写Statistical mechanics代考|Cox’ “Axioms” and Theorem

As an aside, let us mention also that, in 1946, Cox [90], inspired by previous ideas of Keynes [190], gave a foundation to the “subjective” approach to probability based on reasonings about the plausibility of propositions (see Jaynes [183] for an extensive discussion of this approach). Instead of assigning probabilities to events, as in elementary probabilities, or to sets, as in the mathematical version (see Appendix 2.A), Cox gives a numerical value to the plausibility $\mathcal{P}(p \mid q)$ of a proposition $p$ given that another proposition $q$ is true. ${ }^{8}$

Then, Cox imposes some rules of rationality on those plausibility assignments and derive from them, for a given proposition $\mathrm{r}$, the sum rule:
$$
\mathcal{P}(p \text { or } q \mid r)=\mathcal{P}(p \mid r)+\mathcal{P}(q \mid r)-\mathcal{P}(p \text { and } q \mid r),
$$
and the product rule:
$\mathcal{P}(p$ and $q \mid r)=\mathcal{P}(p \mid q$ and $r) \mathcal{P}(q \mid r)=\mathcal{P}(q \mid p$ and $r) \mathcal{P}(p \mid r)$
If we replace the propositions by sets (e.g. sets of events that render the propositions true), (2.2.3), expressed in terms of probabilities of sets, means:
$$
P(A \cup B)=P(A)+P(B)-P(A \cap B),
$$
which reduces to (2.2.1) when $p$ and $q$ are incompatible, namely when the sets $A$ and $B$ of events for which those propositions are true are disjoint; besides (2.2.5) follows by applying (2.2.1) to the disjoint union $A \cup B=(A \backslash B) \cup(B \backslash A) \cup(A \cap B)$ and using $A=(A \backslash B) \cup(A \cap B)$ and $B=(B \backslash A) \cup(A \cap B)$.
Equation (2.2.4), expressed in terms of probabilities of sets, means:
$$
P(A \cap B \mid C)=P(A \mid B \cap C) P(B \mid C)=P(B \mid A \cap C) P(A \mid C),
$$
where by definition,
$$
P(A \mid B)=\frac{P(A \cap B)}{P(B)}
$$
is the conditional probability of event $A$ given event $B$.

物理代写|统计力学代写Statistical mechanics代考|PHYSICS 7546

统计力学代考

物理代写|统计力学代写Statistical mechanics代考|“Subjective” Versus “Objective” Probabilities

正如我们所说,从广义上讲,自然科学中的“概率”一词有两种不同的含义。第一个概念是所谓的“客观的”或“频率论的”概念,即将概率视为类似于“理论频率”的东西:如果有人说事件的概率和条件下X,是,从等于p,一意味着,如果一个人重现“相同”的条件X,是,从“足够频繁”,事件 E 将以频率 p 出现。当然,由于世界在不断变化,因此复制“相同”条件的确切含义尚不清楚。此外,“足够经常”的表述含糊不清,这是对概率概念的许多批评的根源。2但是,暂时搁置这些反对意见,根据“频率论者”的观点,概率陈述是原则上可以通过观察或实验来证实或反驳的事实陈述。我们将回到 Sect 中对频率论观点的讨论。2.4下面,但现在我们将转向“概率”一词的另一个含义,即“主观”或贝叶斯。

在这种方法中,概率是指一种推理形式,而不是事实陈述。根据当时可用的信息,为事件分配概率表示对单个事件的可能性的判断。请注意,在这里,人们对重复多次“相同”事件时会发生什么不感兴趣,就像在客观方法中那样,而是对单个事件的概率感兴趣。这在实践中当然非常重要:当我想知道是否需要带雨伞因为可能会下雨,或者下周股市是否会崩盘时,我主要关心的不是这些事件发生的频率,而是什么将在此时此地发生;当然,这些频率可能是用于判断单个事件的概率的信息的一部分,但是,通常,

人们甚至可能会问一些概率问题,比如“宇宙或银河系中存在生命或智能生命的概率是多少?” 或“给定物理常数的值位于给定区间内的概率是多少”从频率论者的角度来看是没有意义的。3然而,人们确实试图回答这些问题。这些答案可能并不比有根据的猜测好,但这些例子表明,我们对概率的直观概念并不局限于理论频率。

请注意,为了增加混淆,必须区分“客观”或“理性”贝叶斯方法和“主观”贝叶斯方法。在后一种方法中,这是由意大利数学家德菲内蒂等人所倡导的[93,94],概率可以或多或少任意分配,只要遵循概率规则,例如

磷(一个∪乙)=磷(一个)+磷(乙)
每当一个∩乙=∅

物理代写|统计力学代写Statistical mechanics代考|The Indifference Principle

这个原则说:首先,列出一个“随机”事件的一系列可能性,我们对此一无所知,即我们没有理由认为其中一个比另一个更可能发生(因此“我们是对所有这些可能性同样无知”)。然后,给他们每个人分配一个相等的概率。如果有ñ可能性,我们有:

磷(一世)=1ñ ∀一世=1,…,ñ

这个“原则”只是我们同样无知的另一种表现。7
这个定义存在许多问题,并且已经提出了一些反对意见。首先,我们什么时候处于这种冷漠的境地?在随机事件的不同结果(掷硬币、掷骰子、轮盘赌等)之间存在对称性的机会游戏中,很容易应用无差异原则。但是对于更复杂的情况,如何进行就不清楚了。

有些人反对我们利用我们的无知来获取有关该随机事件的一些信息:起初,我们对此一无所知,因此我们推断所有这些事件都是同样可能的。但是,从概率的主观主义观点来看,对一系列可能性一无所知并说所有这些可能性具有相等的概率是等价的陈述,因为在这种观点下,概率陈述不是关于世界的陈述,而是关于我们的状态的陈述的知识。

在更复杂的情况下,不同的可能性之间没有对称性,使用最大熵原理。即分配给每个概率分布p=(p一世)一世=1ñ超过ñ对象其香农熵,由下式给出:

小号(p)=−∑一世=1ñp一世日志⁡p一世
然后选择具有最大熵的概率分布,在满足某些约束的概率分布中,这些约束包含我们所拥有的关于系统的信息。

该原则背后的基本原理,至于无差异原则,不是在我们的判断中引入偏见,即我们没有的信息(比如相信幸运数字的人)。有人可以争辩说,最大化香农熵确实是形式化该概念的最佳方式。我们将在 Sect 中详细讨论这个想法及其理由。7.2,另见 Shannon [291] 和 Jaynes [180], [183, Sect. 11.3]。

物理代写|统计力学代写Statistical mechanics代考|Cox’ “Axioms” and Theorem

顺便说一句,我们还要提一下,在 1946 年,Cox [90] 受到 Keynes [190] 先前观点的启发,为基于关于命题合理性的推理的“主观”概率方法奠定了基础(参见 Jaynes [183]​​ 对这种方法进行了广泛的讨论)。Cox 没有像在基本概率中那样将概率分配给事件,也没有像在数学版本中那样(见附录 2.A)将概率分配给集合,而是为似真性赋予了一个数值磷(p∣q)一个命题的p鉴于另一个命题q是真的。8

然后,对于给定的命题,考克斯将一些合理性规则强加于这些似真性分配并从中推导出r,求和规则:

磷(p 或者 q∣r)=磷(p∣r)+磷(q∣r)−磷(p 和 q∣r),
和产品规则:
磷(p和q∣r)=磷(p∣q和r)磷(q∣r)=磷(q∣p和r)磷(p∣r)
如果我们用集合代替命题(例如,使命题为真的事件集合),(2.2.3),用集合的概率表示,意味着:

磷(一个∪乙)=磷(一个)+磷(乙)−磷(一个∩乙),
当p和q是不相容的,即当集合一个和乙那些命题为真的事件是不相交的;除了 (2.2.5) 之外,将 (2.2.1) 应用于不相交并集一个∪乙=(一个∖乙)∪(乙∖一个)∪(一个∩乙)并使用一个=(一个∖乙)∪(一个∩乙)和乙=(乙∖一个)∪(一个∩乙).
方程(2.2.4),用集合的概率表示,意味着:

磷(一个∩乙∣C)=磷(一个∣乙∩C)磷(乙∣C)=磷(乙∣一个∩C)磷(一个∣C),
根据定义,

磷(一个∣乙)=磷(一个∩乙)磷(乙)
是事件的条件概率一个给定事件乙.

物理代写|统计力学代写Statistical mechanics代考 请认准statistics-lab™

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

R语言代写问卷设计与分析代写
PYTHON代写回归分析与线性模型代写
MATLAB代写方差分析与试验设计代写
STATA代写机器学习/统计学习代写
SPSS代写计量经济学代写
EVIEWS代写时间序列分析代写
EXCEL代写深度学习代写
SQL代写各种数据建模与可视化代写

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注