如果你也在 怎样代写理论计算机theoretical computer science这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。
理论计算机科学在精神上是数学的和抽象的,但它的动机来自于实际和日常的计算。它的目的是理解计算的本质,并作为这种理解的结果,提供更有效的方法论。
statistics-lab™ 为您的留学生涯保驾护航 在代写理论计算机theoretical computer science方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写理论计算机theoretical computer science代写方面经验极为丰富,各种代写理论计算机theoretical computer science相关的作业也就用不着说。
我们提供的理论计算机theoretical computer science及其相关学科的代写,服务范围广, 其中包括但不限于:
- Statistical Inference 统计推断
- Statistical Computing 统计计算
- Advanced Probability Theory 高等概率论
- Advanced Mathematical Statistics 高等数理统计学
- (Generalized) Linear Models 广义线性模型
- Statistical Machine Learning 统计机器学习
- Longitudinal Data Analysis 纵向数据分析
- Foundations of Data Science 数据科学基础
数学代写|理论计算机代写theoretical computer science代考|Implementation and Experimental Results
We implemented our heuristics as a package in the PRISM model checker. Our implementations are based on sparse engine of PRISM [9] which is developed in $\mathrm{C}$ and are available in [18]. We used several standard case studies which have been used in previous works $[2,4,10,13,15,16]$. We compare the running time of our heuristics with the running time of well-known previous methods. We only focus on the running time of the iterative computations for quantitative properties. We exclude the running times for model constructions that are the same for all methods. The running time of the graph-based pre-computation are negligible in appropriate implementations [7]. For SCC-based methods and our Dirac-based ones, the reported times include the running times for SCC decomposition and Dirac-based reductions. All benchmarks have been run on a machine with Corei7 CPU (2.8 GHz, 4 main cores) and 8 GB RAM running Ubuntu 18. We use Consensus, Zeroconf, finewire_abstract, brp, nand and Crowds case studies for comparing the performance of iterative methods for reachability probabilities and use Wlan, CSMA, Israeli-jalefon and Leader cases for expected rewards. These case studies are explained in $[4,15,16]$. More details about our experiments and model parameters are available as log-files in [18]. Although there are several other standard case studies, their graphical structure do not have any cycle and a topological backward iterative method can be used to computed their underlying properties in linear time $[13,14]$. Hence, we focus on the case studies of Table 1 , where have several non-trivial cycles.
We consider the running time of the standard iterative methods and well known improved techniques from previous works. To perform a fair comparison, we use sparse engine of PRISM for all experiments and we also implemented topological (SCC-based) method for this engine. In this case, we use MPI to solve each SCC. For learning-based methods, we use the implementation that is proposed in [15] and for backward value iteration, we implement the proposed method from [14]. For all case studies, we consider $\epsilon=10^{-8}$ as the threshold.
Table 1 shows the running time of the iterative methods for MDP models. For the SCC-based method, we use MPI to approximate the reachability probability values of each SCCs. All times are in seconds. We use * where a method does not terminate after an hour. For consensus, Israeli-jalefon, Leader and Wlan models, the running time of SCC-based method is less than the others. In these cases, we use our Dirac-based method to reduce the running time of the computations for each SCC. The results show that for these two classes, our technique is faster than the other methods. The learning-based method is faster than other methods for zeroconf cases with $\mathrm{N}=20$. For firewire case studies, $\mathrm{SCC}$ based and backward value iteration methods are much faster than the standard iterative methods. In this case Dirac-based method for MPI (without SCC decomposition) works better than the other methods.
数学代写|理论计算机代写theoretical computer science代考|Learning for Network Traffic Classification
Characterizing the network traffic and identifying running applications play an important role in several network administration tasks such as protecting against malicious behaviors, firewalling, and balancing bandwidth usage. Recently, dynamic port assignment and encryption protocol usage have considerably reduced the performance of the classic traffic classification methods, including port-based and deep packet inspection. This leads researchers to apply Machine-Learning techniques and behavioral pattern detection for traffic classification. Machine-Learning approaches classify network traffic based on statistical
features with the granularity of flow [1,2] or packet [3], and hence, they ignore temporal relations among flows, and as a result, their false positive rates are not negligible although they are fast. In behavioral classification methods [46 , an expert extracts specific behavioral aspects of a particular application or application type for the classification purpose. For instance, link establishment topology was used as the distinctive metric to classify P2P-TV traffic in [5].
Assuming a packet trace as a word of the language of an application, one can derive an automaton modeling the traffic behavior of that application. Automata learning approaches have been recently used to automatically derive the model of applications $[7,8]$, network protocols $[9,10]$, or Botnet behavior [8]. The alphabets of the learned automata are either manually defined by domain experts which is not straightforward, or in terms of packets which may cause overfitting. As some packets always appear together, we can consider a sequence of related packets together as a symbol of the alphabet. To this aim, we apply machine learning techniques to automatically define the alphabet set based on the timing and statistical features of packets.
The derived automata are used for traffic classification. A packet trace is classified into an application if the model of that application accepts it. Using automata learning methods, the classification problem is constrained to observe the complete trace of an application to verdict its acceptance/rejection. To tackle this challenge, inspired by [11], we upgrade the detection of an application based on partial observation of a trace, a window of size $k$, and derive a model that accepts a k-Testable language in the Strict Sense (k-TSS) [12]. K-TSS, a class of regular languages, also known as window language, allows to locally accept or reject a word by a sliding window parser of size $k$. We relax the acceptance condition of automata learning using machine learning by defining a proximity metric to be compatible with the local essence of the learned language. The proposed proximity metric is defined as a distance function. We have implemented our approach in a framework called Network Traffic Language learner, NeTLang. We evaluate the performance of our approach by applying it to real-world network traffic and compare it with machine and automata learning approaches. We achieved F1-Measure of $97 \%$ for both application identification and traffic characterization tasks. In summary, first, we learn the alphabet using a machine learning technique. Then, the network language is learned through an automata learning approach. Finally, the classifier identifies the classes based on our defined distance metrics on the input and the learned models. Our method makes these contributions: 1) Utilizing locally testable language learning in the traffic classification problem, 2) Extracting the domain-based alphabet automatically, 3) Upgrading the word acceptance by a new proximity metric. With these contributions, the following improvements are brought into traffic classification:
- Considering a sequence of related packets as the appropriate granularity of the problem, instead of per-packet detection which is too fine-grained or per-flow detection which is too coarse-grained,Providing highly accurate models for applications as our automata learning approach considers the temporal relation among flows and the way they are interleaved,
- Decreasing the classification time by considering only some first packets of a trace with a help of a novel distance function.
数学代写|理论计算机代写theoretical computer science代考|Background on Automata Learning
In this section, we provide some background on automata learning concepts used in our methodology. Learning a regular language from given positive samples (words belonging to the language) is a common problem in grammatical inference. To solve this problem, many algorithms were proposed to find the smallest deterministic finite automaton (DFA) that accepts the positive examples. In this paper, we focus on learning k-testable languages in the strict sense, a subset of a regular language, called k-TSS, initially was introduced by [12]. In such a language, words are determined by allowed three sets of prefixes and suffixes of length $k-1$ and substrings of length $k$. It has been proven that it is possible to learn k-TSS languages in the limit [13]. To learn this language, the only effort is to scan the accepting words while simultaneously constructing the allowed three set. The locally testable feature of this language makes it appropriate for network traffic classification and other domains, such as pattern recognition [14] and DNA sequence analysis [15]. In the following, we provide the formal definition of k-TSS language taken from [16].
Definition 1 (k-test Vector). Let $k>0, a$-test vector is determined by $a$ 5 -tuple $Z=\langle\Sigma, I, F, T, C\rangle$ where
- $\Sigma$ is a finite alphabet,
- $I \subseteq \Sigma^{(k-1)}$ is a set of allowed prefixes of length less than $k$,
- $F \subseteq \Sigma^{(k-1)}$ is a set of allowed suffixes of length less than $k$,
- $T \subseteq \Sigma^{k}$ is a set of allowed segments, and
- $C \subseteq \Sigma^{0$. Then Language $\mathcal{L}(Z)$ in the strict sense $(k-T S S)$ is computed as:
$$
\mathcal{L}(Z)=\left[\left(I \Sigma^{} \cap \Sigma^{} F\right)-\Sigma^{}\left(\Sigma^{k}-T\right) \Sigma^{}\right] \cup C
$$
For instance, consider $k=3$ and $Z=\langle\Sigma={a, b}, I={a b}, F=$ ${a b, b a}, T={a b a, a b b, b b a}, C={a b}\rangle$, then, $a b a, a b b a \in \mathcal{L}(Z)$ since they are preserving the allowed sets of $Z$, while $b a b, a b b, a b a b, a$ do not belong to $\mathcal{L}(z)$ because, in order, they violate $I \mathrm{~ ( b a ~}$ $(a \notin C$ ). To construct the k-test vector of a language, we scan the accepted word by a k-size frame. By scanning the word $a b b a$ by a 3 -size frame, $a b, b a$, and $a b b, b b a$ are added to $I, F$, and $T$, respectively.
In our problem, we produce words such that their length is greater than or equal to $k$. It means that $C$ always is empty. Hence, for simplicity, we eliminate $C$ from the k-TSS vector for the rest of the paper.、
理论计算机代写
数学代写|理论计算机代写theoretical computer science代考|Implementation and Experimental Results
我们将启发式方法作为 PRISM 模型检查器中的一个包来实现。我们的实现基于 PRISM [9] 的稀疏引擎,该引擎在C并在 [18] 中可用。我们使用了几个在以前的作品中使用过的标准案例研究[2,4,10,13,15,16]. 我们将启发式算法的运行时间与众所周知的先前方法的运行时间进行比较。我们只关注定量特性的迭代计算的运行时间。我们排除了所有方法都相同的模型构造的运行时间。在适当的实现中,基于图的预计算的运行时间可以忽略不计 [7]。对于基于 SCC 的方法和我们基于 Dirac 的方法,报告的时间包括 SCC 分解和基于 Dirac 的缩减的运行时间。所有基准测试均在配备 Corei7 CPU(2.8 GHz,4 个主核)和 8 GB RAM 且运行 Ubuntu 18 的机器上运行。我们使用 Consensus、Zeroconf、finewire_abstract、brp、nand 和 Crowds 案例研究来比较迭代方法的性能可达性概率和使用 Wlan、CSMA、Israel-jalefon 和 Leader 箱子以获得预期奖励。这些案例研究在[4,15,16]. 有关我们的实验和模型参数的更多详细信息可在 [18] 中作为日志文件获得。尽管还有其他几个标准案例研究,但它们的图形结构没有任何循环,并且可以使用拓扑反向迭代方法在线性时间内计算它们的基本属性[13,14]. 因此,我们专注于表 1 的案例研究,其中有几个非平凡的循环。
我们考虑了标准迭代方法的运行时间和以前工作中众所周知的改进技术。为了进行公平比较,我们在所有实验中使用 PRISM 的稀疏引擎,并且我们还为该引擎实现了拓扑(基于 SCC)方法。在这种情况下,我们使用 MPI 来解决每个 SCC。对于基于学习的方法,我们使用 [15] 中提出的实现,对于反向值迭代,我们实现 [14] 中提出的方法。对于所有案例研究,我们认为ε=10−8作为阈值。
表 1 显示了 MDP 模型迭代方法的运行时间。对于基于 SCC 的方法,我们使用 MPI 来近似每个 SCC 的可达概率值。所有时间都以秒为单位。我们使用 * 一个小时后方法不会终止。对于共识、Israel-jalefon、Leader 和 Wlan 模型,基于 SCC 的方法的运行时间少于其他方法。在这些情况下,我们使用基于 Dirac 的方法来减少每个 SCC 的计算运行时间。结果表明,对于这两个类,我们的技术比其他方法更快。对于 zeroconf 情况,基于学习的方法比其他方法更快ñ=20. 对于火线案例研究,小号CC基于和后向值迭代方法比标准迭代方法快得多。在这种情况下,基于狄拉克的 MPI 方法(没有 SCC 分解)比其他方法效果更好。
数学代写|理论计算机代写theoretical computer science代考|Learning for Network Traffic Classification
表征网络流量和识别正在运行的应用程序在一些网络管理任务中发挥着重要作用,例如防止恶意行为、防火墙和平衡带宽使用。最近,动态端口分配和加密协议的使用大大降低了经典流量分类方法的性能,包括基于端口的深度包检测。这导致研究人员将机器学习技术和行为模式检测应用于流量分类。机器学习方法基于统计对网络流量进行分类
具有流 [1,2] 或数据包 [3] 粒度的特征,因此它们忽略了流之间的时间关系,因此,尽管它们的误报率很快,但它们的误报率不可忽略。在行为分类方法中[46,专家提取特定应用程序或应用程序类型的特定行为方面以用于分类目的。例如,在 [5] 中,链路建立拓扑被用作对 P2P-TV 流量进行分类的独特指标。
假设数据包跟踪是应用程序语言的一个词,可以推导出一个自动机,对该应用程序的流量行为进行建模。自动机学习方法最近已被用于自动导出应用程序模型[7,8], 网络协议[9,10],或僵尸网络行为 [8]。学习自动机的字母表要么是由不直接的领域专家手动定义的,要么是根据可能导致过度拟合的数据包来定义的。由于某些数据包总是一起出现,我们可以将一系列相关数据包一起视为字母表的符号。为此,我们应用机器学习技术根据数据包的时间和统计特征自动定义字母集。
派生的自动机用于流量分类。如果该应用程序的模型接受数据包跟踪,则该应用程序将其分类。使用自动机学习方法,分类问题被限制为观察应用程序的完整轨迹以判断其接受/拒绝。为了应对这一挑战,受 [11] 的启发,我们升级了基于跟踪的部分观察的应用程序检测,一个大小的窗口ķ,并推导出一个模型,该模型接受严格意义上的 k-可测试语言 (k-TSS) [12]。K-TSS,一类正则语言,也称为窗口语言,允许通过大小的滑动窗口解析器在本地接受或拒绝一个词ķ. 我们通过定义与学习语言的本地本质兼容的邻近度度量来放宽使用机器学习的自动机学习的接受条件。提出的接近度度量被定义为距离函数。我们已经在一个称为网络流量语言学习器 NetLang 的框架中实现了我们的方法。我们通过将其应用于现实世界的网络流量来评估我们的方法的性能,并将其与机器和自动机学习方法进行比较。我们实现了 F1-Measure97%用于应用程序识别和流量表征任务。总之,首先,我们使用机器学习技术来学习字母表。然后,通过自动机学习方法学习网络语言。最后,分类器根据我们在输入和学习模型上定义的距离度量来识别类。我们的方法做出了这些贡献:1)在流量分类问题中利用本地可测试的语言学习,2)自动提取基于域的字母表,3)通过新的邻近度度量升级单词接受度。有了这些贡献,流量分类得到了以下改进:
- 考虑一系列相关数据包作为问题的适当粒度,而不是太细粒度的每个数据包检测或太粗粒度的每个流检测,为我们的自动机学习方法考虑的应用程序提供高精度模型流之间的时间关系以及它们交错的方式,
- 在新的距离函数的帮助下,通过仅考虑跟踪的一些第一个数据包来减少分类时间。
数学代写|理论计算机代写theoretical computer science代考|Background on Automata Learning
在本节中,我们提供了一些关于我们方法中使用的自动机学习概念的背景知识。从给定的正样本(属于该语言的单词)中学习常规语言是语法推理中的一个常见问题。为了解决这个问题,人们提出了许多算法来寻找接受正例的最小确定性有限自动机(DFA)。在本文中,我们专注于学习严格意义上的 k-testable 语言,一种称为 k-TSS 的常规语言的子集,最初是由 [12] 引入的。在这样的语言中,单词由允许的三组前缀和后缀长度决定ķ−1和长度的子串ķ. 已经证明可以在极限内学习 k-TSS 语言 [13]。要学习这种语言,唯一的努力就是扫描接受词,同时构建允许的三个集合。该语言的本地可测试特性使其适用于网络流量分类和其他领域,例如模式识别 [14] 和 DNA 序列分析 [15]。在下文中,我们提供了取自 [16] 的 k-TSS 语言的正式定义。
定义 1(k 检验向量)。让ķ>0,一种-测试向量由下式确定一种5 元组从=⟨Σ,一世,F,吨,C⟩在哪里
- Σ是一个有限的字母表,
- 一世⊆Σ(ķ−1)是一组长度小于的允许前缀ķ,
- F⊆Σ(ķ−1)是一组允许的长度小于的后缀ķ,
- 吨⊆Σķ是一组允许的段,并且
- $C \subseteq \Sigma^{0.吨H和n大号一种nG在一种G和\数学{L} (Z)一世n吨H和s吨r一世C吨s和ns和(千吨不锈钢)一世sC这米p在吨和d一种s:大号(从)=[(一世Σ∩ΣF)−Σ(Σķ−吨)Σ]∪CF这r一世ns吨一种nC和,C这ns一世d和rk=3一种ndZ=\langle\Sigma={a, b}, I={ab}, F={ab, ba}, T={aba, abb, bba}, C={ab}\rangle,吨H和n,aba, abba \in \mathcal{L}(Z)s一世nC和吨H和是一种r和pr和s和r在一世nG吨H和一种ll这在和ds和吨s这F从,在H一世l和bab, abb, abab, 一个d这n这吨b和l这nG吨这\数学{L} (z)b和C一种在s和,一世n这rd和r,吨H和是在一世这l一种吨和我 \mathrm{~ ( ba ~}(a \notin C).吨这C这ns吨r在C吨吨H和ķ−吨和s吨在和C吨这r这F一种l一种nG在一种G和,在和sC一种n吨H和一种CC和p吨和d在这rdb是一种ķ−s一世和和Fr一种米和.乙是sC一种nn一世nG吨H和在这rd阿爸b是一种3−s一世和和Fr一种米和,呸呸呸,一种ndabb, bba一种r和一种dd和d吨这如果,一种ndT $,分别。
在我们的问题中,我们生成的单词长度大于或等于ķ. 代表着C总是空的。因此,为简单起见,我们去掉C来自本文其余部分的 k-TSS 向量。
统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。
金融工程代写
金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。
非参数统计代写
非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。
广义线性模型代考
广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。
术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。
有限元方法代写
有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。
有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。
tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。
随机分析代写
随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。
时间序列分析代写
随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。
回归分析代写
多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。
MATLAB代写
MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习和应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。