第10&11次课-静态测试&软件测试规范 静态分析(测试)1.概述静态测试包括代码检查、静态结构分析、代码质量度量等。它可以由人工进行,充分发挥人的逻辑思维优势,也可以借助软件工具自动进行。 在实际使用中,代码检查比动态测试更有效率,能快速找到缺陷,发现30%~70%的逻辑设计和编码缺陷;代码检查看到的是问题本身而非征兆。但是代码检查非常耗费时间,而且代码检查需要知识和经验的积累。代码检查应在编译和动态测试之前进行,在检查前,应准备好需求 2021-03-18 软件测试 ustc 软件测试
第12.13.14次课-常用测试技术 几种常见系统测试1.简要说明几种系统测试:性能测试:是为获取或验证系统性能指标而进行的测试。 负载测试:是通过改变系统软件负载方式、增加负载等来发现系统 软件中所存在的性能问题。主要测试软件系统的性能。 压力测试:通常是在高负载情况下来对系统的稳定性进行测试,更 有效地发现系统稳定性的隐患和系统在负载峰值的条件下功能隐 患等。 目的虽不同,但方法类似,通常会用特定的测试工具,来模拟超 常的数据 2021-03-18 软件测试 ustc 软件测试
软测2020期末大题背诵版 黑盒1.等价类1.1概念等价类划分法是把程序的输入域按规则划分为若干子集,然后从每个子集中选取一个具有代表性的数据作为测试用例。 1.2等价类划分原则: 在输入条件规定了取值范围或值的个数的情况下,可以确定一个有效等价类和两个无效等价类 在输入条件规定了输入值得集合或者规定了“必须如何”的条件的情况下,可以确立一个有效等价类和一个无效等价类 在输入条件是一个布尔量的情况下,可确定一个有效等价类和一 2021-03-18 软件测试 ustc 软件测试
反向传播 神经网络学习的核心算法-反向传播算法梯度下降法,所谓学习是指我们要找到特定的权重偏置,使代价函数的值达到最小。 代价函数牵扯到上完个训练样本? 考虑一个训练样本,就2.看他的激活值输出 要增加这个激活值 , 有3条路 增加偏置b 增加权重wi 增加哪些权重?连接到0,2的,激活值更亮的,连接更紧密的 改变上一层的激活值 如果所有正权连接的神经元更亮,所有负权连接的神经元更暗的话,那么数字2 2021-03-18 课件 ustc 自然语言处理 课件
梯度下降 机器学习中很多其他技术也是基于梯度下降,梯度下降不仅是神经网络的基础。 目标实现手写数字识别 (28 * 28 像素的矩阵 = 784 个网络输入层神经元) 每个像素的灰度值在0~1之间,决定了784个神经元的激活值。 下一层神经元的激活值=上一层中所有激活值的加权和 + bias 最后把这个作为参数传给sigmoid之类的压缩函数 图像分类,大量数据学习—>实际上是在找某个函数的最小值 2021-03-18 课件 ustc 自然语言处理 课件
分词 首先看一下基于词典的方法;然后基于统计的方法,我们讨论一下HMM。 正向最大匹配思想MM 从左向右取待切分汉语句的m个字符作为匹配字段,m为大机器词典中最长词条个数。 \2. 查找大机器词典并进行匹配。若匹配成功,则将这个匹配字段作为一个词切分出来。 若匹配不成功,则将这个匹配字段的最后一个字去掉,剩下的字符串作为新的匹配字段,进行再次匹配,重复以上过程,直到切分出所有词为止。 逆向最大匹配 2021-03-18 课件 ustc 自然语言处理 课件
NLP-2020期末真题 一、判断(10 * 2`) LSTM相对RNN不易梯度消失. 感知机不能处理异或是没有合适的激活函数. sigmoid,网络参数初始值较大有利于避免梯度消失. attention的记忆力好过LSTM Transformer位置编码可体现词的相对位置和距离 N-gram中,N越大,效果越好,因此应尽可能用较大的N值 残差网络层次越深,在训练集上的效果越好. 在注意力机制中,Q,K,V三矩阵维度必须都 2021-03-18 自然语言处理 ustc 自然语言处理
nlp-期末背诵版 1.激活函数1.1深度学习的基本原理是基于人工神经网络,信号从一个神经元进入,经过非线性的激活函数,传入到下一层神经元;再经过该层神经元的激活,继续往下传递,如此循环往复,直到输出层。正是由于这些非线性函数的反复叠加,才使得神经网络有足够的能力来抓取复杂的特征。 1.3å加入激活函数,是为了增强模型的非线性,如果不经过非线性激活,那么无论神经网络加多少层永远都是线性组合,而加入了非线性激活函数后, 2021-03-18 自然语言处理 ustc 自然语言处理
第10次课-transformer 本次课程主要就是看一篇论文 Attention is All you Need. Transformer 实际上就是一个带self-attention的seq2seq,包括encoder和decoder两部分,但是它是第一个完全依赖于 Self-Attention 来计算其输入和输出表示的模型,而不使用 RNN 或 CNN。Transformer 由且仅由 self-Attention 和 Fee 2021-03-18 自然语言处理 ustc 自然语言处理
第12次课-xlnet 1.起初2019年6月19日,google brain和CMU大学一起,提出了模型XLNet,分析了BERT的缺点并提出了改进方法. XLNet引入了自回归语言模型以及自编码语言模型的提法。 2.自回归语言模型(Autoregressive LM)2.1什么是自回归语言模型在ELMO/BERT出来之前,大家通常讲的语言模型其实是根据上文内容预测下一个可能跟随的单词,就是常说的自左向右的语言模型任务 2021-03-18 自然语言处理 ustc 自然语言处理
第3次课-jieba分词 笔记写到第二次课了 第一节[分词] 前缀词典是根据统计词典构建出来的. 构造有向无环图是为了求最大概率路径. 北京大=0, 用于我还可以匹配更长的,只是我自己不存在而已. 最大概率计算看代码(学了Python后必须重看理解 + 动态规划) get_DAG 动态规划 get_route 这个代码中n-gram的n是多少:就是1,直接拿词的概率来算。 【55:50】下半场基于汉字成词能力H 2021-03-18 自然语言处理 ustc 自然语言处理