电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本
换一换
首页 金锄头文库 > 资源分类 > PDF文档下载
分享到微信 分享到微博 分享到QQ空间

机器学习术语表

  • 资源ID:253510760       资源大小:537.90KB        全文页数:43页
  • 资源格式: PDF        下载积分:9.9金贝
快捷下载 游客一键下载
账号登录下载
微信登录下载
三方登录下载: 微信开放平台登录   支付宝登录   QQ登录  
二维码
微信扫一扫登录
下载资源需要9.9金贝
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
支付方式: 支付宝    微信支付   
验证码:   换一换

 
账号:
密码:
验证码:   换一换
  忘记密码?
    
1、金锄头文库是“C2C”交易模式,即卖家上传的文档直接由买家下载,本站只是中间服务平台,本站所有文档下载所得的收益全部归上传人(卖家)所有,作为网络服务商,若您的权利被侵害请及时联系右侧客服;
2、如你看到网页展示的文档有jinchutou.com水印,是因预览和防盗链等技术需要对部份页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有jinchutou.com水印标识,下载后原文更清晰;
3、所有的PPT和DOC文档都被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;下载前须认真查看,确认无误后再购买;
4、文档大部份都是可以预览的,金锄头文库作为内容存储提供商,无法对各卖家所售文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;
5、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据;
6、如果您还有什么不清楚的或需要我们协助,可以点击右侧栏的客服。
下载须知 | 常见问题汇总

机器学习术语表

本术语表中列出了一般的机器学习术语和 TensorFlow 专用术语的定义。AA/B 测试 (A/B testing)一种统计方法,用于将两种或多种技术进行比较,通常是将当前采用的技术与新技术进行比较。A/B 测试不仅旨在确定哪种技术的效果更好,而且还有助于了解相应差异是否具有显著的统计意义。 A/B 测试通常是采用一种衡量方式对两种技术进行比较,但也适用于任意有限数量的技术和衡量方式。准确率 (accuracy)分类模型 (#classication_model)的正确预测所占的比例。在多类别分类 (#multi-class)中,准确率的定义如下:在二元分类 (#binary_classication)中,准确率的定义如下:请参阅 真正例 (#TP)和真负例 (#TN)。激活函数 (activation function)一种函数(例如 ReLU (#ReLU)或 S 型 (#sigmoid_function)函数),用于对上一层的所有输入求加权和,然后生成一个输出值(通常为非线性值),并将其传递给下一层。AdaGrad机器学习术语表一种先进的梯度下降法,用于重新调整每个参数的梯度,以便有效地为每个参数指定独立的学习速率 (#learning_rate)。如需查看完整的解释,请参阅这篇论文 (http:/www.jmlr.org/papers/volume12/duchi11a/duchi11a.pdf)。ROC 曲线下面积 (AUC, Area under the ROC Curve)一种会考虑所有可能分类阈值的评估指标 (#classication_threshold)。ROC 曲线 (#ROC)下面积是,对于随机选择的正类别样本确实为正类别,以及随机选择的负类别样本为正类别,分类器更确信前者的概率。B反向传播算法 (backpropagation)在神经网络 (#neural_network)上执行 梯度下降法 (#gradient_descent)的主要算法。该算法会先按前向传播方式计算(并缓存)每个节点的输出值,然后再按反向传播遍历图的方式计算损失函数值相对于每个参数的偏导数 (https:/en.wikipedia.org/wiki/Partial_derivative)。基准 (baseline)一种简单的 模型 (#model)或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。批次 (batch)模型训练 (#model_training)的一次 迭代 (#iteration)(即一次 梯度 (#gradient)更新)中使用的样本集。另请参阅 批次规模 (#batch_size)。批次规模 (batch size)一个批次 (#batch)中的样本数。例如, SGD (#SGD)的批次规模为 1,而小批次 (#mini-batch)的规模通常介于 10 到 1000 之间。批次规模在训练和推断期间通常是固定的;不过,TensorFlow 允许使用动态批次规模。偏差 (bias)距离原点的截距或偏移。偏差(也称为偏差项 )在机器学习模型中以 b 或 w0表示。例如,在下面的公式中,偏差为 b:请勿与 预测偏差 (#prediction_bias)混淆。二元分类 (binary classication)一种分类任务,可输出两种互斥类别之一。例如,对电子邮件进行评估并输出“ 垃圾邮件” 或“ 非垃圾邮件 ” 的机器学习模型就是一个二元分类器。分箱 (binning)请参阅 分桶 (#bucketing)。分桶 (bucketing)将一个特征(通常是 连续 (#continuous_feature)特征)转换成多个二元特征(称为桶或箱),通常是根据值区间进行转换。例如,您可以将温度区间分割为离散分箱,而不是将温度表示成单个连续的浮点特征。假设温度数据可精确到小数点后一位,则可以将介于 0.0 到 15.0 度之间的所有温度都归入一个分箱,将介于 15.1 到 30.0 度之间的所有温度归入第二个分箱,并将介于 30.1 到 50.0 度之间的所有温度归入第三个分箱。C校准层 (calibration layer)一种预测后调整,通常是为了降低预测偏差 (#prediction_bias)。调整后的预测和概率应与观察到的标签集的分布一致。候选采样 (candidate sampling)一种训练时进行的优化,会使用某种函数(例如 softmax )针对所有正类别标签计算概率,但对于负类别标签,则仅针对其随机样本计算概率。例如,如果某个样本的标签为“ 小猎犬” 和“ 狗” ,则候选采样将针对 “ 小猎犬 ” 和“ 狗” 类别输出以及其他类别(猫、棒棒糖、栅栏)的随机子集计算预测概率和相应的损失项。这种采样基于的想法是,只要正类别 (#positive_class)始终得到适当的正增强,负类别 (#negative_class)就可以从频率较低的负增强中进行学习,这确实是在实际中观察到的情况。候选采样的目的是,通过不针对所有负类别计算预测结果来提高计算效率。分类数据 (categorical data)一种特征 (#feature),拥有一组离散的可能值。以某个名为house style的分类特征为例,该特征拥有一组离散的可能值(共三个),即Tudor, ranch, colonial。通过将housestyle表示成分类数据,相应模型可以学习Tudor、ranch和colonial分别对房价的影响。有时,离散集中的值是互斥的,只能将其中一个值应用于指定样本。例如,car maker分类特征可能只允许一个样本有一个值 (Toyota)。在其他情况下,则可以应用多个值。一辆车可能会被喷涂多种不同的颜色,因此,car color分类特征可能会允许单个样本具有多个值(例如red和white)。分类特征有时称为 离散特征 (#discrete_feature)。与数值数据 (#numerical_data)相对。检查点 (checkpoint)一种数据,用于捕获模型变量在特定时间的状态。借助检查点,可以导出模型权重 (#weight),跨多个会话执行训练,以及使训练在发生错误之后得以继续(例如作业抢占)。请注意,图 (#graph)本身不包含在检查点中。类别 (class)为标签枚举的一组目标值中的一个。例如,在检测垃圾邮件的二元分类 (#binary_classication)模型中,两种类别分别是“ 垃圾邮件 ” 和“ 非垃圾邮件 ” 。在识别狗品种的 多类别分类 (#multi_class_classication)模型中,类别可以是 “ 贵宾犬 ” 、“ 小猎犬 ” 、“ 哈巴犬 ” 等等。分类不平衡的数据集 (class-imbalanced data set)一种二元分类 (#binary_classication)问题,在此类问题中,两种类别的标签 (#label)在出现频率方面具有很大的差距。例如,在某个疾病数据集中,0.0001 的样本具有正类别标签,0.9999的样本具有负类别标签,这就属于分类不平衡问题;但在某个足球比赛预测器中,0.51 的样本的标签为其中一个球队赢,0.49 的样本的标签为另一个球队赢,这就不属于分类不平衡问题。分类模型 (classication model)一种机器学习模型,用于区分两种或多种离散类别。例如,某个自然语言处理分类模型可以确定输入的句子是法语、西班牙语还是意大利语。请与回归模型 (#regression_model)进行比较。分类阈值 (classication threshold)一种标量值条件,应用于模型预测的得分,旨在将正类别 (#positive_class)与负类别 (#negative_class)区分开。将 逻辑回归 (#logistic_regression)结果映射到 二元分类 (#binary_classication)时使用。以某个逻辑回归模型为例,该模型用于确定指定电子邮件是垃圾邮件的概率。如果分类阈值为 0.9,那么逻辑回归值高于 0.9 的电子邮件将被归类为 “ 垃圾邮件” ,低于 0.9 的则被归类为 “ 非垃圾邮件 ” 。协同过滤 (collaborative ltering)根据很多其他用户的兴趣来预测某位用户的兴趣。协同过滤通常用在推荐系统中。混淆矩阵 (confusion matrix)一种 NxN 表格,用于总结 分类模型 (#classication_model)的预测成效;即标签和模型预测的分类之间的关联。在混淆矩阵中,一个轴表示模型预测的标签,另一个轴表示实际标签。N表示类别个数。在 二元分类 (#binary_classication)问题中, N=2。例如,下面显示了一个二元分类问题的混淆矩阵示例:肿瘤(预测的标签)非肿瘤(预测的标签)肿瘤(实际标签)181非肿瘤(实际标签)6452上面的混淆矩阵显示,在 19 个实际有肿瘤的样本中,该模型正确地将 18 个归类为有肿瘤(18 个真正例),错误地将 1 个归类为没有肿瘤( 1 个假负例)。同样,在 458 个实际没有肿瘤的样本中,模型归类正确的有 452 个(452 个真负例),归类错误的有 6 个(6 个假正例)。多类别分类问题的混淆矩阵有助于确定出错模式。例如,某个混淆矩阵可以揭示,某个经过训练以识别手写数字的模型往往会将 4 错误地预测为 9,将 7 错误地预测为 1。混淆矩阵包含计算各种效果指标(包括精确率和召回率)所需的充足信息。连续特征 (continuous feature)一种浮点特征,可能值的区间不受限制。与离散特征 (#discrete_feature)相对。收敛 (convergence)通俗来说,收敛通常是指在训练期间达到的一种状态,即经过一定次数的迭代之后,训练损失 (#loss)和验证损失在每次迭代中的变化都非常小或根本没有变化。也就是说,如果采用当前数据进行额外的训练将无法改进模型,模型即达到收敛状态。在深度学习中,损失值有时会在最终下降之前的多次迭代中保持不变或几乎保持不变,暂时形成收敛的假象。另请参阅 早停法 (#early_stopping)。另请参阅 Boyd 和 Vandenberghe 合著的 Convex Optimization (https:/web.stanford.edu/boyd/cvxbook/bv_cvxbook.pdf)(凸优化)。凸函数 (convex function)一种函数,函数图像以上的区域为凸集 (#convex_set)。典型凸函数的形状类似于字母U。例如,以下都是凸函数:相反,以下函数则不是凸函数。请注意图像上方的区域如何不是凸集:局部最低点局部最低点全局最低点严格凸函数 只有一个局部最低点,该点也是全局最低点。经典的 U 形函数都是严格凸函数。不过,有些凸函数(例如直线)则不是这样。很多常见的 损失函数 (#loss_functions)(包括下列函数)都是凸函数:L2损失函数 (#L2_loss)对数损失函数 (#Log_Loss)L1正则化 (#L1_regularization)L2正则化 (#L2_regularization)梯度下降法 (#gradient_descent)的很多变体都一定能找到一个接近严格凸函数最小值的点。同样,随机梯度下降法 (#SGD)的很多变体都有很高的可能性能够找到接近严格凸函数最小值的点(但并非一定能找到)。两个凸函数的和(例如 L2损失函数 + L1正则化)也是凸函数。深度模型 (#deep_model)绝不会是凸函数。值得注意的是,专门针对凸优化 (#convex_optimization)设计的算法往往总能在深度网络上找到非常好的解决方案,虽然这些解决方案并不一定对应于全局最小值。凸优化 (convex optimization)使用数学方法(例如 梯度下降法 (#gradient_desc

注意事项

本文(机器学习术语表)为本站会员(p****杀)主动上传,金锄头文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即阅读金锄头文库的“版权提示”【网址:https://www.jinchutou.com/h-59.html】,按提示上传提交保证函及证明材料,经审查核实后我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.