Apache Spark中的决策树

大数据 Spark
Apache Spark中没有决策树的实现可能听起来很奇怪。然而从技术上来说是有的。在Apache Spark中,您可以找到一个随机森林算法的实现,该算法实现可以由用户指定树的数量。因此,Apache Spark使用一棵树来调用随机森林。

Apache Spark中的决策树

决策树是在顺序决策问题进行分类,预测和促进决策的有效方法。决策树由两部分组成:

  • 决策(Desion)
  • 结果(Outcome)

决策树包含三种类型的节点:

  • 根节点(Root node):包含所有数据的树的顶层节点。
  • 分割节点(Splitting node):将数据分配给子组(subgroup)的节点。
  • 终端节点(Terminal node):最终决定(即结果)。

(分割节点(Splitting node),仅就离散数学中的树的概念而言,就是指分支节点,下面的翻译为了强调"分支"有时会翻译成分支结点,译者注)

为了抵达终端结点或者说获得结果,该过程从根节点开始。根据在根节点上做出的决定,选择分支节点。基于在分支节点上做出的决定,选择下一个子分支节点。这个过程继续下去,直到我们到达终端节点,终端节点的值是我们的结果。

Apache Spark中的决策树

Apache Spark中没有决策树的实现可能听起来很奇怪。然而从技术上来说是有的。在Apache Spark中,您可以找到一个随机森林算法的实现,该算法实现可以由用户指定树的数量。因此,Apache Spark使用一棵树来调用随机森林。

在Apache Spark中,决策树是在特征空间上执行递归二进制分割的贪婪算法。树给每个***部(即叶子结点)分区预测了相同的标签。为了***化树的节点处的信息增益,通过在一组可能的分支中选择其中的***分割来贪婪地选择每个分支结点。

节点不纯度(impurity)是节点上标签一致性的度量。目前的实施提供了两种不纯的分类方法(Gini杂质和熵(Gini impurity and entropy))。

 

停止规则

在满足以下列条件之一的情况下,在节点处停止递归树构建(即只要满足一个就停止,译者注):

  • 节点深度等于训练用的 maxDepth 参数。
  • 没有候选的分割结点导致信息收益大于 minInfoGain 。
  • 没有候选的分割结点去产生(至少拥有训练minInstancesPerNode实例)的子节点 。

有用的参数

  • algo:它可以是分类或回归。
  • numClasses:分类类的数量。
  • maxDepth:根据节点定义树的深度。
  • minInstancesPerNode:对于要进一步拆分的节点,其每个子节点必须至少接收到这样的训练实例数(即实例数必须等于这个参数)。
  • minInfoGain:对于一个节点进一步拆分,必须满足拆分后至少提高这么多信息量。
  • maxBins:离散连续特征时使用的bin数。

准备决策树的训练数据

您不能直接向决策树提供任何数据。它需要一种特殊的格式来提供。您可以使用 HashingTF 技术将训练数据转换为标记数据,以便决策树可以理解。这个过程也被称为数据的标准化。

(数据)供给和获得结果

一旦数据被标准化,您就可以提供相同的决策树算法进来行分类。但在此之前,您需要分割数据以用于训练和测试目的; 为了测试的准确性,你需要保留一部分数据进行测试。你可以像这样提供数据:

 

  1. al splits = data.randomSplit(Array(0.7, 0.3)) 
  2. val (trainingData, testData) = (splits(0), splits(1)) 
  3.  
  4. // Train a DecisionTree model. 
  5. // Empty categoricalFeaturesInfo indicates all features are continuous. 
  6.  
  7. val numClasses = 2 
  8. val categoricalFeaturesInfo = Map[IntInt]() 
  9. val impurity = "gini" 
  10. val maxDepth = 5 
  11. val maxBins = 32 
  12. val model = DecisionTree.trainClassifier(trainingData, numClasses, categoricalFeaturesInfo, 
  13. impurity, maxDepth, maxBins) 

在这里,数据是我的标准化输入数据,为了训练和测试目的,我将其分成7:3的比例。我们正在使用***深度的为5的"gini" 杂质("gini" impurity)。

一旦模型生成,您也可以尝试预测其他数据的分类。但在此之前,我们需要验证最近生成的模型的分类准确性。您可以通过计算"test error"来验证其准确性。

 

  1. / Evaluate model on test instances and compute test error 
  2. val labelAndPreds = testData.map { point => 
  3. val prediction = model.predict(point.features) 
  4. (point.label, prediction) 
  5.  
  6. val testErr = labelAndPreds.filter(r => r._1 != r._2).count().toDouble / testData.count() 
  7. println("Test Error = " + testErr) 

就是这样!你可以在这里查看一个正在运行的例子。

责任编辑:未丽燕 来源: 网络大数据
相关推荐

2022-11-11 08:00:00

决策树机器学习监督学习

2017-11-21 13:00:20

机器学习决策树可视化

2016-09-30 16:12:47

GBDT算法决策树

2019-05-15 09:00:00

决策树机器学习人工智能

2022-12-21 14:39:35

机器学习案发决策树

2022-01-24 09:00:00

机器学习决策树算法

2012-08-06 09:04:01

决策树建模

2017-12-12 12:24:39

Python决策树

2017-09-11 13:33:44

大数据数据可视化决策树

2017-07-18 16:25:31

机器学习算法决策树

2017-05-10 15:41:29

机器学习算法数据

2022-10-19 11:33:07

决策树策略搜索

2014-07-07 10:05:57

机械学习

2017-02-23 08:45:36

Python决策树数据集

2023-08-11 17:30:54

决策树机器学习算法

2018-02-02 17:08:48

机器学习算法决策树

2017-08-04 14:28:40

决策树随机森林CART模型

2017-10-18 14:11:20

机器学习决策树随机森林

2020-11-02 13:54:41

Python可视化决策树

2021-11-08 07:11:49

决策树数据分类器
点赞
收藏

51CTO技术栈公众号