python鸢尾花数据集分析,
本文主要介绍利用python机器学习实现oneR算法(以虹膜数据为例)。用示例代码详细介绍,有一定的参考价值,感兴趣的朋友可以参考一下。
00-1010 1.引导打包并获取数据2。分为训练集和测试集3。定义函数:获得某特征值最频繁出现的类别和错误率4。定义函数:获取每个特征值最频繁出现的类别和错误率5。调用函数获得最佳特征值6。测试算法oneR是“一个规则”。oneR算法根据个人在现有数据中最有可能属于哪个类别,对具有相同特征值的个人进行分类。
以虹膜数据为例,算法的实现过程可以解释为以下六个步骤:
目录
以均值为阈值,大于等于阈值的特征标为1,小于阈值的特征标为0。
将numpy作为np导入
从sklearn.model_selection导入训练_测试_拆分
从sklearn.datasets导入load_iris
从集合导入默认字典
从运算符导入itemgetter
导入警告
来自sklearn.metrics导入分类_报告
#加载内置虹膜数据并保存。
数据集=load_iris()
X=数据集.数据
y=数据集.目标
attribute _ means=x . mean(axis=0)#得到一个列表,列表中元素的个数是特征值的个数,列表值是每个特征的平均值。
X _ d=np.array (x=attribute _ means,dtype= int) #到bool类型
既然已经获得了数据,就将其分为训练集和测试集。
一、 导包与获取数据
使用默认的0.25作为分割比率。即训练集:测试集=:1。
X_train,X_test,y_train,y_test=train_test_split(X_d,y,随机状态=随机状态)
数据描述:
在这个例子中有四个特征,
分割后原始数据集中有150个样本,训练集中有112个数据,测试集中有38个数据。
标签分为三类,值分别为0、1、2。
二、划分为训练集和测试集
首先,遍历要素的每个值。对于每个特征值,计算它在每个类别中出现的次数。
用以下四个参数定义一个函数:
x,y_true表示训练集数据和标签特征是特征的索引值,可以是0,1,2,3。Value是一个特性可以拥有的值,这里是0,1。该函数的意义在于,对于训练集数据,对于某个特征,依次遍历样本在该特征的真实取值,判断其是否等于特征某个可以有的取值(即value)(以0为例)。如果判断成功,将记录在字典class_counts中,以三个类别(0,1,2)中样本对应的类别为键值,表示该类别出现的次数增加1。
第一个字典(class_counts)如下:
{0: x1,1.0: x2,2.0:x3}
不一定有三个要素。
X1:在类别0中,特性特征的特征值是值(0或1)出现的次数。
X2:在类别0中,特征特性的特征值是值(0或1)出现的次数。
X3:在类别0中,特征特性的特征值是值(0或1)出现的次数。
然后将class_counts按值排序,取出指定特征的特征值出现最频繁的类别:most _ frequent _ class。
规则是:该特征的该特征值出现在其出现次数最多的类别上是合理的,出现在其它类别上是错误的。.
最后,计算这条规则的错误率:错误错误率是具有该特征的个体在除出现次数最多的类别出现的次数,代表分类规则.
不适用的个体的数量。
最后返回待预测的个体类别 和 错误率
def train_feature_value(X, y_true, feature, value):class_counts = defaultdict(int)
for sample, y_t in zip(X, y_true):
if sample[feature] == value:
class_counts[y_t] += 1
sorted_class_counts = sorted(class_counts.items(), key=itemgetter(1), reverse=True) # 降序
most_frequent_class = sorted_class_counts[0][0]
error = sum([class_count for class_value, class_count in class_counts.items()
if class_value != most_frequent_class])
return most_frequent_class, error
返回值most_frequent_class是一个字典, error是一个数字
四、定义函数:获取每个特征值下出现次数最多的类别、错误率
def train(X, y_true, feature):n_samples, n_features = X.shape
assert 0 <= feature < n_features
# 获取样本中某特征所有可能的取值
values = set(X[:, feature])
predictors = dict()
errors = []
for current_value in values:
most_frequent_class, error = train_feature_value(X, y_true, feature, current_value)
predictors[current_value] = most_frequent_class
errors.append(error)
total_error = sum(errors)
return predictors, total_error
因为most_frequent_class是一个字典,所以predictors是一个键为特征可以的取值(0和1),值为字典most_frequent_class的 字典。
total_error是一个数字,为每个特征值下的错误率的和。
五、调用函数,获取最佳特征值
all_predictors = {variable: train(X_train, y_train, variable) for variable in range(X_train.shape[1])}Errors = {variable: error for variable, (mapping, error) in all_predictors.items()}
# 找到错误率最低的特征
best_variable, best_error = sorted(Errors.items(), key=itemgetter(1))[0] # 升序
print("The best model is based on feature {0} and has error {1:.2f}".format(best_variable, best_error))
# 找到最佳特征值,创建model模型
model = {variable: best_variable,
predictor: all_predictors[best_variable][0]}
print(model)
根据代码运行结果,最佳特征值是特征2(索引值为2的feature,即第三个特征)。
对于初学者这里的代码逻辑比较复杂,可以对变量进行逐个打印查看,阅读blog学习时要盯准字眼,细品其逻辑。
print(all_predictors)print(all_predictors[best_variable])
print(all_predictors[best_variable][0])
六、测试算法
定义预测函数,对测试集数据进行预测
def predict(X_test, model):variable = model[variable]
predictor = model[predictor]
y_predicted = np.array([predictor[int(sample[variable])] for sample in X_test])
return y_predicted
# 对测试集数据进行预测
y_predicted = predict(X_test, model)
print(y_predicted)
预测结果:
# 统计预测准确率accuracy = np.mean(y_predicted == y_test) * 100
print("The test accuracy is {:.1f}%".format(accuracy))
根据打印结果,该模型预测的准确率可达65.8%,对于只有一条规则的oneR算法而言,结果是比较良好的。到此便实现了oneR算法的一次完整应用。
最后,还可以使用classification_report()方法,传入测试集的真实值和预测值,打印出模型评估报告。
# 屏蔽警告warnings.filterwarnings("ignore")
# 打印模型评估报告
print(classification_report(y_test, y_predicted)) # 参数为测试集的真实数据和预测数据
到此这篇关于python机器学习实现oneR算法(以鸢尾data为例)的文章就介绍到这了,更多相关python oneR算法内容请搜索盛行IT软件开发工作室以前的文章或继续浏览下面的相关文章希望大家以后多多支持盛行IT软件开发工作室!
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。