-
-
DCF-PM2.5:用于低成本PM2.5传感器的动态校准框架
... 型
浮动
浮动
例
11.3
1个
32.5
72.5
方法:
RR,LassoR,LinearR,BR,RFR,SVR,GAM
缩写
全名
包
RR
岭回归
sklearn.linear_model.Ridge
拉索
套索回归
sklearn.linear_model.Lasso
线性R
线性回归
sklearn
-
-
Machine_Learning:Python中的我的机器学习代码
... 方程式。 我们也不必“对Logistic回归分类进行必要的使用”,但是使用它可以提高模型的性能(所以我在代码16中使用了它)。 “ KNN分类”和“ SVM(SVC)分类”以及“内核SVM(SVC)分类”和“决策树/随机森林分类”也相同。
但是,我们必须将其用于“ SVR回归”。
但是,功能扩展是深度学习的必修课! 因此,我们必须在ANN问题中做到这一点。 (就像我在“ 36_ANN_bank流失建模”中所做的那样),它是如此重要,因此我们将其应用于所有列! 我们还对“自组织地图”进行功能缩放。
* ...
-
shapley:具有基尼系数的Shaple值回归
使用具有基尼系数的Shapley值回归
这是用于使用基尼系数运行Shapley值回归的代码。 训练模型后,我们想了解每个预测变量如何对模型预测做出贡献。 解决此问题的一种方法是使用Shapley值回归(SVR)。 传统的SVR方法适用于线性回归模型,并使用Shapley值分解R平方。 该代码使用基尼系数代替R平方,因此它不仅可以应用于线性回归模型,而且可以应用于决策树,神经网络等各种不同模型。
当前支持的 ...
-
-
机器学习课程
机器学习课程(Python / R)
第1部分-数据预处理
第2部分-回归:简单线性回归,多重线性回归,多项式回归,SVR,决策树回归,随机森林回归
第3部分-分类:逻辑回归,K-NN,SVM,内核SVM,朴素贝叶斯,决策 ...
-
软件工作量估算,使用机器学习技术
使用机器学习技术的软件工作量估计
第八学期重大项目
班加罗尔Dayananda Sagar University
Desharnais数据集变量摘要
Maxwell数据集变量摘要
见解
Desharnais模型的功能:“长度”,“交易”,“实体”,“积分调整”,“积分非调整”,“努力”
火车测试成绩:0.33
线性回归得分:0.7629
线性回归负数MAE:-2436.7587
SVR得分:0.7198
SVR负面MAE:-2719.7004(已调整GridSearchCV)
资源
-
多元校正输入的钢液Mn元素LIBS定量分析
为了提高光诱导击穿光谱(LIBS)技术定量分析的精准度,用LIBS技术对不同合金钢中的Mn元素进行定量分析,结合支持向量回归(SVR)建立定标模型,研究输入向量对SVR模型的影响,并与校正后的内标法进行比较。结果表明:输入向量为内标元素校正和信背比时,测试集的相对标准偏差和相对误差的平均值分别为2.6%和11.97%,回归效果最理想;对合金钢中的Mn元素进行定量分析时,校正后的二元输入向量可以减小参数波动和校正基体效应的影响,为LIBS钢液元素定量分析优化数据输入提供了参考。
-
一种稀疏支持向量回归解的方法
尽管支持向量机(SVM)的解决方案相对稀疏,但由于支持向量的数量通常随训练集的大小线性增长,因此不必要地自由使用了基函数。 在本文中,我们提出了一种简单的后处理方法,以稀疏化支持向量回归(SVR)的解决方案。 主要思想如下:首先,我们在完整的训练设备上训练一台SVR机器。 然后,另一台SVR机器仅在具有修改后目标值的完整训练集中的子集上进行训练。 此过程反复进行几次。 实验表明,该方法在保持SVR良好泛化能力的同时,可以大大减少支持向量。
-
基于支持向量回归的温度和应变同时测量的长周期光栅
本文使用单个长周期光栅同时测量温度和应变。 为了有效降低交叉敏感度的影响,基于其在整个区域近似逼近非线性函数的特点,提出了一种支持向量回归(SVR)方法。 通过检测液化石油气不同损耗峰的共振波长的变化,通过回归预测的方式获得温度和应变,并选择适当的参数。 在SVR和标准矩阵求逆方法之间进行了一些比较。 两种方法的均方根误差分别为0.1746 C,3.82 me和2.981 C,28.61 me。 实验结果表明,SVR具有样本量小,学习能力强,泛化能力强,误差小,计算精度高等优点。
-