人工智能和机器学习之回归算法:岭回归:特征选择与岭回归_第1页
人工智能和机器学习之回归算法:岭回归:特征选择与岭回归_第2页
人工智能和机器学习之回归算法:岭回归:特征选择与岭回归_第3页
人工智能和机器学习之回归算法:岭回归:特征选择与岭回归_第4页
人工智能和机器学习之回归算法:岭回归:特征选择与岭回归_第5页
已阅读5页,还剩13页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能和机器学习之回归算法:岭回归:特征选择与岭回归1回归算法基础1.11线性回归简介线性回归是一种用于预测连续值输出的监督学习算法。它假设输入特征与输出变量之间存在线性关系,通过拟合最佳线性方程来预测输出。线性回归模型可以表示为:y其中,y是目标变量,x1,x2,1.1.1示例代码假设我们有以下数据集,其中包含房屋面积(平方米)和价格(万元):面积(平方米)价格(万元)5010060120701408016090180importnumpyasnp

fromsklearn.linear_modelimportLinearRegression

#数据集

X=np.array([[50],[60],[70],[80],[90]])

y=np.array([100,120,140,160,180])

#创建线性回归模型

model=LinearRegression()

#训练模型

model.fit(X,y)

#预测价格

predicted_price=model.predict(np.array([[75]]))

print("预测价格:",predicted_price[0])1.22最小二乘法原理最小二乘法是一种用于线性回归模型参数估计的方法。其目标是最小化预测值与实际值之间的平方误差之和。数学上,最小二乘法求解以下问题:min1.2.1示例代码使用最小二乘法手动计算线性回归参数:importnumpyasnp

#数据集

X=np.array([[1,50],[1,60],[1,70],[1,80],[1,90]])

y=np.array([100,120,140,160,180])

#计算参数

X_T=X.T

beta=np.linalg.inv(X_T@X)@X_T@y

print("参数估计:",beta)1.33过拟合与欠拟合问题过拟合和欠拟合是机器学习模型常见的问题。过拟合是指模型在训练数据上表现很好,但在新数据上表现不佳,模型过于复杂,捕捉了训练数据的噪声。欠拟合是指模型在训练数据和新数据上都表现不佳,模型过于简单,无法捕捉数据的复杂性。1.3.1解决方案过拟合:使用正则化技术,如岭回归和Lasso回归,减少模型复杂度。欠拟合:增加模型复杂度,如增加多项式特征,或使用更复杂的模型。1.44正则化技术概述正则化是在损失函数中添加一个惩罚项,以防止模型过拟合。常见的正则化技术有L1正则化(Lasso回归)和L2正则化(岭回归)。1.4.1岭回归岭回归使用L2正则化,通过在损失函数中添加所有权重的平方和的惩罚项,来限制权重的大小。岭回归的损失函数可以表示为:L其中,λ是正则化参数,控制正则化强度。1.4.2示例代码使用岭回归模型预测房价:fromsklearn.linear_modelimportRidge

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.metricsimportmean_squared_error

#数据集

X=np.array([[50],[60],[70],[80],[90]])

y=np.array([100,120,140,160,180])

#划分训练集和测试集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#创建岭回归模型

ridge=Ridge(alpha=1.0)

#训练模型

ridge.fit(X_train,y_train)

#预测价格

predicted_prices=ridge.predict(X_test)

#计算均方误差

mse=mean_squared_error(y_test,predicted_prices)

print("均方误差:",mse)在这个例子中,我们使用了sklearn库中的Ridge类来实现岭回归。通过调整alpha参数,我们可以控制正则化的强度,从而影响模型的复杂度和预测性能。2岭回归原理与应用2.11岭回归的数学基础岭回归是一种用于解决多重共线性问题的线性回归方法。在标准的线性回归模型中,我们试图找到一组权重向量β,使得预测值y与实际值Xβ之间的差异最小化。这个目标通常通过最小化残差平方和(RSS)来实现,即最小化∥岭回归通过在RSS上添加一个惩罚项来解决这个问题,这个惩罚项是权重向量β的欧几里得范数的平方,乘以一个正则化参数λ。因此,岭回归的目标函数变为:min这个惩罚项有助于防止权重向量的元素变得过大,从而提高了模型的稳定性。解这个优化问题得到的权重向量β会比普通最小二乘法的解更加稳定,尤其是在特征之间存在多重共线性的情况下。2.1.1示例代码假设我们有以下数据集:x1x2y112224336448由于x1和ximportnumpyasnp

fromsklearn.linear_modelimportRidge

#数据集

X=np.array([[1,1],[2,2],[3,3],[4,4]])

y=np.array([2,4,6,8])

#创建岭回归模型

ridge=Ridge(alpha=1.0)#alpha对应于λ

#训练模型

ridge.fit(X,y)

#输出权重向量

print("权重向量:",ridge.coef_)2.22岭回归与普通最小二乘法的对比普通最小二乘法(OLS)试图找到使残差平方和最小的权重向量β,即:min然而,当特征之间存在多重共线性时,OLS的解可能不稳定,权重向量的元素可能变得非常大。岭回归通过在目标函数中添加一个正则化项来解决这个问题,这个正则化项是权重向量β的欧几里得范数的平方乘以一个正则化参数λ:min正则化参数λ的值决定了对权重向量大小的惩罚程度。较大的λ值会导致权重向量的元素更小,从而减少模型的复杂性,但可能会增加偏差。较小的λ值允许权重向量的元素变得更大,从而减少偏差,但可能会增加方差。2.2.1示例代码使用相同的示例数据集,我们可以比较OLS和岭回归的解:fromsklearn.linear_modelimportLinearRegression

#OLS模型

ols=LinearRegression()

ols.fit(X,y)

print("OLS权重向量:",ols.coef_)

#岭回归模型

ridge=Ridge(alpha=1.0)

ridge.fit(X,y)

print("岭回归权重向量:",ridge.coef_)2.33岭参数的选择正则化参数λ(在sklearn中表示为alpha)的选择对岭回归模型的性能至关重要。λ的值决定了模型对权重向量大小的惩罚程度。选择λ的一个常见方法是通过交叉验证(CV)来确定,即在不同的λ值下训练模型,并在验证集上评估模型的性能,选择使验证集上的平均误差最小的λ值。2.3.1示例代码使用sklearn的GridSearchCV来选择最佳的λ值:fromsklearn.model_selectionimportGridSearchCV

#定义参数网格

param_grid={'alpha':[0.1,1.0,10.0,100.0]}

#创建岭回归模型

ridge=Ridge()

#使用GridSearchCV来找到最佳的α值

grid_search=GridSearchCV(ridge,param_grid,cv=5)

grid_search.fit(X,y)

#输出最佳参数

print("最佳α值:",grid_search.best_params_)2.44岭回归在实际问题中的应用岭回归在处理特征之间存在多重共线性的问题时特别有效。例如,在基因表达数据的分析中,不同的基因可能高度相关,这可能导致OLS回归的不稳定。岭回归可以通过减少权重向量的大小来解决这个问题,从而提供更稳定的预测。2.4.1示例代码假设我们有一组基因表达数据,其中包含100个样本和1000个基因的表达水平,以及一个连续的响应变量(如疾病严重程度)。我们可以使用岭回归来预测响应变量:importpandasaspd

#读取数据

data=pd.read_csv('gene_expression.csv')

#分离特征和响应变量

X=data.iloc[:,:-1].values

y=data.iloc[:,-1].values

#使用岭回归进行预测

ridge=Ridge(alpha=1.0)

ridge.fit(X,y)

#预测新的样本

new_sample=np.array([1.2,0.5,0.8,...,0.3])#假设这是1000个基因的表达水平

prediction=ridge.predict([new_sample])

print("预测值:",prediction)在实际应用中,我们通常需要对数据进行预处理,包括标准化特征和分割数据集为训练集和测试集,以评估模型的泛化能力。此外,选择合适的正则化参数λ对于模型的性能至关重要,这通常通过交叉验证来实现。3特征选择的重要性3.11特征选择对模型性能的影响特征选择是机器学习中一个关键步骤,它涉及到从原始数据集中挑选出最相关的特征,以用于构建预测模型。这一过程不仅能够减少模型的复杂度,提高计算效率,还能避免过拟合,提升模型的泛化能力。在回归分析中,特征选择尤为重要,因为它直接影响到模型的解释性和预测精度。3.1.1示例:使用岭回归进行特征选择岭回归是一种线性回归模型,它通过在损失函数中加入L2正则化项来惩罚较大的回归系数,从而实现特征选择和模型简化。下面的代码示例展示了如何使用Python的scikit-learn库中的Ridge类进行特征选择。importnumpyasnp

fromsklearn.linear_modelimportRidge

fromsklearn.datasetsimportload_boston

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.metricsimportmean_squared_error

#加载波士顿房价数据集

boston=load_boston()

X=boston.data

y=boston.target

#划分训练集和测试集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3,random_state=42)

#创建岭回归模型,设置正则化参数alpha

ridge=Ridge(alpha=1.0)

#训练模型

ridge.fit(X_train,y_train)

#预测

y_pred=ridge.predict(X_test)

#计算均方误差

mse=mean_squared_error(y_test,y_pred)

print(f'MeanSquaredError:{mse}')

#查看特征系数,系数接近0的特征可以视为不重要

coefficients=ridge.coef_

print(f'Coefficients:{coefficients}')在这个例子中,我们使用了波士顿房价数据集,通过岭回归模型训练后,可以观察到某些特征的系数接近于零,这表明这些特征对模型的贡献较小,可以考虑在后续的模型构建中排除这些特征,以简化模型并提高效率。3.22特征选择的基本方法特征选择方法大致可以分为三类:过滤式、包裹式和嵌入式。过滤式方法:基于特征与目标变量之间的统计关系进行选择,如相关系数、卡方检验等。包裹式方法:将特征选择视为一个搜索问题,通过评估不同特征组合下的模型性能来选择最佳特征集,如递归特征消除(RFE)。嵌入式方法:在模型训练过程中同时进行特征选择,如LASSO回归、岭回归等正则化方法。3.2.1示例:使用递归特征消除(RFE)进行特征选择递归特征消除是一种包裹式特征选择方法,它通过递归地移除特征并训练模型,直到找到最佳特征组合。下面的代码示例展示了如何使用scikit-learn库中的RFE类进行特征选择。fromsklearn.feature_selectionimportRFE

#创建RFE对象,基于岭回归模型

rfe=RFE(estimator=Ridge(alpha=1.0),n_features_to_select=5)

#使用RFE进行特征选择

rfe.fit(X_train,y_train)

#获取选择的特征

selected_features=rfe.support_

print(f'SelectedFeatures:{selected_features}')

#使用选择的特征重新训练模型

X_train_rfe=X_train[:,selected_features]

X_test_rfe=X_test[:,selected_features]

ridge.fit(X_train_rfe,y_train)

#预测

y_pred_rfe=ridge.predict(X_test_rfe)

#计算均方误差

mse_rfe=mean_squared_error(y_test,y_pred_rfe)

print(f'MeanSquaredError(RFE):{mse_rfe}')在这个例子中,我们使用RFE方法选择了5个最重要的特征,并使用这些特征重新训练了岭回归模型。通过比较使用所有特征和使用选择特征的模型性能,我们可以评估特征选择的效果。3.33特征选择与岭回归的结合特征选择和岭回归可以结合使用,以进一步提高模型的性能和解释性。特征选择可以先减少特征空间的维度,然后使用岭回归进行模型训练,这样可以避免岭回归在高维特征空间中可能遇到的计算问题,同时也能提高模型的预测精度。3.3.1示例:结合RFE和岭回归进行特征选择和模型训练下面的代码示例展示了如何先使用RFE进行特征选择,然后使用岭回归进行模型训练。#使用RFE进行特征选择

rfe=RFE(estimator=Ridge(alpha=1.0),n_features_to_select=5)

rfe.fit(X_train,y_train)

#使用选择的特征重新训练岭回归模型

X_train_rfe=X_train[:,rfe.support_]

X_test_rfe=X_test[:,rfe.support_]

ridge=Ridge(alpha=1.0)

ridge.fit(X_train_rfe,y_train)

#预测

y_pred_rfe=ridge.predict(X_test_rfe)

#计算均方误差

mse_rfe=mean_squared_error(y_test,y_pred_rfe)

print(f'MeanSquaredError(RFE+Ridge):{mse_rfe}')通过这个例子,我们可以看到,先进行特征选择,再使用岭回归,可以有效地提高模型的性能,同时减少模型的复杂度,使得模型更加易于理解和解释。4岭回归中的特征选择4.11基于岭回归的特征权重分析岭回归(RidgeRegression)是一种线性回归模型,它通过在损失函数中加入正则化项来解决多重共线性问题,从而提高模型的稳定性。在岭回归中,正则化项通常为所有特征权重的平方和的λ倍,其中λ是正则化参数。这个参数控制着模型对特征权重的惩罚程度,较大的λ值会导致特征权重更小,从而减少模型的复杂度。4.1.1特征权重分析在岭回归中,特征的权重(系数)可以用来分析特征的重要性。权重的绝对值越大,表示该特征对模型预测的影响越大。通过观察岭回归模型中不同特征的权重,我们可以识别出哪些特征对模型的预测贡献最大,哪些特征的贡献较小,甚至可以忽略。4.1.2示例代码假设我们使用Python的scikit-learn库来实现岭回归,并分析特征权重。importnumpyasnp

importpandasaspd

fromsklearn.linear_modelimportRidge

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.metricsimportmean_squared_error

#创建示例数据

np.random.seed(0)

X=np.random.rand(100,5)

y=X[:,0]*2+X[:,1]*1.5+X[:,2]*0.5+np.random.randn(100)*0.1

#转换为DataFrame以方便查看

df=pd.DataFrame(X,columns=['Feature1','Feature2','Feature3','Feature4','Feature5'])

df['Target']=y

#划分数据集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#岭回归模型

ridge=Ridge(alpha=1.0)

ridge.fit(X_train,y_train)

#预测

y_pred=ridge.predict(X_test)

#计算MSE

mse=mean_squared_error(y_test,y_pred)

print(f'MeanSquaredError:{mse}')

#分析特征权重

feature_weights=ridge.coef_

print('FeatureWeights:')

forfeature,weightinzip(df.columns[:-1],feature_weights):

print(f'{feature}:{weight}')4.1.3解释在上述代码中,我们首先生成了一个包含5个特征和一个目标变量的随机数据集。然后,使用train_test_split函数将数据集划分为训练集和测试集。接下来,我们创建了一个岭回归模型,并使用训练集对其进行训练。模型训练完成后,我们使用测试集进行预测,并计算预测结果与实际结果之间的均方误差(MSE)以评估模型的性能。最后,我们通过打印模型的特征权重来分析特征的重要性。在这个例子中,Feature1的权重最大,Feature3次之,而Feature4和Feature5的权重较小,这表明前两个特征对模型的预测贡献最大。4.22使用岭回归进行特征选择的步骤使用岭回归进行特征选择的步骤如下:数据预处理:对数据进行标准化或归一化处理,确保所有特征在相同尺度上。模型训练:使用岭回归模型对数据进行训练,选择一个合适的正则化参数λ。特征权重分析:分析模型的特征权重,识别出权重较大的特征。特征选择:基于特征权重的大小,选择权重较大的特征作为模型的输入。模型优化:使用选择后的特征重新训练模型,并评估模型的性能。4.2.1示例代码以下是一个使用岭回归进行特征选择的示例代码:fromsklearn.preprocessingimportStandardScaler

#数据预处理

scaler=StandardScaler()

X_train_scaled=scaler.fit_transform(X_train)

X_test_scaled=scaler.transform(X_test)

#岭回归模型训练

ridge=Ridge(alpha=1.0)

ridge.fit(X_train_scaled,y_train)

#特征权重分析

feature_weights=ridge.coef_

print('ScaledFeatureWeights:')

forfeature,weightinzip(df.columns[:-1],feature_weights):

print(f'{feature}:{weight}')

#特征选择

selected_features=['Feature1','Feature2']#假设我们选择前两个特征

X_train_selected=X_train_scaled[:,[0,1]]

X_test_selected=X_test_scaled[:,[0,1]]

#模型优化

ridge_optimized=Ridge(alpha=1.0)

ridge_optimized.fit(X_train_selected,y_train)

#评估优化后的模型

y_pred_optimized=ridge_optimized.predict(X_test_selected)

mse_optimized=mean_squared_error(y_test,y_pred_optimized)

print(f'OptimizedMeanSquaredError:{mse_optimized}')4.2.2解释在这个示例中,我们首先对数据进行了预处理,使用StandardScaler对特征进行标准化。然后,我们训练了一个岭回归模型,并分析了特征权重。基于特征权重的大小,我们选择了前两个特征进行模型优化。最后,我们使用选择后的特征重新训练模型,并评估了优化后模型的性能。4.33特征选择后的模型评估与优化特征选择后,模型评估与优化的步骤包括:模型评估:使用测试集评估模型的性能,常见的评估指标有MSE、R^2分数等。参数调优:根据模型评估结果,调整岭回归的正则化参数λ,以进一步优化模型性能。交叉验证:使用交叉验证来更准确地评估模型的泛化能力,避免过拟合。4.3.1示例代码以下是一个使用交叉验证进行参数调优的示例代码:fromsklearn.model_selectionimportGridSearchCV

#参数调优

param_grid={'alpha':np.logspace(-4,4,100)}

ridge_cv=GridSearchCV(Ridge(),param_grid,cv=5,scoring='neg_mean_squared_error')

ridge_cv.fit(X_train_selected,y_train)

#最佳参数

best_alpha=ridge_cv.best_params_['alpha']

print(f'BestAlpha:{best_alpha}')

#使用最佳参数重新训练模型

ridge_optimized=Ridge(alpha=best_alpha)

ridge_optimized.fit(X_train_selected,y_train)

#评估优化后的模型

y_pred_optimized=ridge_optimized.predict(X_test_selected)

mse_optimized=mean_squared_error(y_test,y_pred_optimized)

print(f'OptimizedMeanSquaredError:{mse_optimized}')4.3.2解释在这个示例中,我们使用了GridSearchCV来进行参数调优。我们定义了一个参数网格param_grid,其中包含了100个不同的α值。然后,我们使用5折交叉验证来评估不同α值下的模型性能,并选择性能最佳的α值作为模型的正则化参数。最后,我们使用最佳参数重新训练模型,并评估了优化后模型的性能。通过以上步骤,我们可以有效地使用岭回归进行特征选择,并进一步优化模型,提高其预测性能和稳定性。5岭回归与特征选择的实战案例5.11案例背景与数据准备在本案例中,我们将使用一个虚构的房地产数据集来预测房屋价格。数据集包含多个特征,如房屋面积、卧室数量、地理位置等,以及对应的房屋价格。我们的目标是构建一个岭回归模型,以预测房屋价格,并通过特征选择来确定哪些特征对价格预测最为关键。5.1.1数据集描述特征:房屋面积(平方米)、卧室数量、浴室数量、地理位置(编码后的区域信息)、建筑年份、是否靠近公园(二进制变量)。目标变量:房屋价格(万元)。5.1.2数据准备首先,我们需要加载数据并进行初步的探索性数据分析(EDA),以理解数据的分布和特征之间的关系。importpandasaspd

importnumpyasnp

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.preprocessingimportStandardScaler

#加载数据

data=pd.read_csv('real_estate_data.csv')

#数据预览

print(data.head())

#分割数据集

X=data.drop('price',axis=1)

y=data['price']

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#特征缩放

scaler=StandardScaler()

X_train=scaler.fit_transform(X_train)

X_test=scaler.transform(X_test)5.22特征工程与数据预处理特征工程是机器学习中一个关键步骤,它包括特征选择、特征创建和特征转换。在本节中,我们将使用岭回归的系数来评估特征的重要性,并进行特征选择。5.2.1特征选择岭回归通过在损失函数中加入L2正则化项,可以抑制模型的过拟合。正则化参数(lambda)的选择对特征权重有直接影响,较大的lambda值会使得特征权重更小,从而实现特征选择。fromsklearn.linear_modelimportRidge

fromsklearn.metricsimportmean_squared_error

#创建岭回归模型

ridge=Ridge(alpha=1.0)

#训练模型

ridge.fit(X_train,y_train)

#计算训练集和测试集的MSE

y_train_pred=ridge.predict(X_train)

y_test_pred=ridge.predict(X_test)

train_mse=mean_squared_error(y_train,y_train_pred)

test_mse=mean_squared_error(y_test,y_test_pred)

#输出MSE

print(f"训练集MSE:{train_mse}")

print(f"测试集MSE:{test_mse}")

#输出特征权重

feature_weights=ridge.coef_

print("特征权重:",feature_weights)5.33模型训练与参数调优在模型训练阶段,我们将使用网格搜索(GridSearchCV)来寻找最佳的正则化参数alpha,以优化岭回归模型的性能。5.3.1参数调优使用网格搜索可以系统地尝试一系列参数组合,找到使模型性能最佳的参数设置。fromsklearn.model_selectionimportGridSearchCV

#定义参数网格

param_grid={'alpha':np.logspace(-4,4,100)}

#创建网格搜索对象

grid_search=GridSearchCV(Ridge(),param_grid,cv=5,scoring='neg_mean_squared_error')

#执行网格搜索

grid_search.fit(X_train,y_train)

#输出最佳参数

best_alpha=grid_search.best_params_['alpha']

print("最佳正则化参数:",best_alpha)

#使用最佳参数重新训练模型

best_ridge=Ridge(alpha=best_alpha)

best_ridge.fit(X_train,y_train)

#计算最佳模型的MSE

best_y_train_pred=best_ridge.predict(X_train)

best_y_test_pred=best_ridge.predict(X_test)

best_train_mse=mean_squared_error(y_train,best_y_train_pred)

best_test_mse=mean_squared_error(y_test,best_y_test_pred)

#输出MSE

print(f"最佳模型训练集MSE:{best_train_mse}")

print(f"最佳模型测试集MSE:{best_test_mse}")5.44结果分析与特征重要性解读在模型训练和参数调优后,我们将分析模型的性能,并解读特征的重要性。5.4.1结果分析通过比较不同正则化参数下的模型性能,我们可以确定最佳的alpha值。此外,我们还可以通过特征权重来理解哪些特征对预测房屋价格最为关键。#输出最佳模型的特征权重

best_feature_weights=best_ridge.coef_

print("最佳模型特征权重:",best_feature_weights)

#特征重要性排序

feature_importance=pd.Series(best_feature_weights,index=X.columns).sort_values(ascending=False)

print("特征重要性排序:")

print(feature_importance)

#分析特征重要性

important_features=feature_importance[feature_importance.abs()>0.1]

print("关键特征:")

print(important_features)5.4.2特征重要性解读特征权重的绝对值越大,表示该特征对模型预测的贡献越大。通过分析特征权重,我们可以识别出对房屋价格预测影响最大的特征,如房屋面积、卧室数量等,这有助于我们理解房地产市场的关键驱动因素。通过上述步骤,我们不仅构建了一个预测房屋价格的岭回归模型,还通过特征选择和参数调优提高了模型的性能,并深入解读了特征的重要性,为后续的模型应用和市场分析提供了有价值的信息。5.5总结与进一步学习5.5.11岭回归与特征选择的关键点回顾在本教程中,我们深入探讨了岭回归算法及其在特征选择中的应用。岭回归是一种线性回归模型,通过在损失函数中加入L2正则化项来解决多重共线性和过拟合问题。L2正则化通过惩罚较大的回归系数,促使模型选择较小的系数,从而提高模型的泛化能力。5.5.1.1关键概念L2正则化:通过在损失函数中加入权重系数的平方和的惩罚项,来限制模型的复杂度。特征选择:在模型训练过程中,识别并选择对预测结果影响最大的特征,以简化模型并提高预测性能。超参数调整:选择合适的正则化参数(λ)对于岭回归模型的性能至关重要。通常使用交叉验证来寻找最佳的λ值。5.5.1.2代码示例下面是一个使用Python的scikit-learn库进行岭回归特征选择的示例。我们将使用一个简单的数据集来演示如何应用岭回归,并通过特征系数的大小来识别重要特征。#导入必要的库

importnumpyasnp

importpandasaspd

fromsklearn.linear_modelimportRidge

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.metric

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论