多任务线性回归-共同特征利用_第1页
多任务线性回归-共同特征利用_第2页
多任务线性回归-共同特征利用_第3页
多任务线性回归-共同特征利用_第4页
多任务线性回归-共同特征利用_第5页
已阅读5页,还剩19页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1/1多任务线性回归-共同特征利用第一部分多任务学习的定义与优势 2第二部分共同特征利用在多任务学习中的作用 3第三部分特征降维与共享特征空间的构建 6第四部分线性回归模型的扩展与多任务扩展 9第五部分损失函数设计与优化算法选择 11第六部分模型评估与选择性泛化的讨论 14第七部分多任务线性回归的实际应用场景 17第八部分未来研究方向与潜在挑战 19

第一部分多任务学习的定义与优势多任务学习的定义与优势

一、定义

多任务学习(Multi-TaskLearning,MTL)是一种机器学习范式,它同时学习多个相关的任务。与单任务学习不同,MTL假设这些任务共享底层特征或知识。通过这种方式,MTL可以利用任务之间的共性来提高每个任务的性能。

二、优势

MTL具有以下几个优势:

1.知识共享:MTL通过识别和利用任务之间的共性来提高每个任务的性能。当任务高度相关时,它们可能共享许多相同的特征。通过共享这些特征,MTL可以提高模型在每个任务上的泛化能力。

2.数据效率:MTL可以提高数据效率,尤其是在数据稀缺的情况下。通过同时学习多个任务,MTL可以从一个任务中获得的信息来提高另一个任务的性能。这可以减少每个任务所需的训练数据量。

3.鲁棒性:MTL可以提高模型的鲁棒性。当任务高度相关时,它们可能会受到类似的噪声和异常值的影响。通过同时学习多个任务,MTL可以分散对单个任务的依赖,并增强模型对噪声和异常值的抵御能力。

4.可解释性:MTL可以提高模型的可解释性。通过识别任务之间的共性,MTL可以揭示底层特征的重要性。这可以帮助研究人员了解模型的决策过程,并促进模型的改进。

5.实际应用:MTL在许多实际应用中得到了成功应用,包括:

*自然语言处理:机器翻译、文本分类、命名实体识别

*计算机视觉:图像识别、对象检测、视频理解

*推荐系统:推荐产品、新闻、电影

*金融:风险管理、投资预测、欺诈检测

三、局限性

尽管MTL具有许多优势,但也存在一些局限性:

1.负迁移:在某些情况下,MTL可能导致负迁移。当任务之间存在竞争关系时,模型可能无法有效地学习共享特征。这会导致每个任务的性能下降。

2.过拟合:MTL可以增加过拟合的风险。当任务之间高度相关时,模型可能过分拟合训练数据,从而损害泛化能力。

3.模型复杂性:MTL模型通常比单任务模型更复杂。这可能增加训练时间和计算成本。第二部分共同特征利用在多任务学习中的作用关键词关键要点共同表示学习

1.共同表示学习可以提取任务相关特征,减少特征冗余,提高模型鲁棒性和泛化能力。

2.通过共享表示空间,不同任务可以互相促进学习,提高整体模型性能。

3.共同表示学习避免了特征重复提取,降低了模型复杂度和计算成本。

任务相关性挖掘

1.任务相关性挖掘可以识别不同任务之间的关联,提取出共性特征。

2.通过任务相关性分析,可以优化特征选择,增强模型的泛化能力。

3.任务相关性挖掘有助于构建任务关系图谱,指导模型的共同表示学习。

基于注意力的表示共享

1.基于注意力的表示共享机制可以动态调整不同任务特征的重要程度。

2.注意力机制赋予模型选择性特征提取的能力,提高了表示共享的效率。

3.该机制促进了任务间异构特征的融合,增强了模型在不同任务上的适应性。

基于生成模型的表示生成

1.基于生成模型的表示生成技术可以生成新的任务相关特征,丰富共同表示空间。

2.生成模型能够捕捉任务中的分布特征,增强模型的泛化能力。

3.该技术为任务相关特征的挖掘和生成提供了新的思路,促进了多任务学习的发展。

迁移学习与知识蒸馏

1.迁移学习与知识蒸馏可以利用已学习的知识,辅助新任务的学习。

2.迁移学习将源任务的知识转移到目标任务,缩小任务间知识差距。

3.知识蒸馏通过教师模型指导学生模型的学习,提升学生模型的表示能力。

任务加权与适应性

1.任务加权与适应性策略可以平衡不同任务的重要性,促进模型的公平性和整体性能。

2.任务加权调整任务之间的权重,避免易学任务主导模型学习。

3.适应性方法动态调整模型参数或学习率,提升模型在不同任务上的适应能力。共同特征利用在多任务学习中的作用

多任务学习

多任务学习(MTL)是一种机器学习范式,在这种范式中,模型同时学习多个相关任务。通过共享表示和正则化,MTL可以提高各个任务的性能。

共同特征利用

共同特征利用是MTL中的关键机制,它允许模型从不同任务中提取共同特征。这些特征可以是任务无关的(例如,输入数据的统计特征)或任务相关的(例如,跨任务重复出现的模式)。

共同特征利用的优点

共同特征利用在MTL中具有多项优点:

*提高泛化能力:共享特征可以防止模型过拟合,因为它们为模型提供了有关任务之间相似性和差异性的信息。

*效率提升:通过共享特征,MTL可以减少模型参数的数量,从而提高训练效率和泛化性能。

*鲁棒性增强:共同特征利用可以增强模型对噪音和异常值的鲁棒性,因为不同的任务可以相互补偿并提供稳健性。

共同特征利用的方法

有各种方法可以实现共同特征利用,包括:

*多任务模型:这些模型显式地共享跨任务的特征,例如,多任务神经网络的多层感知器。

*特征表示学习:这些方法学习共享的任务无关特征表示,例如,主成分分析(PCA)或奇异值分解(SVD)。

*正则化:正则化技术可以鼓励模型从不同任务中学习共同特征,例如,组LASSO正则化或转移学习正则化。

评估共同特征利用

评估共同特征利用的有效性至关重要。常用的度量包括:

*任务性能:评估每个任务的个体性能,以确定MTL是否优于单任务学习。

*共同特征重要性:确定共享特征对每个任务的影响,以了解其对性能的贡献。

*表示稳定性:评估共享特征在不同任务和场景中的稳定性,以确保泛化能力。

应用

共同特征利用在各种应用中都有应用,包括:

*自然语言处理:跨多个语言任务(例如,机器翻译、命名实体识别)共享特征。

*计算机视觉:跨多个视觉任务(例如,图像分类、目标检测)共享特征。

*生物信息学:跨多个生物信息学任务(例如,疾病预测、基因表达分析)共享特征。

结论

共同特征利用是MTL的关键,它通过共享不同任务中的信息来提高性能和效率。通过利用各种方法和评估技术,可以有效地利用共同特征,并获得比单任务学习更好的结果。第三部分特征降维与共享特征空间的构建关键词关键要点特征降维

1.通过主成分分析(PCA)、奇异值分解(SVD)等方法将高维特征映射到低维空间,减少特征维度和计算复杂度。

2.降维后的特征仍能保留原始特征的大部分信息,提高模型泛化能力。

3.降维操作需要考虑信息损失与计算效率的平衡,选择合适的降维方法至关重要。

共享特征空间构建

特征降维与共享特征空间的构建

特征降维旨在减少输入特征的维度,以提高模型的效率和鲁棒性。在多任务线性回归中,可以利用特征降维来减少不同任务共享的特征数量,从而降低模型的复杂性和计算成本。

主成分分析(PCA)

PCA是一种常用的特征降维技术,它通过寻找最大化方差的主成分来投影数据到低维空间。对于具有r个特征的多任务回归,PCA将产生r个主成分,每个主成分对应一个特征向量。选择前k个主成分可以得到一个k维的降维空间,其中k通常小于r。

奇异值分解(SVD)

SVD是一种更通用的特征降维技术,它可以将矩阵分解为三个矩阵的乘积:U、Σ和V。U和V是正交矩阵,Σ是对角矩阵,其中的对角线元素是矩阵的奇异值。选择Σ的前k个奇异值可以得到一个k维的降维空间。

构建共享特征空间

降维后,可以针对不同的任务构建共享特征空间。共享特征空间是所有任务共有的特征表示,它可以提高模型的泛化能力和稳定性。

特征融合

一种构建共享特征空间的方法是特征融合。特征融合将不同任务降维后的特征连接起来,形成一个新的特征集。例如,对于m个任务,每个任务降维后得到k个特征,则特征融合后得到一个mk维的共享特征空间。

主成分回归

另一种构建共享特征空间的方法是主成分回归。主成分回归使用主成分分析将不同任务的输入特征投影到一个低维的共享特征空间。与特征融合不同,主成分回归会考虑不同任务之间的相关性,从而获得更有效的共享特征空间。

共享特征空间的优点

构建共享特征空间具有以下优点:

*提高模型的泛化能力:共享特征空间可以捕捉不同任务共有的特征信息,从而提高模型对新任务的泛化能力。

*提高模型的稳定性:共享特征空间可以减少模型对于单个任务特征变化的敏感性,从而提高模型的稳定性。

*减少模型的复杂性和计算成本:共享特征空间可以减少模型的输入特征数量,从而降低模型的复杂性和计算成本。

结论

特征降维和共享特征空间的构建是多任务线性回归中重要的技术。通过降维和共享特征,可以提高模型的效率、鲁棒性和泛化能力。主成分分析、奇异值分解和特征融合等技术可以用于构建共享特征空间,从而发挥多任务学习的优势。第四部分线性回归模型的扩展与多任务扩展关键词关键要点【线性回归模型的扩展】

1.协变量与响应变量的类型多样化:线性回归模型可以扩展到多元回归、广义线性回归等,从而处理各种类型的数据,如连续、分类、有序等。

2.模型复杂度的增加:随着协变量数量和复杂性的增加,模型也会变得更加复杂,需要考虑正则化、特征选择等技术来防止过拟合。

3.模型的泛化能力提升:通过扩展线性回归模型,模型可以更好地捕捉数据中的非线性关系,提高泛化能力,并为预测和解释提供更准确的结果。

【多任务扩展】

线性回归模型的扩展与多任务扩展

一、线性回归模型的扩展

线性回归是一种机器学习算法,用于预测连续型目标变量。基本线性回归模型的方程为:

```

y=β0+β1x1+β2x2+...+βnxn+ε

```

其中:

*y:目标变量

*x1,x2,...,xn:自变量

*β0,β1,...,βn:模型系数

*ε:误差项

为了捕捉更复杂的关系,线性回归模型可以进行多种扩展,包括:

*多项式回归:增加自变量的幂次,以适应非线性关系。

*岭回归(L2正则化):添加惩罚项以防止过拟合,提高模型的泛化能力。

*套索回归(L1正则化):也添加惩罚项,但与岭回归不同,它可以实现变量选择,即识别出与目标变量最相关的自变量。

二、多任务扩展

多任务扩展是线性回归模型的一种特殊扩展,可以同时处理多个目标变量。在这种情况下,每个目标变量都有其独立的系数,但模型利用自变量之间的共同特征来提高预测精度。

1.多任务学习的类型

多任务学习可分为两类:

*硬参数共享:所有任务共享相同的模型系数,这意味着自变量对每个任务的影响是相同的。

*软参数共享:不同任务具有不同的模型系数,但系数之间具有正则化约束,鼓励它们彼此相似。

2.多任务学习的好处

多任务学习提供了以下好处:

*提高预测精度:通过共享自变量的共同特征,多任务模型可以利用任务之间的相关性来提高单个任务的预测精度。

*减少过拟合:正则化约束有助于防止过拟合,尤其是在任务数量大于自变量数量的情况下。

*变量选择:软参数共享可以帮助识别跨任务具有重要性的自变量,从而促进变量选择。

3.多任务学习的算法

多任务学习可以使用多种算法实现,包括:

*多任务Lasso:一种套索回归算法,通过正则化约束鼓励系数相似性。

*多任务核方法:内核方法,利用核技巧来捕获自变量之间的非线性关系。

*深度多任务网络:深度学习网络,可以同时执行多个任务,并利用任务之间的协同作用来提高性能。

4.多任务学习的应用

多任务学习已广泛应用于各种领域,包括:

*自然语言处理:文本分类、机器翻译

*计算机视觉:图像分类、对象检测

*推荐系统:商品推荐、电影推荐

*生物信息学:基因表达预测、疾病诊断第五部分损失函数设计与优化算法选择关键词关键要点损失函数设计

1.均方误差(MSE):衡量预测值和实际值之间的平方差,常用于回归问题。它的优点是简单、易于计算,但对离群点敏感。

2.平均绝对误差(MAE):衡量预测值和实际值之间的绝对差,对离群点不敏感,但不能直接衡量预测误差的平方。

3.Huber损失函数:结合了MSE和MAE的优点,对离群点有一定的鲁棒性,并且可以调节权重以控制误差。

优化算法选择

1.梯度下降:沿着梯度的负方向迭代更新模型参数,逐步逼近最优解。其收敛速度相对慢,容易陷入局部极值。

2.Momentum:在梯度下降的基础上,加入动量项加速收敛,并减弱局部极值的影响。

3.RMSProp:通过自适应学习速率,使不同特征的更新速率不同,提高模型的鲁棒性。一、损失函数设计

损失函数是多任务线性回归模型中衡量模型预测和真实值之间差异的函数。常见的损失函数包括:

1.平方损失

该损失函数惩罚预测值与真实值的平方差,适合回归问题。

2.绝对损失

该损失函数惩罚预测值与真实值的绝对差,对异常值不敏感,适用于鲁棒回归任务。

3.Huber损失

该损失函数是平方损失和绝对损失的结合,对于小误差使用平方损失,对于大误差使用绝对损失,可以平衡鲁棒性和统计效率。

二、优化算法选择

优化算法用于最小化损失函数。常见用于多任务线性回归的优化算法包括:

1.梯度下降

该算法通过迭代计算损失函数的梯度并沿梯度下降方向更新模型参数,是最常用的优化算法。

2.最小二乘法

该算法直接计算模型参数的解析解,当特征矩阵满秩时,可以得到最优解。

3.共轭梯度法

该算法是一种快速且内存高效的梯度下降变体,特别适用于大规模数据集。

4.L-BFGS

该算法是一种拟牛顿法,通过逼近海森矩阵来加速梯度下降过程,适合于有Hessian矩阵的复杂损失函数。

5.随机梯度下降(SGD)

该算法通过随机采样小批量数据来更新模型参数,适合于大规模数据集和在线学习任务。

三、考虑因素

1.数据集大小和维数:大型数据集和高维特征往往需要更复杂和高效的优化算法。

2.损失函数类型:不同损失函数对优化算法的敏感性不同,例如Huber损失需要专门的优化器。

3.训练时间要求:对于实时或在线学习任务,需要考虑优化算法的训练时间。

4.容错性:某些优化算法(如共轭梯度法)对Hessian矩阵的正定性敏感,需要额外的条件检查。

五、其他优化技巧

除了选择合适的优化算法外,还有一些优化技巧可以提高多任务线性回归模型的性能,包括:

1.正则化:通过添加惩罚项来防止过拟合,例如L1正则化(Lasso)和L2正则化(Ridge)。

2.学习率:调整梯度下降算法中用于更新参数的学习率可以优化收敛速度和稳定性。

3.批处理大小:SGD中的批处理大小影响收敛速度和模型泛化能力。

4.特征归一化:对特征进行归一化可以改善优化算法的性能,使特征具有相似的范围。第六部分模型评估与选择性泛化的讨论关键词关键要点【模型泛化能力评估】

1.交叉验证:将数据集划分为训练集和测试集,多次重复训练模型并交叉验证不同子集,评估模型泛化到未见数据的性能。

2.保持数据:将一部分数据专门分配为保持数据,仅用于最终模型评估,避免过度拟合和得到对训练数据过分优化的模型。

3.偏差-方差权衡:评估模型的偏差(预测值和真实值之间的系统性差异)和方差(预测值的可变性),寻求两者之间的最佳平衡。

【模型选择性泛化】

模型评估

模型评估对于选择性泛化至关重要,因为它可以帮助确定模型在不同数据集上的预测性能,以及它对不同任务的泛化能力。模型评估的常用方法包括:

*均方根误差(RMSE):衡量预测值与真实值之间的差异。较低的RMSE表明模型预测更准确。

*决定系数(R^2):衡量模型预测变异量占总变异量的比例。较高的R^2表明模型预测与真实值之间的相关性更强。

*平均绝对误差(MAE):衡量预测值和真实值之间的绝对差异。较低的MAE表明模型预测的误差较小。

*交叉验证:将数据集划分成多个子集,依次使用一个子集作为测试集,其余子集作为训练集。这有助于减少模型对特定训练集的过拟合。

选择性泛化

选择性泛化是指模型在特定任务上的泛化能力,即使这些任务与训练数据中遇到的任务不同。这对于处理现实世界中的问题至关重要,其中任务经常具有多样性。以下是一些影响选择性泛化的因素:

*任务相似性:新任务与训练任务的相似程度。任务越相似,泛化性能越好。

*训练集大小:训练集越大,模型对各种任务的泛化性能越好。

*模型复杂性:较简单的模型泛化性能往往较好,因为它们受训练数据中特定模式的影响较小。

*特征工程:仔细选择和处理特征可以增强模型泛化性能。

多任务线性回归中的选择性泛化

在多任务线性回归中,选择性泛化通过利用任务之间的共同特征来实现。通过利用这些共同特征,模型可以从一个任务中学到的知识转移到另一个任务,即使这些任务具有不同的输出变量。

下表总结了多任务线性回归中的选择性泛化策略:

|策略|描述|

|||

|硬参数共享|所有任务共享相同的系数|

|软参数共享|不同任务的系数正则化到一个共同空间|

|输出塔|每个任务都有自己的输出层,但中间层共享|

|多头网络|每个任务都有自己的完全连接输出层和一个共享的输入层|

|注意力机制|模型根据不同任务赋予输入特征不同的权重|

|元学习|模型学习如何适应新任务,而不是直接从数据中学习|

选择最佳的泛化策略取决于任务的性质和可用数据。例如,如果任务高度相似,硬参数共享可能是有效的。如果任务输出之间存在相关性,输出塔可以利用这一相关性来提高泛化性能。

选择性泛化的应用

选择性泛化在各种应用中发挥着至关重要的作用,包括:

*自然语言处理:多任务学习用于训练可以执行翻译、问答和情感分析等各种任务的模型。

*计算机视觉:多任务学习用于训练可以执行目标检测、图像分类和图像分割等各种任务的模型。

*推荐系统:多任务学习用于训练可以为用户推荐电影、音乐和产品的模型。

*金融预测:多任务学习用于训练可以预测股票价格、外汇和商品价格的模型。第七部分多任务线性回归的实际应用场景多任务线性回归的实际应用场景

多任务线性回归作为一种强大的机器学习方法,已经在广泛的实际应用场景中得到成功应用,以下列举一些常见的应用场景:

1.医学和生物信息学:

*预测患者的疾病进展情况和治疗效果

*构建疾病风险评估模型

*分析基因表达数据以识别疾病相关生物标志物

2.金融和经济学:

*预测股票价格和汇率

*评估信贷风险和违约概率

*优化投资组合和资产配置

3.自然语言处理:

*机器翻译

*文本分类和情感分析

*问答系统和自然语言生成

4.图像和计算机视觉:

*图像识别和物体检测

*人脸识别和表情分析

*医学图像分析和疾病诊断

5.推荐系统:

*预测用户对商品或服务的偏好

*个性化推荐产品或内容

*提高电子商务平台的转化率

6.异常检测和欺诈识别:

*检测网络中的异常流量和恶意活动

*识别欺诈性交易和财务行为

*监控系统健康状况和故障预测

7.物联网和传感器数据分析:

*预测工业设备的故障和维护需求

*优化能源消耗和资源利用

*分析遥感数据以监测环境和气候变化

8.教育和心理测量:

*预测学生成绩和学习成果

*评估心理健康状况和治疗干预效果

*个性化教育内容和学习体验

9.社会科学和市场研究:

*测量消费者态度和偏好

*分析民意调查数据以预测选举结果

*评估社会政策和干预措施的影响

10.其他应用场景:

*材料科学:预测材料的性质和性能

*物理建模:模拟复杂物理现象

*化学和药物发现:优化化学反应和药物设计

*气候预测:预测天气模式和气候变化

*制造业:优化生产过程和质量控制第八部分未来研究方向与潜在挑战关键词关键要点【多任务学习与复杂模型】

1.探索利用多任务学习框架整合不同领域的知识,以增强模型的泛化能力和鲁棒性。

2.研究复杂非线性模型在多任务线性回归中的应用,如深度神经网络和图神经网络,以捕获特征之间的交互作用和高阶抽象。

【多任务贝叶斯建模】

#未来研究方向与潜在挑战

多任务线性回归(MTL)在共同特征利用方面取得了显著进展,但仍存在一些未来研究方向和潜在挑战:

1.数据集成和特征工程

*异构数据处理:MTL通常涉及来自不同来源的异构数据。探索有效集成和预处理异构数据的方法以最大化共同特征利用对于提高MTL性能至关重要。

*特征选择和降维:共同特征选择是MTL的关键。开发新的特征选择算法和降维技术,以更有效地识别并提取共同特征,将推动MTL的性能。

2.模型学习和优化

*非线性MTL模型:探索非线性MTL模型以捕捉共同特征和任务之间的复杂关系。这些模型可以提高MTL在具有非线性数据的任务中的性能。

*鲁棒和可解释性:开发鲁棒的MTL模型,对缺失值、异常值和噪声数据具有鲁棒性。此外,增强MTL模型的可解释性对于理解共同特征对不同任务的影响至关重要。

*分布式MTL:探索分布式MTL方法,以处理大规模和高维数据集。这些方法可以并行化MTL的训练过程,提高计算效率。

3.应用扩展

*新兴领域:探索MTL在新兴领域中的应用,例如自然语言处理、计算机视觉和金融建模。MTL可以利用这些领域的共享特征,提高学习效率和预测性能。

*辅助任务引入:研究利用辅助任务的信息来增强MTL模型的泛化和鲁棒性。辅助任务可以提供额外的信息,帮助MTL更有效地学习共同特征。

*多模式MTL:探索多模式MTL,它涉及来自不同模态(例如文本、图像、音频)的数据。多模式MTL可以充分利用不同模态之间的互补性,进一步提高共同特征利用的有效性。

#潜在挑战

*数据异质性:不同任务可能具有不同的数据分布和特征空间,这可能给共同特征识别带来挑战。

*维度灾难:当任务数量很大时,MTL可能会遇到维度灾难。管理高维空间中的过拟合和计算成本至关重要。

*模型复杂性:MTL模型通常比单任务模型更复杂。训练和优化这些模型可能具有挑战性,需要强大的算法和计算资源。

*理论基础:MTL的理论基础仍在发展中。建立对MTL性能和行为的深入理解对于指导模型设计和改进算法至关重要。

*隐私和安全:MTL涉及共享数据和特征,这可能会引发隐私和安全问题。制定隐私保护和安全协议对于MTL的实际应用至关重要。

解决这些挑战和探索未来的研究方向将推动MTL在广泛领域中的更广泛应用和更高的性能。关键词关键要点主题名称:多任务学习的定义

关键要点:

1.多任务学习是一种机器学习范例,涉及使用多个相关任务的数据集训练单个模型。

2.该模型通过同时学习多个任务的模式和关系,提高泛化能力和性能。

3.与单任务学习相比,多任务学习可以共享表示、减少过拟合并提高数据效率。

主题名称:多任务学习的优势

关键要点:

1.知识迁移:多任务学习允许任务之

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论