版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
图像信息是人类视觉感知信息的重要部分,随着计算机、电子技术日益进步,大规模运算和信息的数-模转换走入现实,由此催生出分为图像识别、分割、重建等领域的数字处理技术蓬勃发展。作为图像分割的典型应用场景,人像分割是进行人像美化、背景处理、人脸识别等领域对后续处理有必要作用。本文以深度学习中的卷积神经网络为基础,研究如何利用U-Net模型在人像照片较有限的情况下达到人像分离合格的准确率。最终实现模型的IOU在92.1%左右,Dice系数在95.7%左右。对比早期的分割方法,卷积神经网络U-Net模型通过类似编码器—解码器的“U”型结构实现更简便、稳定地提取数据的特征,且能更加有效的提高分割的准确度。information.Withtfinformationcomeintoreality,Therefore,thedigitalprocessingbeautification,backgroundprocessing,facerecognitionandsoon.Therefore,itisnecefhumanimage.TheIOUofthefinalmodelisabout92.1%,andtheDicecoefficient1广东东软学院本科生毕业设计(论文)第一章绪论 1.1课题背景及国内外研究现状 11.2研究目的和意义 11.3研究主要内容 21.4本文章节安排 2 32.1人工神经网络简介 32.2卷积神经网络 32.2.1卷积 42.2.2池化 52.2.3激活函数 62.3U-Net模型 7 7 82.4Tensorflow框架简介 92.5keras框架简介 9 3.1系统环境配置 3.2数据集选择 3.3数据预处理 3.3.1Mask(掩膜)合并处理及转换数组形式 广东东软学院本科生毕业设计(论文)3.4搭建u-net卷积神经网络 3.5模型训练与结果 第四章人像分割的设计与实现 4.1加载模型及测试集 4.3预测图片呈现 第五章总结与展望 5.1总结 5.2展望与不足 参考文献 致谢 11.1课题背景及国内外研究现状人类从视觉感知的信息占整体感知信息的70%左右,除了文本信息、视频信息等,图像信息也占了视觉感知信息很大一部分。随着计算机、电子技术日益进步,图像分割即把图像分割成若干不重叠的部分,这些部分图像之间要么存在需分割出来研究的目标物体,要么存在所需的物体部分与整体之间的相互关系。早在1963年,为了分割出图像的不同部分Roberts边缘检测器被提出。自此始,图像分割领域逐渐进入蓬勃发展期,涌现出了各种各样的分割方法。发展出了诸如基于区域、阈值、边缘检测以及重要的深度学习分割方法。而现有的图像分割理论主要发展为主要包括属于有监督分割算法的深度学习、属于无监督分割模型的模糊集理论、小波变换等几个大类。作为计算机视觉的重要部分,2014年图像分割在上采样部分使用反卷积。后来U-net模型(创造了一整套编码解码器)、SegNet模型(转换Maximumpooling为解码器)、DeepLab模型、PSPNet模型等被相继提队的刘恒其毕业论文中提出了基于蓝色向量聚类特征的人像提取技术和基于先验知人发表Deepautomaticportraitmatting论文,在文中构造了用是将图像分为背景、人像、不确定标签三类,其二作用是通过前向传播和后像传播得到人像信息。区别于传统的分割方法即还需要用户手动提供tri-map,该模型1.2研究目的和意义图像分割是计算机视觉领域的重要组成部分,而人像分割是图像分割领域的重中的目标信息,为下一步精确且有效率地对目标进行分析打好基础。就像人的眼睛2一样,首先要通过锁定视觉中的目标物体,然后才能精准地进行下一步行动。图像人像分割是进行人像美化、背景处理、人脸识别等领域的重要前提。例如人像系统上。然而现在的人像背景替换合成还有不少需进步的地方。第一点是图像分割功能的自动化程度不高且处理效率较低,因为大部分需要人工通过软件切割出人像以致得到的合成图像让人感觉不太真实、自然。因此通过人像分割从图像中精确且完整地提取出人像目标,对后续处理有必要作用。因为其分割效果的好坏会直接影响后面的输出结果,因此研究便捷精确的人像分割模型具有重要意义。1.3研究主要内容本文以深度学习中的卷积神经网络为基础,研究如何利用U-Net模型在人像照片较有限的情况下达到人像分离合格的准确率。对比早期的分割方法,卷积神经网络U-Net模型通过类似编码器—解码器的“U”型结构实现更简便、稳定地提取数据的特征,且能更加有效的提高分割的准确度。1.4本文章节安排第一章:绪论。本章主要介绍了课题的研究背景与国内外研究现状,阐述了本第二章:卷积神经网络、U-Net模型及框架介绍。本章简单介绍了卷积神经网络的结构,介绍了时下主流的几种深度学习框架以及要用到的U-Net模型。配置,数据集的选择和预处理及U-Net模型的构建和训练。第四章:人像分割的设计与实现。这一章节编写了如何通过训练好的U-Net对第五章:总结与展望。总结回顾论文与实验的各个部分,并说明了研究实验的3第二章卷积神经网络、U-Net模型及框架介绍人类大脑以计算机无法做到的方式来解释现实世界的环境和情况。人工神经网络是一种模拟人脑工作的方法,这样计算机就能像人脑一样学习和做决定。人工神经网络是一种用于分类、回归和聚类问题的机器学习算法。它是深层神经网络的基各种数据通过输入层输入,然后数据经处理进入隐藏单元,将数据转换为输出单元输出输入隐含层输入神经元网络图2-1生物神经元与神经元网络元之间强度的值。这些是在学习过程中会逐渐改变的值。然后将偏差值与前面的总和相加。在所有这些累加之后,神经元对这个值应用一个激活函数。这基本上就是神经元的工作。接收来自连接神经元的数值,将其乘以各自的权重,将它们相加,然后应用激活函数然后它把它传递给其他神经元。每个神经元从一个神经元层完成后,就会传递到下一个神经元层。最后,获得的最后一个值应该能够预测期望的输出。起初,神经网络的预测是随机的。但是,随着每个时期的进行,并按照输出应有的模型进行训练,预测值将越来越接近正确值。单个神经元的上述工作应该在整个网络中进行,并通过前向传递以及反向传播的过程以确定最佳的参数。其中,权值优化,使神经网络可以学习如何正确地映射随机输入到输2.2卷积神经网络4卷积神经网络是一种用于图像识别和处理的人工神经网络,是专门设计成处理大量的图像数据中使用。神经网络的神经元模拟了我们的神经细胞之间相互连接的通讯方式,CN具有类似的结构。使CNN与其他神经网络不同的是卷积运算,它将滤波器应用到前面输入的每个部分,以便特征提取和映射。卷积层:通过滤波器来进行特征提取及映射。在识别图像过程中,不是直接一次性识别出整幅图像,而是先提取局部图像中的特征,然后进入下一次层次的全局综合运算,来获取全局信息。非线性激活层:激活函数对特征图进行非线性运算。激活功能是对输入体积进池化层:池化层负责压缩数据和减少参数的数量级。通常,它们在其他层(即卷积和非线性层)的多个阶段之后使用,以便通过网络逐步降低计算要求,并最大程度降低过度拟合的可能性。全连接层:经多次卷积、激活和池化后,到达全连接层。卷积网络中的全连接层实际上是多层感知器,是仅次于卷积层的第二耗时层。此层主要作用是将样本从特征空间一一对应到标签中。卷积是用于特征提取的一种特殊类型的线性运算,其中在输入上应用一小串称为卷积核的数字数组,这是一组称为张量的数字数组。在张量的每个位置计算卷积核的每个元素与输入张量之间的元素乘积,并将其求和以获得在输出张量的相应位置的输出值,称为特征图。重复此过程,应用多个卷积核以形成任意数量的特征图,这些特征图代表输入张量的不同特征;因此,不同的卷积核可以被认为是不同的特征提取器。定义卷积运算的两个关键超参数是卷积核的大小和数量。前者通常为35×3,但有时为5×5或7×7。后者是任意的。应该注意的是,步幅和滤波器大小是超参数,这意味著模型不会学习它们。所以必须应用科学思维来确定这些数量中的哪些值最适合实验的模型。图2-3卷积运算示意图(左输入,中过滤器,右输出)对于卷积,还需要理解的概念是填充。如果图像无法在整数次内与滤波器拟合 (将步幅考虑在内),那么必须填充图像。可通过两种方式实现此操作:VALID填填充丢弃了图像边缘的所有剩余值。也就是说,如果滤波器为2x2,步幅为2,图像的宽度为3,那么VALID填充会忽略来自图填充向图像边缘添加值(通常为0)来增加它的维数,直到过滤器能够拟合整数次。这种填充通常以对称方式进行的(也就是说,会尝试在图像的每一边添加相同数量的列/行。2.2.2池化池化其实是降采样的一种形式,包括最大池化、平均池化、全局池化等。池化操作是在特征图的每个通道上滑动二维滤波器,并对位于滤波器覆盖区域内的特征进行汇总比如经常见到的最大池化就是先把特征图分为很多个矩形单元,从过滤器覆盖的单元要素图区域中选择最大元素。因此,最大池化层之后的输出将是一个包含先前特征图最突出特征的特征图。6X图2-4最大池化样本图15311622271348046384池化的作用1.用于减小要素图的尺寸。因此,它减少了要学习的参数的数量以及网络中执行的计算量;2.通过减少空间信息,也意味着减少的参数,因此减少了过度拟合的机会池化层汇总了由卷积层生成的特征图区域中存在的特征。因此,对摘要特征执行进一步的操作,而不是对卷积层生成的精确定位的特征进行操作。这使模型对输入图像中特征位置的变化更加具有鲁棒性。2.2.3激活函数激活函数是卷积神经网络的必要组成部分。它用于创造卷积神经网络的非线性映射能力。假设没有激活函数,那么即便有更多的卷积池化层,网络层与层之间还是线性映射。也就是激活函数的加入有助于创建CNN的非线性模型能力。1.ReLU激活函数图2-5ReLU激活函数在所有激活函数中,这是最类似于线性函数的函数:对于非负值,保持不变;对于负值,它返回0。用数学的话这意味着所有负值都将变为0,而其余值将保持原样。这是一种生物学启发的功能,因为大脑中的神经元将“发射”(返回正值)7或不发射(返回0)。注意,与偏置结合使用,就实际上过滤掉了某个阈值以下的任何值。假设我们的偏置为-b。加上偏置后,任何小于b的输入值都将变为负值。Sigmoid函数采用任何实数作为输入,并返回0到1之间的值。由于它是连续的,因此可以有效地“模糊”值:如果将Sigmoid应用于3,则得到0.95。将其应用到10,您将获得0.999...并且它将一直逼近1而从未达到它。在负方向上也会发生同样的情况逐渐收敛到如图所示,当x接近无穷大时,它接近1;如果x接近负无穷大,它接近0。它也是对称的,当输入为0时,其值为1/2。由于它的取值介于0到1之间,因此2.3.1U-Net网络结构与提出背景8图2-7U-Net模型结构图如U-Net模型结构图所示,每个特征图用一个蓝色块显示,对特征图进行的不同的操作用五种不同颜色的箭头表示。顶部的数字代表该特征图的通道数,该特征图的尺寸表示在在蓝色块的左下角。整张图的左半部分是下采样的部分(特征提取部分),右半部分是上采样部分。通过反复的卷积获得输入图像的特征信息,并且将其映射到高维。使得图像最丰富的特征信息存在于整个模型的高维。不同于FCN,u-net模型不直接对与原始图像大小相同的输出图像进行池化,反而通过反卷积,将特征从高纬重新映射到低维。在上采样过程中,将下采样网络中同一维度的图像进行融合,以增强分割的精度。为了解决融合过程中维度翻倍的问题,需要再进行卷积,使得与原维度相同以进行下一次反卷积,再进行下一次的卷积降维,直至输出与原维度相同的图像。(1)适用于小规模的数据集。这一点主要还是针对于医学数据来说的,对于图像分类任务或者去噪之类的任务数据集还是很充足的。(2)不使用全连接层。搭建网络时,全连接层的应用始终受限,主要是由于其9假设输入是一张尺寸为(224,224,3)的彩色图片,并假设期望输出的特征图尺寸为(224,224,64)。如果采用全连接Linear,那么输入特征数量为224*224*3=150528,输出特征尺寸为224*224*64=3211264,参数的数量为150528*3211264=483,385,147,392,这甚至比很多大型网络参数都多;而如果使用卷积Conv(假设用3x3的卷积核),那么需要的卷积核为64个3x3x3的卷积核,总参数数量为64*3*3*3=1728,所以相比于全连接,卷积层大幅度减少了网络的参TensorFlow是一个开源机器学习库,它使用符号数学进行数据流编程和可微分编程。TensorFlow由Google开发并于2015年发布,是ML的新来者,由于其易用的API和与前代产品相比的简单性,已在全球范围内广受欢迎。TensorFlow最常用的ML应用是神经网络,它可以分析笔迹并识别人脸。尽管TensorFlow是用Python编写的,但由于JavaScript的近期流行,可以使用JavaScript端口。1.功能增强。尽管Keras具有许多用于ML和深度学习的常规功能,但TF却更为先进,尤其是在诸如线程,队列和调试之类的高级操作中。2.控制增强。你并不总是需要很多的控制,但是一些神经网络可能需要这样的控制,这样你才能更好地理解和洞察,特别是在处理像权重或梯度这样的操作时。和TensorFlow一样,Keras也是一个用Python编写的开源ML库。然而,最大的区别在于Keras包装了其他机器学习和数据库的功能,包TensorFlow、Theano科学家喜欢使用Keras,因为它使TensorFlow更容易操作,意味着用户不太容易制作出提供错误结论的模型。Keras构建和训练神经网络是对用户友好及模块化的,所以可以更容易地进行深层神经网络的实验。Keras是从快速模型设计到最新研究再到生产的所有产品的最佳选择。使用Keras的主要优点,特别是与TensorFlow相比,包括:易于使用。在Keras中,对于大多数错误,可以得到清晰、可操作的反馈。模块化组合。Keras模型几乎可以没有限制地连接可配置的构建块。高度灵活性和可扩展性。用户可以为新的研究编写自定义块,并创建新的层、损失第三章基于Tensorflow的神经网络搭建3.1系统环境配置配置环境、安装所需工具包等,大大减少了用户使用难度。配置好tensorflow00PNieniceting,grapiatalf04.L1图3-1Anaconda主界面本次实验的环境是基于python3.7的tensorflow-cpu版本。安装实验所需工具包:m2w64-m2w64-ApythonApythonmodulethatimplementsthejin图3-2安装工具包3.2数据集选择我们本次选择的是CelebA—HQ数据集,但囿于计算能力,我们仅使用前两千张图片及其对应的掩膜(Mask),该数据集介绍如下:CelebA—HQ是大规模人脸图像数据集,包含三万张高分辨率人脸图像(从CelebA数据集选择而来)及人脸属性分割蒙版。CelebA是CelebFacesAttribute的缩写,意即名人人脸属性数据集,为了为人脸语义分割和属性操作打下更好的研究基础,研究人员在CelebA的基础上构建了包含30000张高分辨率512×512的人脸图片,包含了面部19类详细的信息标注。针对被部分遮挡的面部区域,标注员还进行了推断补全了语义标签。到此可以了解到对应蒙版细分到头发耳眼鼻眉嘴等人脸属性,所以需要在数据预处理时进行合成。图3-3数据集图像3.3数据预处理3.3.1Mask(掩膜)合并处理及转换数组形式打开mask文件夹可以看到许多不同的人脸属性掩膜。广东东软学院本科生毕业设计(论文)99g图3-4Mask文件夹图像在代码中,我们新建一个convert_image类,包含两个函数read_images和to_npy,read_images函数用来读取图像及对图像对应的各人脸属性掩膜合成并defread_images(inage_path,mask_path,image_size=(512,512)):forimginos.listdir(ha'.format(int(ing.split(.',1)[0]))+'_r_ear=[{0:05].format(int(img.split(.,1)[0]))+-1_ear=['{0:05]'.formatskin=[10:05]'.format(int(ing,split(.,1)[0])X+cloth{0:05}'.format(int(ing.split(neck=10:05}'.format(int(img.split('.,1)[0]))+nechair_inage=cv2.imread(os.path.join(mask_path,hair[0]+ifnotos.path.exists(os,path.join(mask_path,hair[0]+',png')):hair_image=np.zeros(image_dict[img]r_ear_image=cv2.inread(os.path.join(mask_path,r_ear[0]+ifnotos.path.exists(os.path.join(mask_path,r_ear[0]+'.png')):r_ear_image=np.zeros(image_dict[img]1_ear_image=cv2.inread(os.pifnotos.path.exists(os.path.join(mask_path,l_ear[0]+'.pnz')):skin_image=np.zeros(image_dictcloth_image=cv2.imread(os.path.join(mask_path,cloth[0]+*.png'))neck_inage=cv2.imread(os.path.join(mask_path,neck[0]+'.png'))ose_inagetskin_imagetcloth_imagetneck_imagereturn(inage_dict,mas图3-5read_images函数代码广东东软学院本科生毕业设计(论文)将图片和掩膜转换成数组形式并作长久保存。41#转换图像及擅膜以ny文件保存42defto_npy(image_dict,mask_dict):45forimg,mskinzip(47mask,append(msk.astype('uint16'))48image=np.array(image)3.3.2训练集验证集划分训练集验证集按照8:2划分,也就是训练集验证集分别是1600和400张图像及对应掩膜。训练集的功能是通过设置分类器的参数来训练模型。当与验证集结合训练验证时,将选出同一参数的不同值以分别拟合出多个分类器。验证集:用训练集训练出的多个模型来对验证集进行预测,记录下各个模型的准确率,最后选出最好的模型及其对应的参数,用来逐渐调整模型参数。测试集:是模型在前面训练验证一直没接触过的数据,是用来测试训练出来的最佳模型的性能。设置训练集、验证集、测试集主要是防止训练的模型逐渐过拟合。1练trn证a创x_train=X[:int(valid_split6y_train=np.expand_dims(y_train,axis=-1)78x_valid=X[int(valid_split10y_valid=np.expand_dims(y_valid,axis=-1)12returnx_train,y_tr图3-7训练集验证集划分代码广东东软学院本科生毕业设计(论文)3.4搭建u-net卷积神经网络U-Net模型由FCN结构发展而来,因其整体结构似字母U而得名,在医学图像领域应用广泛。它由左半部分的下采样的部分(特征提取部分),右半部分的上采样部分组成。通过反复的卷积获得输入图像的特征信息,并且将其映射到高维使得图像最丰富的特征信息存在于整个模型的高维。不同于FCN,u-net模型不直接对与原始图像大小相同的输出图像进行池化,反而通过反卷积,将特征从高纬重新映射到低维。j590defunet_model(input_size=(512,512,3)):p1=MaxPooling2D((2,2))(cc2=Conv2D(32,(3,3),activation='elu',kernel_initializer='he_norp2=MaxPooling2D((2,2))(cp3=MaxPooling2D((2,2))(cp4=MaxPooling2D(pool_size=(2,2))(u6=Conv2DTranspose(128,(2,2),strides-(2,2),paddingu7=Conv2DTranspose(64,(2,2),strides=(2,2),padding='sameu7=concatenate([u7,e?=Conw2D(6h,),ativation='elu',kerneLinitializer='he3.5模型训练与结果(1)优化器(2)损失函数损失函数也是本次模型训练中的必备参数。在训练过程中通过loss可以明关于训练块(batch_size)的大小,经过多次尝试,最终选择了4,迭代100次.fit_generator()函数通过“边生成边训练”的方法,让该网络与生成器将一经过训练后。最终的模型验证集准确率在85%左右。图3-9模型损失函数图像第四章人像分割的设计与实现34#读取测试案及其利应的施照6x_test=np.load(os.path.join(os.getewd(),"Test_Imagesl.npy"))6y_test=np.load(os.path.join(os.getcwd(),"Test_Masksl.npy"))图4-1模型加载及读取数据代码4.2测试11#将像亲值从评点数传化为鉴数 测试单张图片用时为:0.7931912423203116s图4-2测试代码4.3预测图片呈现图4-3部分预测图片4.4计算10U及Dice系数人眼只能大概感知分割效果如何,那么如何理性地准确量化呢?本实验采用IOU和Dice系数两种指标来评价模型最终的分割效果。所谓的分割效果也就是分割结果与标准Mask之间的相似程度。图4-4IOU计算公式图4-5Dice系数计算公式IOU(IntersectionOverUn交并比)在本实验中即分割出来的人像部分与Mask二者的交集除以二者的并集。最后算出本模型的IOU在92.1%左右,Dice系数在95.7%左右。广东东软学院本科生毕业设计(论文)t49t492…89l2#计察10U分数iou=K,mean((intersection+snooth)/(uniintersection=K.sun(y_true*y_pred,axis=[1,2,3])union=K.sum(y_true,axis=[1,2,3])+K.gun(y_pred,axis=[1,dice=K.mean((2*intersection+smooth)/(iou_score=iou_coef(y_test,dilate_opt.astype('int64'))dice_score=dice_coef(y_test,dilate3print('DiceCoefficientDiceCoefficientonthe图4-6计算I0U及Dice系数代码五.总结与展望为了解放全人类,即让人从必要而自身不感兴趣的任务中逐渐解放出来,能够让机器像人一样学习、思考、决策、行动一直是部分人的梦想。而机器做到这一切之前的前提就是他能像人一样感知,即能够解读得到的信息。图像信息就是其中一部分,而学会图像分割是必要的。就像人的眼睛一样,首先要通过锁定整个视觉中的目标物体,然后才能精准地进行下一步行动。本文首先编写了课题的研究背景与国内外研究现状、研究目的和意义,然后介绍了卷积神经网络、U-Net模型及框架等理论知识以及基于Tensorflow构建U-Net模型,最后描述了如何通过训练好的U-Net对测试集图片进行预测。最终实现模型的IOU在92.1%左右,Dice系数在95.7%左右。对比早期的分割方法,卷积神经网络U-Net模型通过类似编码器—解码器的“U”型结构实现更简便、稳定地提取数据的特征,且能更加有效的提高分割的准确度。通过本次课题的研究,让我对卷积神经网络、U-Net模型、图像分割以及tensorflow框架等都有更进一步的了解。囿于自身能力、实验时间、硬件能力等原因,对于人像分割的研究实现还有由于使用的CelebA-HQ训练集有部分掩膜标注不十分准确,可以更换其他更因为电脑硬件原因,只能使用tenflowcpu版,训练的图片量有限,之后可以升级硬件以改进模型。由于时间有限,往后希望可以把模型加载进一个小程序或软件或网站,呈现参考文献[1]赵明君李杰毛明禾.基于标签传递的人像分割[J].数据采集与处理,2019(01):179-186.[4]U-Net:ConvolutionalNetworksforBiomedicalImageSegmentation,Olaf-Ronneber[5]tps:///pdf/1505.04597.pdf[6]王珊,萨师煊.数据库系统概论[M].高等教育出版社,2006.5:198-235.[7]李家兴.基于卷积神经网络的图像检测技术研究.广东工业大学.[8]邹鑫.基于卷积神经网络的图像分类算法研究.西北师范大学.致谢惯,这些习惯在我在以后的学习生活中仍然会有很大的帮助。想对身边的同学、落有致的高楼矮房一切生灵和据说没生命的事物,对这一切的一切说声谢谢!四广东东软学院本科生毕业设计(论文)对我的照顾和认可,苏老师是一个严厉而不失亲和的老师,在毕设的过程中,苏老师能够悉心指导我,同时又给我很大的自由发挥的空间,让我能够非常顺利并且很愉快地完成毕设,同时我也对即将开始的事业生涯充满期待。最后,虽落窠臼但不失真诚地是要感谢自己的父母。他们虽目不识丁,唯知辛勤劳作以养家糊口,他们深深立足脚下,不知还有星空,但从来没有阻止我去仰望、去追逐。对于我的学习、我的决定向来都是无条件的支持,在我为论文和工作的双重压力而焦头烂额之际,叮嘱我照顾好身体,安慰我顺其自然,尽人事而听天命。非有父母之生养,则无我今日之生命;非有父母之支持,则无我今日之学业有成。他们是我此生最爱的人。在大学四年即将结束的句点前,再一次感恩陪我度过美好四年的你们;未来,我们也一定都会更好!捷键与一些电脑小技巧这是高手最常用的第一快捷组合键。这个快捷键组合可以将桌面上的所有窗口瞬间最小化,无论是聊天的窗口还是游戏的窗口……只要再次按下这个组合键,刚才的所有窗口都回来了,而且激活的也正是你最小化之前在使用的窗口!其实,还有一个更简单的办法,就是按winkey+r!如果打开的窗口太多,这个组合键就非常有用了,它可以在一个窗口中显示当前打开的所有窗口的名称和图标●,选中自己希望要打开的窗口,松开这个组合键就可以了。而alt+tab+shift键则去摸鼠标了!winkey指的是键盘上刻有windows徽标的键●。winkey主要出现在这3个键大部分位于键盘的右上方。当你选中一个文件的话,这意味着“重命名”F10或ALT放入回收站激活当前程序的菜单栏打开开始菜单在win9x中打开关闭程序对话框删除被选择的选择项目,如果是文件,将被放入回收站删除被选择的选择项目,如果是文件,将被直接删除而不是新建一个新的文件保存当前操作的文件剪切被选择的项目到剪贴板复制被选择的项目到剪贴板粘贴剪贴板中的内容到当前位置ALT+BACKSPACE或CTRL+Z撤销上一步的操作ALT+SHIFT+BACKSPACE重做上一步被撤销的操作Windows键+D:最小化或恢复windows窗口Windows键+U:打开“辅助工具管理器”Windows键+FWindows键+BREAKWindows键+CTRL+F重新将恢复上一项操作前窗口的大小和位置打开资源管理器打开当前活动项目的快捷菜单在放入CD的时候按下不放,可以跳过自动播放CD。在打开word的时候按下不放,可以跳过自启动的宏一个窗口)关闭当前应用程序打开程序最左上角的菜单切换当前程序将windows下运行的MSDOS窗口在窗口和全屏幕状态间切换将当前屏幕以图象方式拷贝到剪贴板将当前活动程序窗口以图象方式拷贝到剪贴板关闭当前应用程序中的当前文本(如word中)切换到当前应用程序中的下一个文本(加shift可以跳到前显示前一页(前进键)显示后一页(后退键)在页面上的各框架中切换(加shift反向)刷新强行刷新x:\DocumentsandSe户临时文件)下的所有文件(页而文件)x:\DocumentsandSettings\用户名\Recent\下的所有文件(最近浏览文件的快捷方式)x:WINDOWS\Temp\下的所有文件(临时文件)x:WINDOWS\ScrvicePackFiles(升级sp1或sp2后的备份文件)x:WINDOWS\DriverCachei386下的压缩文件(驱动程序的备份文件)x:WINDOWS\SoftwareDistribution\download下的所有文件下以$u…开头的隐藏文件4.然后对磁盘进行碎片整理,整理过程中请退出一切正在运行的程序个还原点”(最好以当时的日期作为还原点的名字)7、在各种软硬件安装妥当之后,其实XP需要更新文件的时候就很少了。删除系统备份文件吧:开始→运行→sfc.exe/purgecache近3xxM。(该命令的作用是立即清除"Windows文件保护"文件高速缓存,释放出其所占据的空间)用的dI档,只要你已拷贝了安装文件,完全可以这样做。硬件的可能性不大,所以也可以考虑将这个备份删除,文件位于\windows\drivercachei386日录下,名称为driver.cab,你直接将它删除就可以10、删除不川的输入法:对很多网友来说,W入法并不全部都合适自己的使用,比如IMJP81口文输入法、IMKR61韩文输入法这些输入法,如果用不着,我们可以将其删除。输入法位丁11、升级完成发现windows\多了许多类似$NtUninstallQ311889$叫。。。都十掉!13、关闭系统还原:系统还原功能使用的时间一长,就会占用大量的硬盘空间。因此有必要对其进行于工设置,以减少硬盘占用量。打开"系统属性"对话框,选择"系统还原"选项,选择"在所有驱动器上关闭系统还原"复选框以关闭系统还原。也可仅对系统所在的磁盘或分区设置还原。先选择系统所在的分区,单击"配置"按钒,在弹出的对话框中取消"关闭这个驱动器的系统还原"选项,并可设置用于系统还原的磁盘空间大小。14、休眠功能会占用不少的硬盘空间,如果使用得少不妨将共关闭,关闭的方法是的:打开"控制面板",双击"电源选项",在弹出的"电源选项属性"组件有很大一部分是你根本不可能用到的,可以在"
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2024年出口托盘订购协议
- 2024年出租车公司车辆租赁协议
- 机动车维修企业安全教育培训课件考核试卷
- 云计算与企业数据存储安全考核试卷
- 内陆淡水养殖克服种群密度限制的方法考核试卷
- 2024年DD科技创新园区开发合同
- 农药制造中的自动化与智能控制考核试卷
- 煤炭加工中的能源消耗与节约考核试卷
- 农产品贮藏技术与设备考核试卷
- 小屋改造工程合同模板
- 单元 5-入侵报警系统工程的施工安装
- 人民医院便民惠民措施服务工作开展情况总结
- 初中美术八年级上册《静物画有声》
- 大学生健康人格与心理健康PPT课件
- 物业服务有限公司物业承接查验工作手册
- 小型水电站改造设计方案
- 师生申诉调解机制
- 趣味数学—数阵图与幻方
- 网格化管理架构图新
- 石油修井行业套损井检测与修复技术
- 座椅设计参数及其对舒适性的影响
评论
0/150
提交评论