棉花糖小说网 - 都市小说 - 暗房在线阅读 - 摄影必备常用知识详解(一)

摄影必备常用知识详解(一)

    1、什么是全幅单反?全幅单反有何优势?

    什么是全幅单反相机?

    大家都知道,使用相机摄影都得要有记录影像的感光材料,传统相机的感光材料是胶片,数码相机的感光材料是感光元件(CCD或COMS),感光器面积的大小与35mm胶片面积相比,如果接近或相等,就是全幅规格,采用该规格尺寸的单反相机就是全幅单反相机。

    举个例子:传统135相机底片尺寸为36×24mm,佳能EOS-5D数码单反机采用的CMOS尺寸为35.8×23.9mm,接近36×24mm的尺寸。所以,佳能EOS-5D就属于全幅数码单反机。全幅单反机的感光器面积由于与35mm胶片相等或相近,因此所配置的各种镜头的焦距也和传统相机一样。

    基于现有的制造技术和工艺水平,大尺寸全幅感光元件制造困难,价格昂贵,因此目前大多数数码相机采用的感光元件都不是全幅的,其尺寸介于135相机底片和家用数码感光元件之间,最常见的就是“APS-C”规格。

    全幅单反相机的优势

    因为35mm胶卷的广泛使用,让36×24mm成为一种规格。在这个规格之下,35mm就成为了我们判定镜头视角的一个标准。例如28mm镜头就可以实现广角,35mm为标准视角而50mm是比较接近人眼的视角等等。不过到了数码时代,数码单反相机上采用的感光器目前更多的是采用非36×24mm尺寸,于是就有了倍率问题。例如,APS-C尺寸,倍率1.5(佳能为1.6);4/3系统,倍率2;适马X3系统,倍率1.7;佳能APS-H尺寸;倍率1.3等。

    以佳能EOS400D(APS-C画幅)及一支18-55mm镜头为例,乘以1.6倍率后,相机上镜头等效焦距将会变为28.8-88mm,但如果是全画幅单反搭配18-55mm镜头,其焦距将保持不变。

    因此,全画幅的优势显而易见,不仅可以让老镜头物尽其用,还因为感光元件CCD/CMOS面积大,这样一来捕获的光子越多,感光性能越好、信噪比越低。说全画幅单反是未来数码单反发展的一个大趋势,原因也就在此。

    相机小贴士:35mm胶卷的来历

    十九世纪二十年代,德国徕卡公司研制出拍摄35mm电影胶片(36×24mm)相机后,35mm胶卷又叫“徕卡卷”,后来世界各厂生产用于拍摄35mm胶片的照相机越来越多,“徕卡卷”这个名称已不能适应了,于是就按胶卷的宽度改为“35Mm胶片”,直到五十年代之后,为了区分35mm电影胶片和相机用35毫米散装胶卷,在胶卷盒上印有135的代号。后来大家就公认把35mm胶卷称为135胶卷,把用135胶卷的相机称为135相机。

    2、什么是镜头的放大倍率?微距摄影的应用

    用微距拍摄可以把很普通的东西拍成具有戏剧性的艺术场面。微距特别擅长表现花鸟鱼虫等细小东西的局部,也更能体现出个人在意境、寓意中想表达的含义,而且也可以随心所欲地表现自己在选题、构图、用光方面的创意。因此对于不少摄影入门爱好者来说,拍摄微距照片比较容易上手,而且也能够拍出一些效果不错的小品,稍稍加入后期PhotoShop的加工,就能成为很多人认可的佳作。

    微距摄影的目的是力求将主体的细节纤毫毕现的表现出来,把细微的部分巨细无遗的呈现在欣赏者眼前。在微距摄影中,有一个名词是必须要认识的,它就是放大率。因为微距摄影其实就即如放大摄影,所以放大率直接影响著微距拍摄的效果。由于放大率是由底片(或感光元件)表面所得的影像和实物主体大小的比例来定义,故此放大率是以一个比例来表达。由于这缘故,放大率又称为“影像比例”。

    平时经常听到镜头能拍到1:1、1:2的微距效果,这些比例便是指镜头的最大放大倍率。左边的数值代表底片上影像的大小,而右边的数值则代表实际被摄物的大小,当镜头能做到1:1的放大率时,即镜头可将被摄物的真实大小完全投射在底片(或感光元件)上。比如:135胶片的面积为24×36mm,若我们使用的镜头能把一个面积同样为24×36mm的主体完整地记录在135胶片上,这支镜头的最大放大率就是1:1。左边的数字越大表示放大倍率越高,2:1的放大倍率就比1:1高;反之,右边的数字越大则放大倍率越低。

    举例说明:

    如果实物长度为10毫米,在底片上成像也是10毫米,则镜头放大倍率1:1;

    如果实物长度为10毫米,在底片上成像也是5毫米,则镜头放大倍率1:2;

    如果实物长度为10毫米,在底片上成像也是2毫米,则镜头放大倍率1:5。

    某个镜头的最大放大倍率是该镜头在最大焦距(定焦不存在),最近拍摄距离上达到的。我们通常将最大放大倍率在1:4~1:1之间的能够在无限远合焦的摄影镜头称为微距镜头。

    3、什么是增距镜?增距镜的缺点和使用事项

    什么是增距镜?

    增距镜又称望远转换镜或焦距增长器,它是一类比较特殊的光学器件,由多片光学镜片组成,其作用是增长原有镜头的焦距。由于增距镜是一个呈凹透镜作用的光学系统,所以不能单独成像的,要与呈凸透镜作用的常规镜头一起使用才能得出清晰的物像。

    增距镜的倍率有多种,目前最常见的有2倍(俗称增倍镜)、1.4倍和1.7倍,也有少量是3倍和1.6倍的。镜片数一般为四至七片不等。增距镜一边是卡口,与镜头的卡口一样,用于连接到照相机机身上;另一边是卡环,与单反相机机身上的卡环一样,用于连接镜头。使用时,先将单反相机上的镜头卸下来,将增距镜接在机身上,然后再将镜头接在增距镜上,即增距镜在机身与镜头之间。

    不同倍率的增距镜可以将原镜头的焦距扩展至不同的范围。如一只2倍的增距镜可将50mm的标准镜头变成100mm的中焦镜头;而1.4倍的只能将它变成70mm的镜头。但是增距镜只能用于50mm以上的镜头,如果与广角镜头合用时,可能会出现遮角现象。接上增距镜后,原镜头上的一些参数是不会改变的,如最近对焦距离。如果原镜头的最短聚焦距离为0.5米,加上增距镜后仍是0.5米,由于焦距增长,所以可以得到更大的影像。

    增距镜的缺点

    增距镜有一个主要缺点:在加入了增距镜后,焦距增长了的组合镜头最大有效光圈减小了。所减小的规律是将增距镜的倍率乘以原镜头的最大光圈系数,即得出组合镜头的最大光圈系数。如一支70~210/4-5.6的变焦镜头,加入2倍的增距镜后,其组合镜头为140~420/8-11的长焦镜头;若用1.4倍的增距镜,则变成98~294/5.6-7.8的变焦镜头。增长的规律是将增距镜倍率乘以原镜头的焦距,即得出最终的组合焦距。

    由于这一缺点,在使用时要注意。对于使用裂像屏手动对焦的单反相机来说,由于最大有效光圈缩小,透光量减少,在取景时有时会出现裂像一半是黑的情况,不利于对焦。

    另一个不足就是,加入增距镜后,组合镜头的光学质量要比原镜头有所降低,如分辨率降低和反差减少。无论增距镜做得多好,其光学质量肯定要比原镜头差得多。一般宜采用较小的光圈,以提高影像的质量。

    尽管如此,增距镜还是一种便宜的长焦镜头代用品,对于一般的摄影爱好者来说,所损失的光学质量是不重要的,只要不将照片放得很大,用rou眼是比较难分辨出差别的。但增距镜的价格就要便宜多了。例如某一用户原有一支300/4.5的镜头,若购买一支600mm的镜头,其代价是很惨重的;所以购买增距镜对于业余摄影爱好者来说是很划算的,甚至连一些专业摄影师也采用增距镜来进行工作。

    由于相机原厂家生产的增距镜数量少、兼容性不强和价格高,给镜头独立生产厂家提供了生产的空档。目前生产AF增距镜的厂家主要有肯高、腾龙、适马、威达等。

    由于AF增距镜和AF镜头内部都有集成电路芯片,在连接顺序上要加以注意,若使用不当,有可能会使相机功能的失常,产生紊乱。正确的方法是先将增距镜装在镜头上,再将组合镜头装上相机机身上。

    4、什么是像素?总像素和有效像素有何区别

    我们身边的世界在宏观上成连续的,好比时间永远在连续不停的流逝,但我们用来记录时间的钟表却不是连续的,比如我们常用的电子手表,可能是以秒为单位一格一格的前进,如果再细分可以以毫秒或者更小的单位来记录。无论怎样,当我们细分到一定程度时,我们主观上已经不再能够分辨变化的幅度,而觉得成为连续变化的了。数码影像也一样,数码感光元件的最小单位是一个个像素,它们排列成行列形式的矩阵以感受光线。

    什么是像素?

    简单的说,我们通常所说的像素(Pixel),就是CCD上光电感应元件的数量,一个感光元件经过感光、光电信号转换、A/D转换等步骤以后,在输出的照片上就形成一个点,我们如果把影像放大数倍,会发现这些连续色调其实是由许多色彩相近的小方点所组成,这些小方点就是构成影像的最小单位“像素”。像素分为总像素和有效像素,目前市场上的数码相机标示的像素基本都是总像素。

    像素数量的提高,有利于我们获得高精度的图像,但是像素数量不是衡量感光元件好坏的唯一标准,还应该考虑像素质量,包括像素在感光元件上排列的均一性,色彩精确性,动态范围,噪声表现,以及包括色散、紫边、摩尔纹等在内的各种伪色失真。

    总像素和有效像素

    在看各种数码相机参数的时候,我们常常能够看见总像素和有效像素等名词,有时候出于宣传的目的,厂家并不说明有效像素,而仅仅用总像素来标明。那么两者的区别是什么?由于目前主要的感光元件都是马赛克形式的,每个像素实际上只能识别一种色彩信息,后期上需要借助周边像素的色彩信息来进行解码,还原本来的色彩。所以边缘的像素需要额外的像素来提供这些色彩信息,也就是说,感光元件的最外周的像素是不能参与成像的,它们是负责提供色彩信息来对最终图像的最外周像素进行去马赛克解码的。因此,总像素是大于有效像素的。

    5、什么是噪点?噪点产生的原因是什么?

    数码相机的噪点(noise)也称为噪声、噪音,主要是指CCD(CMOS)将光线作为接收信号接收并输出的过程中所产生的图像中的粗糙部分,也指图像中不该出现的外来像素,通常由电子干扰产生。看起来就像图像被弄脏了,布满一些细小的糙点。我们平时所拍摄的数码照片如果用个人电脑将拍摄到的高画质图像缩小以后再看的话,也许就注意不到。不过,如果将原图像放大,那么就会出现本来没有的颜色(假色),这种假色就是图像噪音。

    除了噪点外,还有一种现像很容易噪点相混淆,这就是坏点。在数码相机同一设置条件下,如果所拍的图像中杂点总是出现在同一个位置,就说明这台数码相机存在坏点,一般厂家对坏点的数量有规定,如果坏点数量超过了规定的数量,可以向经销商和厂家更换相机。假如杂点并不是出现在相同的位置,则说明这些杂点是由于使用时形成的噪点。

    噪点产生的原因:

    1、长时间曝光产生的图像噪音

    这种现像主要大部分出现在拍摄夜景,在图像的黑暗的夜空中,出线了一些孤立的亮点。可以说其原因是由于CCD无法处理较慢的快门速度所带来的巨大的工作量,致使一些特定的像素失去控制而造成的。为了防止产生这种图像噪音,部分数码相机中配备了被称为"降噪"的功能。

    如果使用降噪功能,在记录图像之前就会利用数字处理方法来消除图像噪音,因此在保存完毕以前就需要花费一点额外的时间。

    2、用JPEG格式对图像压缩而产生的图像噪音

    由于JPEG格式的图像在缩小图像尺寸后图像仍显得很自然,因此就可以利用特殊的方法来减小图像数据。此时,它就会以上下左右8×8个像素为一个单位进行处理。因此尤其是在8×8个像素边缘的位置就会与下一个8×8个像素单位发生不自然的结合。

    由JPEG格式压缩而产生的图像噪音也被称为马赛克噪音(BlockNoise),压缩率越高,图像噪音就越明显。虽然把图像缩小后这种噪音也会变得看不出来,但放大打印后,一进行色彩补偿就表现得非常明显。这种图像噪音可以通过利用尽可能高的画质或者利用JPEG格式以外的方法来记录图像而得以解决。

    3、模糊过滤造成的图像噪音

    模糊过滤造成的图像噪音和JPEG一样,在对图像进行处理时造成的图像噪音。有时是在数码相机内部处理过程中产生的,有时是利用图像润色软件进行处理时产生的。对于尺寸较小的图像,为了使图像显得更清晰而强调其色彩边缘时就会产生图像噪音。

    所谓的清晰处理就是指数码相机具有的强调图像色彩边缘的功能和图像编辑软件的“模糊过滤(UnsharpMask)”功能。在不同款式的数码相机中也有一些相机会对整个图像进行色彩边缘的强调。而处理以后就会在原来的边缘外侧出现其他颜色的色线。

    如果将图像尺寸缩小以后用于因特网的话,图像不是总觉得会变得模糊不清吗?此时如果利用“模糊过滤”功能对图像进行清晰处理,图像看起来效果就会好一些。不过由于产生了图像噪音,在进行第二次或第三次处理时,这种图像噪音就显得很麻烦。切忌不要因为处理过度而使图像显得过于粗糙。

    6、什么是色温?色温与白平衡有什么关系?

    在摄影领域,光源色大多是根据它们的色温来定义的。色温的单位是开尔文,英文简称为“K”,在不同温度下呈现出的色彩就是色温。当一个黑色物体受热后便开始发光,它会先变成暗红色,随着温度的继续升高会变成黄色,然后变成白色,最后就会变成蓝色,大家可以观察一下灯泡中的灯丝,不过由于受到温度的限制,大家一般不会看到它变成蓝色。总之,这种现象在日常生活中是非常普遍的。

    光源色愈偏蓝,色温愈高,偏红则色温愈低。在一天当中,天空的光源色也随时间变化:日出后40分钟光色较黄,色温3,000K;正午阳光雪白,上升至4,800~5,800K,阴天正午时分则约6,500K;日落前光色偏红,色温又降至纸2,200K。

    不同光源环境的色温表

    那么,什么是白平衡呢?

    不知道大家注意过没有?在人眼中灯光和日光下的色彩都正常,而在白炽灯下拍出的照片会偏红,在钨丝灯照明下拍出的照片会偏黄,原因就是因为人的大脑具有对环境颜色进行修正的能力,而相机的CCD等传感器并具备这种功能,因此就必须对它输出的信号进行修正,这种修正就叫做白平衡。

    从上面两个名词的解释中可以看出,色温和白平衡是两种不同的概念。但是,对于数码相机而言,修正白平衡,其实就是通过调节色温来实现,因此它们又有相关性。

    在很多数码相机的白平衡选项中都具有5种以上的模式,大致有自动、白天、阴天、白炽灯、荧光灯等等。因此大家可以根据身处的环境对相机进行调节,例如在室内进行拍摄,就要根据室内灯具的光源进行选择,一般有钨丝灯和荧光灯两种,在荧光灯模式下白色物体会偏蓝。而在钨丝灯模式下,数码相机的白平衡功能则会加强图像的蓝色,以保证色彩的还原。

    在一些高级DC和DV中,如果您对预设的白平衡模式不满意,还可以使用手动白平衡调节方式。大家需要找一个白色参照物,如白纸—类的东西,专业一些的用户推荐使用18%中灰板,您只要用相机镜头对着它就可以进行白平衡手动设定了。有人可能要问了,为什么是白色的纸呢,其它颜色的不可以吗?其实只要相机的白平衡系统能正确还原白色,其它颜色的色彩还原就正确了。

    不知道大家看明白了没有,色温和白平衡到底是什么样的关系,可能您又会问了,相机功能自带的白平衡选项已经够用了,为什么有的相机还有色温手动调节呢?这就是专业和业余的区别。白平衡选项是一种自动功能,广泛应用于业余相机中;而色温调节属于手动功能,是对自动白平衡的一种补充,一般只在专业相机才有。

    7、什么是景深?其特点和应用方法有哪些?

    简单的说,景深(depthoffield)就是聚焦清晰的焦点前后“可接受的清晰区域”。这段距离的特点是实焦点后面清晰的距离要长于前面清晰的距离,对于任意口径来说,其焦点之后的景深大约是焦点前面景深的2倍。清晰范围前后较短的,我们一般称之为景深浅(或景深短);而清晰范围较大的,我们一般称之为景深深(或景深长)。

    清晰范围的差别基于几方面的标准,教科书在解释景深时必需要讨论“最小弥散圈”的概念,但那是一个对于实际应用并非必要、复杂的技术问题。例如:你在动物园将镜头焦点调在老虎的眼睛上,在底片上它的眼睛就是最清晰的。而这时老虎的嘴巴,还有其身后的树皮,在最终的照片上也显出可以接受的清晰影像。当你的视线从调焦点的眼睛移开时,模糊的程度就逐渐加大。在近处前景和远处背景上的物体离老虎越远,清晰度就越差。

    因此,“清晰”并不是一种绝对的概念,所以,对焦点前(靠近相机)、后一定距离内的景物的都可以是清晰的,这个前后范围的部和就叫做景深,意思是只要在这个范围之内的景物,都能清楚地被拍摄到景物。

    景深规则一:光圈越大,景深越小

    光圈口径是影响景深的基本要素,同时也是唯一可以在不用改变拍摄位置和透视角度的情况下达到改变景深效果的方法(如下图),如f16或f22光圈,产生广泛的清晰调焦范围。相反,f2.8或f4产生短浅的景深,前景和背景上的可接受的清晰范围要小得多。但是这个方法只适用于数码单反相机和具有光圈优先AE功能的消费级数码相机机。

    创作一幅作品而非简单地拍照,光圈的选择就是一个基本的要素。即便在使用程序曝光模式时,你也应该在可行的情况下选用最合适的光圈和速度的组合。

    景深规则二:焦距越大,景深越小

    这是最便于得到浅景深效果的方法,也是人像摄影虚化北京的一大绝招。当婚礼的最高潮,您将相机的变焦推到长焦端,您会惊奇地发现,喧闹的背景和混乱的现场都已经离您远去,留下的只有新娘和新娘脸上洋溢出的微笑。

    景深规则三:距离越近,景深越小

    这是拍摄花朵等小物件时的最佳方法,在最广角端近距离拍摄是数码相机的优势之一,而对于拥有消费级数码相机的众多家庭用户来说,合理利用这一规则可以使您在拍摄中更加如鱼得水。

    基于以上分析,采用“最大光圈+尽可能缩短的摄距+长焦距镜头”能获取最小景深的效果。采用“最小光圈+最短焦距镜头+超焦距聚焦”能获取最大景深效果。目前,一般家用数码相机都是大景深,很难拍出背景虚化的照片,只有在用微距拍摄的时候才能看出背景虚化的效果。

    8、什么是分辨率?分辨率和像素有何关系?

    简单的说,像素(Pixel)是构成影像的最小单位,就是CCD或CMOS上光电感应元件的数量总和。说到像素就不得不说说分辨率了,因为两者密不可分!

    什么是分辨率?

    所谓“分辨率”指的是单位长度中所具有或撷取的像素数目。

    分辨率与像素一样,也分为很多种。其中最常见的就是影像分辨率,我们通常说的数码相机输出照片最大分辨率,指的就是影像分辨率,单位是ppi(Pixelperinch)。打印分辨率也是很常见的一种,顾名思义,就是打印机或者冲印设备的输出分辨率,单位是dpi(Dotperinch)。显示器分辨率,就是Windows桌面的大小,常见的设定有640×480、800×600、1024×768等等。屏幕字型分辨率:PC的字型分辨率是96dpi,Mac的字型分辨率是72dpi。当然还会有其他输出设备的分辨率,由于种类繁多,在此就不详细说明了。

    影像分辨率和像素的关系

    在大部分数码相机中,我们可以选择不同的分辨率拍摄图片,一台数码相机的像素越高,其图片的分辨率越大。分辨率和图片的像素有直接的关系,一张分辨率为640×480的图片,它的乘积就达到了307,200像素,也就是我们常说的30万像素,而一张分辨率为1600×1200的图片,它的像素就是200万。这样,我们就知道,分辨率表示的是图片在长和宽上占的点数的单位。

    因此可以看出,像素越高,最大输出的影像分辨率也越高;分辨率越大,图片的面积越大。

    打印分辨率和像素的关系

    打印分辨率,关系到我们冲印照片的大小,因此也是比较重要的。计算方法其实也很简单:800万像素的数码相机,有效像素795万,最大输出3260×2440的照片:

    宽:3260(Pixels)÷300(dpi)=10.8"

    高:2440(Pixels)÷300(dpi)=8.1"

    也就是说,如果用300dpi输出分辨率冲印照片,最大能冲印10.8×8英寸的照片。

    (注:人眼能分辨出的最大分辨率是300dpi,超过这个分辨率,人的眼睛是无法看出差别的,也就是说300dpi和600dpi在人眼看来是没有差别的,所以现在的冲印设备最大的设计输出分辨率,就是300dpi,当然每个人对于清晰度的要求是不一样的,一般来说能达到200dpi就能让大部分人满意,所以800万像素图片即使冲印到16寸的照片,在大部分人看来仍然还是很清晰的。)

    总结:如上所述,“打印尺寸”与影像分辨率有莫大的关系,只要影像分辨率改变了,打印的尺寸便会跟着变化,而像素和影像分辨率又有直接的关系,所以三者可以互相转换的,而其中最根本的就是像素。

    9、解读包围式曝光,如何运用包围式曝光?

    什么是包围式曝光?

    包围式曝光(Bracketing)也称为“阶梯式曝光”、“括弧式曝光”等,顾名思义就是通过几个不同变化的曝光组合来对某一对象实施曝光的拍摄方法。它是数码相机内置的一种高级功能。与普通拍摄不同的是,当使用这种能按下快门时,数码相机不是拍摄一张照片,而是以不同的曝光组合连续拍摄多张,从而保证总能有一张符合摄影者的曝光意图。普通数码相机的曝光级差可选择设置1/3,2/3或1EV,一般可以拍摄3张。

    如何运用包围式曝光?

    之所以要用包围式曝光,主要是用来对付一些比较重要同时亮度比较复杂,而摄影者一时无法确定合适曝光量的题材。因为数码照片曝光准确与否对后期输出照片的质量关系密切,所以对照片有较高要求的摄影者都很重视准确曝光,通过包围式曝光可确保你在一组不同曝光组合的照片中选择到具有最合适曝光量的照片。包围式曝光一般应用于静止或慢速移动的拍摄对象,因为要连续拍摄多张,很难捕捉动体的最佳拍摄时机。

    另外,在拍摄彩色反转片时也经常会用到这个功能。在一些特定的重要场合拍摄数码照片时,为了保证照片质量,保证拍摄成功率,使用包围式曝光可说是一个有效措施,因此一般数码相机上都有该项功能,通过主菜单或相关选项控制,在使用后要注意及时取消,以免影响以后的及时抓拍等。要想开启包围式曝光需要预先设定好相机模式,这样在拍摄时就像平常使用一样就行了。但在实际拍摄中还应该注意以下几点内容:

    1.注意对象特征

    一般来说,被摄景物在亮度相对均匀的前提下才可采用包围曝光,以确保获得准确曝光。但是真正面对主体与背景亮度悬殊,需要做一定曝光补偿的对象时,仅仅靠半档到一档的曝光偏差往往是不够的,仍然需要预先作相应的“曝光补偿”后才动用“包围式曝光”,这样才有可能获得准确曝光。比如说像拍摄高调对象或低调对象时,就要预先做适当的正负曝光补偿后才采取包围曝光。因为原来的补偿值很可能要大于你的“包围值”。

    2.注意硬件特征

    首先要注意储存卡的容量,在储存容量不够时就要谨慎使用,以免不必要地浪费空间,导致进退两难而无法完成拍摄任务;其次要注意电量。有些相机的电池不大稳定,在接近耗尽时说没电就没电了。尤其是在你连续拍摄3张时就好像进行强放电一样,电池能很可能一下子消耗殆尽而无法恢复,这样就很可能将你的拍摄计划打乱。

    3.注意区分曝光模式

    一些相机上还支持有包围式闪光曝光功能,这里需要明确的是,包围式闪光曝光与包围式曝光略有不同。包围式闪光曝光是通过控制闪光灯的输出来完成包围式曝光,虽然工作原理和cao作方式上都与包围式曝光相同,因为加入了闪光灯的元素,更适合在弱光条件下使用。

    10、什么是摩尔纹?如何减轻或消除摩尔纹?

    什么是摩尔纹?

    在数码影像中,如果主体中有密纹的纹理,常常会出现莫名其妙的水波一样的条纹和奇怪的色彩,这就是摩尔纹(moiré)。无论是用高级数码相机拍摄的影像,或是扫描的影像,均有可能出现该现象。当物体上的细致图样(如织物上的编织纹路,或建筑物上非常靠近的平行线)与成像元件上的图样相重叠时,可产生此现象。如果两个图样重叠,通常会产生另一种新图样。这种新图样通常叫作摩尔波纹。

    为了减少(或消除)摩尔纹,相机中安装了一种特殊的防混叠滤光镜。如果安装的滤光镜的防混叠效果太强,就会产生整体疲软的图像效果,但不会有摩尔纹。如果滤光镜的防混叠效果较弱,那么图像较为清晰,但在某些情况下出现摩尔纹的可能性较大。尼康相机的设计理念就是要尽量产生最清晰的图像,同时尽可能消除摩尔波纹。尽管如此,在某些情况下摩尔纹仍会出现在图像中,这是无法避免的。

    减轻或消除摩尔纹

    要减少摩尔纹,可采用以下方法:

    1、改变相机角度。由于相机与物体的角度会导致摩尔波纹,稍微改变相机的角度(通过旋转相机)可以消除或改变存在的任何摩尔波纹。

    2、改变相机位置。此外,通过左右或上下移动来改变角度关系,可以减少摩尔波纹。

    3、改变焦点。细致图样上过于清晰的焦点和高度细节可能会导致摩尔波纹,稍微改变焦点可改变清晰度,进而帮助消除摩尔波纹。

    4、改变镜头焦长。可用不同的镜头或焦长设定,来改变或消除摩尔波纹。

    5、用软件处理。如NikonCapture或Photoshop插件等,消除最终影像上出现的任何摩尔波纹。

    当然,要消除任何情况下的所有摩尔波纹是不可能的,但一般情况下,带一点细小摩尔波纹的清晰影像要比柔焦镜镜头影像好。用数码相机与扫描仪生成的所有影像均可能出现摩尔波纹,但使用SLR数码相机系统时最可能出现此波纹,因为其镜头、传感器和软件均是为产生最清晰、最准确的影像而设计的。如果要查看影像是否存在摩尔波纹,务必在计算机屏幕(或相机LCD)中查看完整、100%比例的影像。如果在屏幕中缩小查看影像,可能出现由显示器网格图样导致的虚假摩尔波纹。

    11、什么是偏振镜?偏振镜的用途和应用方法

    偏振镜又称“偏光镜”,是一种常用滤镜,在彩色和黑白摄影中常用来消除或减弱非金属表面的强反光,从而消除或减轻光斑,还可用来拍摄玻璃后面的物品,或表现强反光处的物体的质感。在一些特殊摄影中,偏振镜有着非常重要的作用。首先,要了解偏振镜的结构。偏振镜呈灰色,由镜片主体和一个与其相连并可旋转的后座框两部分组成。偏振镜的镜片主体由极细的水晶玻璃组成光栅。旋转时,偏振镜的光栅将那些不与它平行的偏振光线阻挡住。因此,偏振镜能够控制和选择记录在胶片上的与它平行反射光(此反射光为偏振光)的数量。实际上,这就是偏振镜能够消除或减弱非金属表面反光的道理。

    我们在翻拍图片和资料时,常常会碰到由于被摄纸张表面反光,使图片和资料的某些部位曝光不正确。表现在扩印出的照片中的这些部位偏淡,降低了清晰程度和色彩饱和度。如用装有偏振镜的镜头去对准图片拍摄,转动偏振镜片对光,不但原有的反光消失,而且饱和度也增加了。需要提醒的是使用偏振镜要作相应的曝光补偿。

    当我们在拍摄金属小工艺品、手表、钱币时,金属的表面也常有反光。偏振镜对金属反光无能为力,要消除这些反光又该用何办法呢?我们知道,自然光经过金属表面反射后,仍然为非偏振光;而自然光经过非金属表面反射后却是偏振光。基于这个原理,我们可以用白纸、白色有机玻璃、白塑料板等非金属作为反光材料,将自然光或灯光(灯光也不是偏振光)反射至金属表面,再用其表面的反射光作为金属物品的照明光,这样我们就可以利用偏振镜来消除这些金属表面的反射光,从而获得令人满意的效果。