快速图形拉伸算法的方法介绍
快速图形拉伸算法的方法介绍
从数字图像处理的基本理论,我们可以知道:图像的变形变换就是源图像到目标图像的坐标变换。简单的想法就是把源图像的每个点坐标通过变形运算转为目标图像的相应点的新坐标,但是这样会导致一个问题就是目标点的坐标通常不会是整数,而且像放大操作会导致目标图像中没有被源图像的点映射到,这是所谓“向前映射”方法的缺点。所以一般都是采用“逆向映射”法。
但是逆向映射法同样会出现映射到源图像坐标时不是整数的问题。这里就需要“重采样滤波器”。这个术语看起来很专业,其实不过是因为它借用了电子信号处理中的惯用说法(在大多数情况下,它的功能类似于电子信号处理中的带通滤波器),理解起来也不复杂,就是如何确定这个非整数坐标处的点应该是什么颜色的问题。前面说到的三种方法:最近邻域法,线性插值法和三次样条法都是所谓的“重采样滤波器”。
所谓“最近邻域法”就是把这个非整数坐标作一个四舍五入,取最近的整数点坐标处的点的颜色。而“线性插值法”就是根据周围最接近的几个点(对于平面图像来说,共有四点)的颜色作线性插值计算(对于平面图像来说就是二维线性插值)来估计这点的颜色,在大多数情况下,它的准确度要高于最近邻域法,当然效果也要好得多,最明显的就是在放大时,图像边缘的锯齿比最近邻域法小非常多。当然它同时还带业个问题:就是图像会显得比较柔和。这个滤波器用专业术语来说(呵呵,卖弄一下偶的专业^_^)叫做:带阻性能好,但有带通损失,通带曲线的矩形系数不高。至于三次样条法我就不说了,复杂了一点,可自行参考数字图像处理方面的专业书籍,如本文的参考文献。
再来讨论一下坐标变换的算法。简单的空间变换可以用一个变换矩阵来表示:
[x’,y’,w’]=[u,v,w]*T
其中:x’,y’为目标图像坐标,u,v为源图像坐标,w,w’称为齐次坐标,通常设为1,T为一个3X3的变换矩阵。
这种表示方法虽然很数学化,但是用这种形式可以很方便地表示多种不同的变换,如平移,旋转,缩放等。对于缩放来说,相当于:
[Su00]
[x,y,1]=[u,v,1]*|0Sv0|
[001]
其中Su,Sv分别是X轴方向和Y轴方向上的缩放率,大于1时放大,大于0小于1时缩小,小于0时反转。
矩阵是不是看上去比较晕?其实把上式按矩阵乘法展开就是:
{x=u*Su
{y=v*Sv
就这么简单。^_^
有了上面三个方面的准备,就可以开始编写代码实现了。思路很简单:首先用两重循环遍历目标图像的每个点坐标,通过上面的变换式(注意:因为是用逆向映射,相应的变换式应该是:u=x/Su和v=y/Sv)取得源坐标。因为源坐标不是整数坐标,需要进行二维线性插值运算:
P=n*b*PA+n*(1–b)*PB+(1–n)*b*PC+(1–n)*(1–b)*PD
其中:n为v(映射后相应点在源图像中的Y轴坐标,一般不是整数)下面最接近的行的Y轴坐标与v的差;同样b也类似,不过它是X轴坐标。PA-PD分别是(u,v)点周围最接近的四个(左上,右上,左下,右下)源图像点的颜色(用TCanvas的Pixels属性)。P为(u,v)点的插值颜色,即(x,y)点的近似颜色。
这段代码我就不写的,因为它的效率实在太低:要对目标图像的每一个点的RGB进行上面那一串复杂的浮点运算。所以一定要进行优化。对于VCL应用来说,有个比较简单的优化方法就是用TBitmap的ScanLine属性,按行进行处理,可以避免Pixels的像素级操作,对性能可以有很大的改善。这已经是算是用VCL进行图像处理的基本优化常识了。不过这个方法并不总是管用的,比如作图像旋转的时候,这时需要更多的技巧。
无论如何,浮点运算的开销都是比整数大很多的,这个也是一定要优化掉的。从上面可以看出,浮点数是在变换时引入的,而变换参数Su,Sv通常就是浮点数,所以就从它下手优化。一般来说,Su,Sv可以表示成分数的形式:
Su=(double)Dw/Sw;Sv=(double)Dh/Sh
其中Dw,Dh为目标图像的宽度和高度,Sw,Sh为源图像的宽度和高度(因为都是整数,为求得浮点结果,需要进行类型转换)。
将新的Su,Sv代入前面的变换公式和插值公式,可以导出新的插值公式:
因为:
b=1–x*Sw%Dw/(double)Dw;n=1–y*Sh%Dh/(double)Dh
设:
B=Dw–x*Sw%Dw;N=Dh–y*Sh%Dh
则:
b=B/(double)Dw;n=N/(double)Dh
用整数的B,N代替浮点的b,n,转换插值公式:
P=(B*N*(PA–PB–PC+PD)+Dw*N*PB+DH*B*PC+(Dw*Dh–Dh*B–Dw*N)*PD)/(double)(Dw*Dh)
这里最终结果P是浮点数,对其四舍五入即可得到结果。为完全消除浮点数,可以用这样的方法进行四舍五入:
P=(B*N…*PD+Dw*Dh/2)/(Dw*Dh)
这样,P就直接是四舍五入后的整数值,全部的计算都是整数运算了。
简单优化后的代码如下:
int__fastcallTResizeDlg::Stretch_Linear(Graphics::TBitmap*aDest,Graphics::TBitmap*aSrc)
{
intsw=aSrc->Width-1,sh=aSrc->Height-1,dw=aDest->Width-1,dh=aDest->Height-1;
intB,N,x,y;
intnPixelSize=GetPixelSize(aDest->PixelFormat);
BYTE*pLinePrev,*pLineNext;
BYTE*pDest;
BYTE*pA,*pB,*pC,*pD;
for(inti=0;i<=dh;++i)
{
pDest=(BYTE*)aDest->ScanLine[i];
y=i*sh/dh;
N=dh-i*sh%dh;
pLinePrev=(BYTE*)aSrc->ScanLine[y++];
pLineNext=(N==dh)?pLinePrev:(BYTE*)aSrc->ScanLine[y];
for(intj=0;j<=dw;++j)
{
x=j*sw/dw*nPixelSize;
B=dw-j*sw%dw;
pA=pLinePrev+x;
pB=pA+nPixelSize;
pC=pLineNext+x;
pD=pC+nPixelSize;
if(B==dw)
{
pB=pA;
pD=pC;
}
for(intk=0;k<nPixelSize;++k)
*pDest++=(BYTE)(int)(
(B*N*(*pA++-*pB-*pC+*pD)+dw*N**pB++
+dh*B**pC+++(dw*dh-dh*B-dw*N)**pD++
+dw*dh/2)/(dw*dh)
);
}
}
return0;
}
应该说还是比较简洁的。因为宽度高度都是从0开始算,所以要减一,GetPixelSize是根据PixelFormat属性来判断每个像素有多少字节,此代码只支持24或32位色的情况(对于15或16位色需要按位拆开—因为不拆开的话会在计算中出现不期望的进位或借位,导致图像颜色混乱—处理较麻烦;对于8位及8位以下索引色需要查调色板,并且需要重索引,也很麻烦,所以都不支持;但8位灰度图像可以支持)。另外代码中加入一些在图像边缘时防止访问越界的代码。
通过比较,在PIII-733的机器上,目标图像小于1024x768的情况下,基本感觉不出速度比StretchDraw有明显的慢(用浮点时感觉比较明显)。效果也相当令人满意,不论是缩小还是放大,图像质量比StretchDraw方法有明显提高。
不过由于采用了整数运算,有一个问题必须加以重视,那就是溢出的问题:由于式中的分母是dw*dh,而结果应该是一个Byte即8位二进制数,有符号整数最大可表示31位二进制数,所以dw*dh的值不能超过23位二进制数,即按2:1的宽高比计算目标图像分辨率不能超过4096*2048。当然这个也是可以通过用无符号数(可以增加一位)及降低计算精度等方法来实现扩展的,有兴趣的朋友可以自己试试。
from http://00000000.net.cn/Index.htm
其他文档:
aspjpeg组件高级使用方法介绍
解密:一张所有XP用户都感到吃惊的图片
JPEG简易文档
BMP位图文件结构及VC操作
一个图形界面的俄罗斯方快c源码
AutoCad二次开发:ObjectARX技术谈