
图形学相似图像搜索.ppt
33页相似图像搜索,--何奇14110852181,相似图像搜索 --HISTORY,2010年6月份,谷歌图片的搜索框旁边放置了一个小照相机的按钮,标志着以图搜图的全新图片检索功能开始启用,8月份,搜狗图片搜索也具备了以图搜图的功能,12月,百度正式上线图片搜索新功能——百度识图这些图片搜索不同于以前的以关键字来搜索图片,而是使用图片本身替代了关键字来搜索类似图片,这种以图搜图方式的搜索引擎用术语来说就是“反向图片搜索引擎”(reverse image search engine)十款搜索引擎------很少能打开--vv--,1 2 3 4 .hk 5 6 7 8 9 10,国内图片搜索引擎的排名情况,1. Google图片搜索2. 百度图片搜索3 .必应图片搜索4 .搜狗图片搜索5. 搜搜图片6. 有道图片搜索7. 雅虎图片搜索从体验的角度,百度识图--小试牛刀--范冰冰,,技术原理,看到了技术,我们就想探究技术背后的原理,这种技术的原理是什么?计算机怎么知道两张图片相似呢?原理非常简单易懂我们可以用一个快速算法,就达到基本的效果这里的关键技术叫做“感知哈希算法”(Perceptual hash algorithm),它的作用是对每张图片生成一个“指纹”(fingerprint)字符串,然后比较不同图片的指纹。
结果越接近,就说明图片越相似这种图像搜索的算法的三个步骤,第一步骤:将目标图片进行特征提取,描述图像的算法很多,用的比较多的是:SIFT描述子,指纹算法函数,bundling features算法,hash function(散列函数)等也可以根据不同的图像,设计不同的算法,比如图像局部N阶矩的方法提取图像特征这种图像搜索的算法的三个步骤,第二步骤:将图像特征信息进行编码,并将海量图像编码做查找表对于目标图像,可以对分辨率较大的图像进行降采样,减少运算量后在进行图像特征提取和编码处理平均哈希算法的三个步骤,第三步骤: 相似度匹配运算:利用目标图像的编码值,在图像搜索引擎中的图像数据库进行全局或是局部的相似度计算;根据所需要的鲁棒性,设定阈值,然后将相似度高的图片预保留下来;最后应该还有一步筛选最佳匹配图片,这个应该还是用到特征检测算法其中每个步骤都有很多算法研究,围绕数学,统计学,图像编码,信号处理等理论进行研究一个最简单的实现,第一步,缩小尺寸将图片缩小到8x8的尺寸,总共64个像素这一步的作用是去除图片的细节,只保留结构、明暗等基本信息,摒弃不同尺寸、比例带来的图片差异第二步,简化色彩。
将缩小后的图片,转为64级灰度也就是说,所有像素点总共只有64种颜色一个最简单的实现,第三步,计算平均值计算所有64个像素的灰度平均值第四步,比较像素的灰度将每个像素的灰度,与平均值进行比较大于或等于平均值,记为1;小于平均值,记为0第五步,计算哈希值将上一步的比较结果,组合在一起,就构成了一个64位的整数,这就是这张图片的指纹组合的次序并不重要,只要保证所有图片都采用同样次序就行了灰度图相关算法(R = red G = green B = blue),1.浮点算法:Gray=R*0.3+G*0.59+B*0.11 据说是很著名的心理学公式2.整数方法:Gray=(R*30+G*59+B*11)/1003.移位方法:Gray =(R*76+G*151+B*28)>>8;4.平均值法:Gray=(R+G+B)/3;5.仅取绿色:Gray=G;估计效果最差,但最快,简单相似图像搜索,得到指纹以后,就可以对比不同的图片,看看64位中有多少位是不一样的在理论上,这等同于计算"汉明距离"(Hamming distance)如果不相同的数据位不超过5,就说明两张图片很相似;如果大于10,就说明这是两张不同的图片。
这种算法的优点是简单快速,不受图片大小缩放的影响,缺点是图片的内容不能变更如果在图片上加几个文字,它就认不出来了所以,它的最佳用途是根据缩略图,找出原图计算出这些图片的"指纹", 放在一个txt文本中,,结果展示,不足,上述实际应用中,往往采用更强大的pHash算法和SIFT算法,它们能够识别图片的变形只要变形程度不超过25%,它们就能匹配原图这些算法虽然更复杂,但是原理与上面的简便算法是一样的,就是先将图片转化成Hash字符串,然后再进行比较适合查找原图,不适合查找相似度平均哈希算法过于严格,不够精确,更适合搜索缩略图,为了获得更精确的结果可以选择感知哈希算法,它采用的是DCT(离散余弦变换)来降低频率的方法,离散余弦变换(Discrete Cosine Transform),离散余弦变换的定义与傅里叶变换的思想相似,离散余弦变换(Discrete CosineTransform - DCT)将函数表达为许多不同幅度和频率的余弦函数的和对于图像这样一种二维函数而言,在对其进行离散余弦变换后,图像中大部分的,在视觉上比较重要的信息都会集中在小部分的DCT系数上面由于这个原因,DCT经常被用于图像压缩的应用场景当中。
对于一个二维的离散序列A(即一个M行N列的矩阵),它的二维离散余弦变换定义如下所示:其中,Bpq的值被称为矩阵A的DCT系数,在得到所有的DCT系数后,便形成了一个与A同样大小的矩阵B离散余弦变换的应用,从图中可以看出,一幅清晰度较高的图像对应的DCT变换系数高频成分(矩阵右下方)的值是较大的;而对图像进行模糊处理后,DCT变换系数较大值主要集中在低频成分(矩阵左上方)感知哈希算法(pHash),1.缩小图片:32 * 32是一个较好的大小,这样方便DCT计算2.转化为灰度图:把缩放后的图片转化为256阶的灰度图3.计算DCT:DCT把图片分离成分率的集合4.缩小DCT:DCT是32*32,保留左上角的8*8,这些代表的图片的最低频率5.计算平均值:计算缩小DCT后的所有像素点的平均值6.进一步减小DCT:大于平均值记录为1,反之记录为0.,感知哈希算法(pHash),7.得到信息指纹:组合64个信息位,顺序随意保持一致性即可8.对比指纹:计算两幅图片的指纹,计算汉明距离(从一个指纹到另一个指纹需要变几次),汉明距离越大则说明图片越不一致,反之,汉明距离越小则说明图片越相似,当距离为0时,说明完全相同。
通常认为距离>10 就是两张完全不同的图片)此算法可参考开源项目pHash,下载地址:http://www.phash.org/download/,差异哈希算法(dHash),1.缩小图片:收缩到9*8的大小,一遍它有72的像素点2.转化为灰度图:把缩放后的图片转化为256阶的灰度图具体算法见平均哈希算法步骤)3.计算差异值:dHash算法工作在相邻像素之间,这样每行9个像素之间产生了8个不同的差异,一共8行,则产生了64个差异值4.获得指纹:如果左边的像素比右边的更亮,则记录为1,否则为0.,差异哈希算法(dHash),相比pHash,dHash的速度要快的多,相比aHash,dHash在效率几乎相同的情况下的效果要更好,它是基于渐变实现的需要说明的是这种指纹算法不仅可以应用于图片搜索,同样适用于其他多媒体形式除此之外,图片搜索特征提取方法有很多,很多算法还有许多可以改进的地方,比如对于人物可以先进行人脸识别,再在面部区域进行局部的哈希,或者背景是纯色的可以先过滤剪裁等等,最后在搜索的结果中还可以根据颜色、风景、产品等进行过滤另类方法---颜色分布法,每张图片都可以生成颜色分布的直方图(color histogram)。
如果两张图片的直方图很接近,就可以认为它们很相似颜色分布法,任何一种颜色都是由红绿蓝三原色(RGB)构成的,所以上图共有4张直方图(三原色直方图 + 最后合成的直方图)如果每种原色都可以取256个值,那么整个颜色空间共有1600万种颜色(256的三次方)针对这1600万种颜色比较直方图,计算量实在太大了,因此需要采用简化方法可以将0~255分成四个区:0~63为第0区,64~127为第1区,128~191为第2区,192~255为第3区这意味着红绿蓝分别有4个区,总共可以构成64种组合(4的3次方)任何一种颜色必然属于这64种组合中的一种,这样就可以统计每一种组合包含的像素数量颜色分布法,上图是某张图片的颜色分布表,将表中最后一栏提取出来,组成一个64维向量(7414, 230, 0, 0, 8, ..., 109, 0, 0, 3415, 53929)这个向量就是这张图片的特征值或者叫"指纹"另类方法---内容特征法,除了颜色构成,还可以从比较图片内容的相似性入手首先,将原图转成一张较小的灰度图片,假定为50x50像素然后,确定一个阈值,将灰度图片转成黑白图片如果两张图片很相似,它们的黑白轮廓应该是相近的。
于是,问题就变成了,第一步如何确定一个合理的阈值,正确呈现照片中的轮廓?,内容特征法,显然,前景色与背景色反差越大,轮廓就越明显这意味着,如果我们找到一个值,可以使得前景色和背景色各自的"类内差异最小"(minimizing the intra-class variance),或者"类间差异最大"(maximizing the inter-class variance),那么这个值就是理想的阈值Otsu's method,1979年,日本学者大津展之证明了,"类内差异最小"与"类间差异最大"是同一件事,即对应同一个阈值他提出一种简单的算法,可以求出这个阈值,这被称为"大津法"(Otsu's method)下面就是他的计算方法假定一张图片共有n个像素,其中灰度值小于阈值的像素为 n1 个,大于等于阈值的像素为 n2 个( n1 + n2 = n )w1 和 w2 表示这两种像素各自的比重大津法,再假定,所有灰度值小于阈值的像素的平均值和方差分别为 μ1 和 σ1,所有灰度值大于等于阈值的像素的平均值和方差分别为 μ2 和 σ2于是,可以得到可以证明,这两个式子是等价的:得到"类内差异"的最小值,等同于得到"类间差异"的最大值。
不过,从计算难度看,后者的计算要容易一些下一步用"穷举法",将阈值从灰度的最低值到最高值,依次取一遍,分别代入上面的算式使得"类内差异最小"或"类间差异最大"的那个值,就是最终的阈值,例子,有了50x50像素的黑白缩略图,就等于有了一个50x50的0-1矩阵矩阵的每个值对应原图的一个像素,0表示黑色,1表示白色这个矩阵就是一张图片的特征矩阵两个特征矩阵的不同之处越少,就代表两张图片越相似这可以用"异或运算"实现(即两个值之中只有一个为1,则运算结果为1,否则运算结果为0)对不同图片的特征矩阵进行"异或运算",结果中的1越少,就是越相似的图片大数据竞赛,,抛砖引玉,任务描述参赛队伍需要开发图片搜索程序,为图片库建立索引,再用查询图片进行搜索每次用1张图片进行查询,得到50条搜索结果,按照相关度从高到低排序总共有6次查询,300条搜索结果结果以csv格式文件提交总感觉这样的算法不够好,,,,,。












