画像に対して2Dハール離散ウェーブレット変換と逆DWTを実行したい。2D haar離散ウェーブレット変換と逆DWTを簡単な言語で説明し、2D haar dwtのコードを記述できるアルゴリズムを説明してください?Googleで提供された情報は技術的すぎました。画像を4つのサブバンド(LL、LH、HL、HH)に分割するなどの基本的なことは理解しましたが、DWTおよびIDWTを実行するプログラムを作成する方法を本当に理解できません。画像全体として画像に対して実行されるため、DWTはDCTよりも優れていると読みましたが、頭上にいくつかの説明がありましたが、ここでは間違っているかもしれませんが、DWTとDCTの圧縮手法はDWTまたはDCTを実行すると画像サイズが小さくなるためです。皆さんが知識の一部を共有し、私の知識を強化することを願っています。
ありがとうございました
再:それは画像フォーマットと関係があります。DWTで使用される「ピクセルの値」とは何ですか?私はそれを画像のRGB値であると想定しています。
import java.awt.event.*;
import javax.swing.*;
import java.awt.image.BufferedImage;
import javax.swing.JFrame;
import javax.swing.SwingUtilities;
import java.io.*;
import javax.swing.JFileChooser;
import javax.swing.filechooser.FileFilter;
import javax.swing.filechooser.FileNameExtensionFilter;
import javax.imageio.ImageIO;
import java.awt.*;
import java.lang.*;
import java.util.*;
class DiscreteWaveletTransform
{
public static void main(String arg[])
{ DiscreteWaveletTransform dwt=new DiscreteWaveletTransform();
dwt.initial();
}
static final int TYPE=BufferedImage.TYPE_INT_RGB;
public void initial()
{
try{
BufferedImage buf=ImageIO.read(new File("lena.bmp"));
int w=buf.getWidth();
int h=buf.getHeight();
BufferedImage dwtimage=new BufferedImage(h,w,TYPE);
int[][] pixel=new int[h][w];
for (int x=0;x<h;x++)
{
for(int y=0;y<w;y++)
{
pixel[x][y]=buf.getRGB(x,y);
}
}
int[][] mat = new int[h][w];
int[][] mat2 = new int[h][w];
for(int a=0;a<h;a++)
{
for(int b=0,c=0;b<w;b+=2,c++)
{
mat[a][c] = (pixel[a][b]+pixel[a][b+1])/2;
mat[a][c+(w/2)] = Math.abs(pixel[a][b]-pixel[a][b+1]);
}
}
for(int p=0;p<w;p++)
{
for(int q=0,r =0 ;q<h;q+=2)
{
mat2[r][p] = (mat[q][p]+mat[q+1][p])/2;
mat2[r+(h/2)][p] = Math.abs(mat[q][p]-mat[q+1][p]);
}
}
for (int x=0;x<h;x++)
{
for(int y=0;y<w;y++)
{
dwtimage.setRGB(x,y,mat2[x][y]);
}
}
String format="bmp";
ImageIO.write(dwtimage,format, new File("DWTIMAGE.bmp"));
}
catch(Exception e)
{
e.printStackTrace();
}
}
}
出力は黒い画像で、その間に細い線があり、実際の出力の近くにはどこにもありません。論理を誤って解釈したと思います。間違いを指摘してください。よろしく