段階的に縮小すると品質が低下しますか?


10

Photoshopでは、ラスターを2回50%縮小するのではなく、1回75%縮小すると品質に違いがありますか?どちらの場合も、最終的なサイズは同じで、元のサイズの25%になります。

以前に縮小したことがわかっている画像を縮小したい場合があるからです。画像を元のサイズに戻すには、CTRL + Z(元に戻す)を100回行う必要がありません。最終的な品質に影響がない場合は、その場で画像を縮小します。


1
「50%1回vs 25%2回」という意味ですか?でも、そう(100%-75%)*(100%-75%) != 50%。しかし、私はあなたが何を意味しているのかを知っていると信じています。その答えは「いいえ」であり、違いがあるとしても、実際には違いを伝えることができません。
Mateen Ulhaq

2
答えではありませんが、⁋2の問題の考えられる解決策:可能であれば、サイズを変更しようとしているレイヤーをスマートオブジェクトに変換します。元のファイルの品質に影響を与えることなく、前後にスケーリングできます。
JariKeinänen、2011

1
@muntoo 75%を1回、50%を2回と編集しました。25%2回は実際には50%1回よりも大きいです。
ジョジョ

回答:


10

だから、コミュニティのwikiだあなたはこの恐ろしい、恐ろしいポストを修正することができます。


Grrr、LaTeXなし。:)私はできる限りベストを尽くさなければならないでしょう。


定義:

私たちは、名前の画像(PNG、または別のロスレス*形式)持っているAサイズのAは、xはyと。私たちの目標は、p = 50%でスケーリングすることです。

イメージ( "配列")Bは、Aの "直接スケーリング"バージョンになります。それは持っていますB 、S = 1つのステップの数を。

A = B B s = B 1

画像(「配列」)Cは、Aの「増分スケーリング」バージョンになります。それは持っているだろうC S = 2ステップの数を。

A≅C C S = C 2


楽しいもの:

A = B 1 = B 0 ×p

C 1 = C 0 ×p 1÷C s

A≅C 2 = C 1 ×p 1÷C s

あなたはそれらの分数の力を見ますか?理論的には、ラスターイメージの品質が低下します(ベクター内のラスターは実装によって異なります)。いくら?次にそれを理解します...


良いもの:

C e = 0の場合、p 1 if C s if∈

C E = C 場合、P 1÷C S ∉ℤ

ここで、eは整数の丸め誤差による最大誤差(最悪のシナリオ)を表します。

現在、すべてがダウンスケーリングアルゴリズムに依存しています(スーパーサンプリング、バイキュービック、ランチョスサンプリング、ニアレストネイバーなど)。

ニアレストネイバー(あらゆる品質の最悪のアルゴリズム)を使用している場合、「真の最大誤差」(C t)はC eと等しくなります。他のアルゴリズムを使用している場合、複雑になりますが、それほど悪くはありません。(Nearest Neighborほど悪くない理由についての技術的な説明が必要な場合は、それが推測である原因を1つ挙げることはできません。注:数学者の皆さん、これを修正してください!)


あなたの隣人を愛しなさい:

のは、画像の"アレイ"作ろうDD X = 100DのY = 100、およびD S = 10pは同じです:p = 50%

最近隣アルゴリズム(ひどい定義、知っています):

N(I、p)= mergeXYDuplicates(floorAllImageXYs(I x、y ×p)、I)。ここで、x、yのみが乗算されます。色(RGB)値ではありません!私はあなたが数学でそれを実際に行うことができないことを知っています、そしてこれがまさに私が予言の伝説の数学者ではない理由です。

mergeXYDuplicates()は、見つかったすべての複製について、元の画像Iの一番下/一番左のx、y「要素」だけを保持し、残りを破棄します。)

ランダムなピクセルを考えてみましょう:D 0 39,23。次に、D n + 1 = N(D n、p 1÷D s)= N(D n、〜93.3%)を繰り返し適用します。

c n + 1 = floor(c n ×〜93.3%)

c 1 = floor((39,23)×〜93.3%)= floor((36.3,21.4))=(36,21)

c 2 = floor((36,21)×〜93.3%)=(33,19)

c 3 =(30,17)

c 4 =(27,15)

c 5 =(25,13)

c 6 =(23,12)

c 7 =(21,11)

c 8 =(19,10)

c 9 =(17,9)

c 10 =(15,8)

単純なスケールダウンを1回だけ行った場合、次のようになります。

b 1 = floor((39,23)×50%)= floor((19.5,11.5))=(19,11)

bcを比較してみましょう。

b 1 =(19,11)

c 10 =(15,8)

これは(4,3)ピクセルのエラーです。エンドピクセル(99,99)でこれを試して、エラーの実際のサイズを説明します。ここですべての計算を行うことはしませんが、それは(46,46)つまり本来あるべき(49,49)からの(3,3)のエラーになることをお伝えします。

これらの結果を元の結果と組み合わせてみましょう。「実際のエラー」は(1,0)です。これがすべてのピクセルで発生する場合を想像してみてください...違いが生じる可能性があります。うーん...まあ、おそらくもっと良い例があります。:)


結論:

画像が元々大きなサイズの場合、複数のダウンスケールを行わない限り、それは実際には問題になりません(以下の「実際の例」を参照)。

最近傍の増分ステップ(ダウン)ごとに最大1ピクセルずつ悪化します。10のダウンスケールを行うと、画像の品質がわずかに低下します。


実際の例:

サムネイルをクリックすると拡大表示されます。)

スーパーサンプリングを使用して1%ずつ段階的に縮小:

元の 縮小x1 ダウンスケールx10 縮小されたx1にズームイン 縮小されたx10にズームイン

ご覧のように、スーパーサンプリングは、何度も適用すると「ぼかし」ます。これは、1つのダウンスケールを行う場合に「良い」ものです。これを段階的に行っている場合、これは悪いことです。


*エディターと形式によっては、これにより違い生じる可能性があるため、私はそれをシンプルに保ち、ロスレスと呼んでいます。


あなたはたくさんの努力をしましたlol .... + 1
Jack

2
努力の+1 ...芸術家タイプの人々が私たちを考えるための1000-それをすべて読むでしょう。pixまでスクロールしました:-)。そしてあなたはあなたの主張をしました。
ドーソン、

グレート答えは、しかし、私は最近傍またはスーパーサンプリングを使用しているどのように良い例わかりませんよ。特に、バイキュービック補間はPhotoshopのデフォルトです。また、画像を拡大するときに逆を読みました。段階的拡大では、ワンストップ拡大よりもわずかに良い結果が得られます。photo.stackexchange.com / a / 3985 / 1913なぜこれが縮小に当てはまらないのですか?
JariKeinänen、2011

1
@koiyu Bicubicは、IIRCのスーパーサンプリングよりも悪いです。ダウンスケーリングでは、画像はデータを失っています。[完全に真実ではありませんが、]:ほとんどのダウンスケーリングアルゴリズムは、エッジを少し「ぼかす」ことによって生成されるエッジの最も近いエッジを削除しながら、このデータを失うように設計されています。このぼかしが加わります。[推測]画像が拡大されている場合、「再帰的に」改善されています。この再帰的な品質は、CPUの負荷が高いものの、一度にアップスケーリングする場合よりも画像のぼけが少ないアルゴリズムが存在するに違いない。[/ Guess]
Mateen Ulhaq

非アクティブな後に私の画像を削除するための画像を呪います。画像が「永続的」であるサービスを知っている人はいますか?
Mateen Ulhaq、2011

5

ジョジョは品質について尋ねます。ほとんどの応答はピクセル精度に関するものであり、デザイナーや写真家にとってもほとんど関係ありません。

品質はどのようにの尺度で説得喜ば最終結果はそれがどのように「正確」、ではありません。良い例として、クローン作成またはコンテンツ認識塗りつぶしは、画像の不要な部分を妥当なピクセルに置き換えます。これらは正しく見えますが、正確とは言えません

Photoshopでは、段階的なダウンサイジングとワンショットでのダウンサイジングの主な実用的な違いは、かなり時間がかかることです。時間単位で充電する場合は、必ず1%ずつ行ってください。そうでない場合は、1ショットで縮小します。後で大きなバージョンを作成する場合に備えて、最初に画像をスマートオブジェクトにします。

どのアルゴリズムを使用しても(そして、それらのアルゴリズムに関するDawsonのコメントは行き詰っています-それらは素晴らしいです)、ダウンサイジングはピクセルを捨てます。アルゴリズムはピクセルを減算し、ピクセルを正しく表示する方法を推測することで他のピクセルを変更します。良いアルゴリズムは良い推測をします。説得力のある結果が得られますが、意味のある意味では正確ではありません。正直に言って、色以外は正確です!-科学者でない限り、探しているものではありません。その場合、そもそもおそらくダウンサイジングではないでしょう。

通常のバイキュービックアルゴリズムを使用してサイズを縮小した画像は、多くの場合、シャープネスを少し行うことでメリットを得られますが、Web用にJPEGを作成している場合は、シャープネスによってファイルサイズが大きくなります。

設計における正しい品質は、最終製品に必要な品質です。それを超えると、作業に時間が追加されますが、価値はありません。

[編集:koiyuのこの質問の復活で拡大することに言及があったので。その件についていくつかコメントを追加しました。]

1つの大きな飛躍とは対照的に、画像を小さなステップでアップレザリングすると、わずかにより良い(「わずかに悪くなる」がより正確になる)結果が得られるという考えが飛び交っています。スコットケルビーは数年前にこのアイデアを宣伝しましたが、それはPS 7の時点では事実だったかもしれません。今日、それが正しいことを確信させるものは何も見ていません。PS CS2とPS 3を中心にした私のテストではそれは証明されませんでしたが、私はそれらに多くの時間を浪費しなかったと言わなければなりません。

「画質の低下」と「画質のわずかな低下」のわずかな違いには実用的な価値がないため、詳細なテストに時間を費やしませんでした。どちらも使用できません。私自身の仕事では、単純なルールは「アップサイズしない」です。設計作業における実用性の問題として、特定の目的に対して少し低解像度の画像は、同じ画像よりも、「正しい」解像度に「アップ」した同じ画像よりも、常にそのまま使用した方がよいように見えます。フラクタルとバイキュービックのバリエーションを含む、出くわす。


「時間単位で充電する場合、必ず一度に1%ずつ充電してください。」...正統派?:)
Mateen Ulhaq 2011

ところで、知覚された「ぼかし」は意図的にダウンスケーリングアルゴリズムによって行われていませんか?
Mateen Ulhaq、2011

バイキュービックは意図的にぼやけませんが、わずかな軟化は一般的なアーティファクトです。それが発生すると、適度な研ぎがそれを修正します。
アランギルバートソン

1
@muntoo:「時間単位で請求する場合...」は、設計ワークフローについての議論でよくある軽度の皮肉であり、非効率的で無駄な作業時間の使用は非効率的で無駄です。
アランギルバートソン

+1たくさんの良い点:「品質とは、最終結果の納得と満足の尺度であり、「正確」ではありません。」、「正確...」は、科学者」、「「画質の低下」と「画質の低下がわずかに少ない」とのわずかな違いには実用的な価値がない」
Farray

3

通常、複数のスケーリングでは、単一のスケーリングよりも最終的なサイズに品質が低下しますが、多くの場合、その差は最小限になります。特に、(2:1、2:1)と(4:1)の例のように、正確な比率で小さくスケーリングすると、単一のスケーリングに比べて劣化が非常に小さくなります。もちろん、すべての変更を最高の解像度で行い、最後に1回だけスケーリングするのが最善です。正確なスケーリングが最初にわからない場合は、一連のテストスケーリングを行って適切なサイズを見つけ、そのサイズを書き留め、テストイメージを破棄し、元のサイズからそのサイズに単一のスケーリングを実行できます。


1
増分スケーリングの方が悪いとおっしゃっていますが、理論的な証明はありますか?
ジョジョ

1
マルチモニター設定のスクリーンキャップを取り、Photoshopを使用して1つのバージョンを25%に、1つを50に、次に50にスケーリングしました。2つの結果はピクセル同一でした。私は驚きました
ホレイショ

@ジョジョ:私は提供する理論的な証明を持っていません(そして証明は、いくつかの補間アルゴリズムのどれがスケーリングで使用されたかに依存します)。私はあなたがそれを実際に示すことができると思います:400x400と言う重要な画像を取り、それを380pxにスケーリングし、それを360に、そしてそれを340にスケーリングします。元のイメージから340pxにスケーリングしたものと比較してください。私はこれを試していませんが、視覚的に認識できるほどではないかもしれませんが、多少のぼかしがあると思います。提案されているスケーリングは、適切な比率を使用していないことに注意してください。
mgkrebbs 2011

1
私は運動をしました。 これが1スケールバージョン、3倍スケールバージョンです。下部中央の細い線でディテールが失われているのがわかります。ズームを使用すると、多くの場所で類似のものを見ることができます。これはGimpによる3次補間であり、PNGファイルを使用して不可逆圧縮を回避しました。
mgkrebbs '15

1

この質問は素晴らしいです!...でも私達は技術的になりすぎていると思います。

100 x 100ピクセルの画像=合計10000ピクセル

画像を縮小すると、ピクセルが引き出されます。スケールアップすると追加されます。どちらの方法でも、ソフトウェアはファイルを変更するために「推測された推測」を行います。

1つの縮小: 90 x 90(元のファイル情報から1900pxを削除)

2ステップ削減: 95 x 95(975pxは削除されました)、90 x 90(別の925)。ここで把握するべき詳細は、削除された合計1900pxの詳細です。それらの975は元の情報の一部ではありませんでした

元の画像は常に最高です。「世代」の数が少ないほど、常に品質が高くなります(元の品質に最も近い)。

PROOF(および@mutooのコメントへの応答)

ここに画像の説明を入力してください

それはシンプルです...それはアルゴリズムです...それは人間の目のセットではありません。こちらは3色ございます。100%黒、50%黒、白(グレースケールイメージ)。どのようにスケーリングしても、画像サイズメニュー、変換ツール、RGB、CMYK、100 x 100px、10 x 10inの場合、結果は同じです。

黒/灰色のエッジに沿って、80%黒(存在しない色)を見つけます。白/灰色のエッジに沿って、7%の黒(存在しない)を見つけます。[ここではアンチエイリアスの議論への招待ではありません]

私たち全員が知っているように(人間であり、すべて)、完全な縮小または拡大は、黒/灰色/白のストライプボックスを生成します。さらに、1回の反復(アップまたはダウン)で、複数回よりも優れたレプリカが作成されたことがわかりました。


「元の情報の一部ではない」に関する部分は完全に正しくありません。たとえば、Nearest Neighborアルゴリズムはピクセルの値を変更しません。選択したピクセルのみを削除します。最終的に、整数の四捨五入エラーにより「間違ったピクセル」が削除され始め、品質が低下します。一方、「より良い」アルゴリズムはピクセルの色を混ぜ合わせる場合があり、一部のピクセルアートスケーリングアルゴリズムは「推測」を行う場合さえあります。これにより、ぼかしが発生します。これは、単一ではなく複数倍に縮小する場合に適しています。
Mateen Ulhaq、2011

[続き]ただし、Nearest Neighborはさらに悪いです。「間違ったピクセル」が削除され、画像が本当に奇妙な階段のように見えます(上面図)。
Mateen Ulhaq、2011

私の統計カメラ時代に戻ります-可能な限り最高の再現に必要なサイズで構築/撮影します。それらのアルゴリズムを作成する人々への大きな小道具...「すべてを処理し、99%の時間で本当に見栄えのするものを1つ作成しましょう。」<-かなりハードコアなもの、真剣に。
ドーソン、

-1

おそらくそうですが、ほとんどの場合、違いに気付くことさえできません。

編集:人々は私の答えが好きではないようです:)。たぶんそれは単純だからです。私見それはそれをそれほど真実にしません。ええと…私が間違っていることを証明してください:)

編集2:回答を簡潔にしたかったのですが…:)

Q:Photoshopでは、ラスターを2回50%縮小するのに対して、1回75%縮小すると品質に違いがありますか?どちらの場合も、最終的なサイズは同じで、元のサイズの25%になります。

A:

  1. 「たぶんそうだろう」 – muntooの投稿を見てください。彼は、各補間ステップはいくつかのマイナーなエラーを導入すると言います。これらは丸め誤差または表現誤差であり、品質低下の原因となる可能性があります。簡単な結論:より多くのステップ、より多くの可能な劣化。したがって、「おそらく」の画像は、スケーリングの各ステップで品質が低下します。より多くのステップ–より可能な品質低下。したがって、「可能性が高い」画像は、1回よりも2回拡大した場合、より劣化します。品質の低下は確実ではありません。たとえば、単色の画像を例に取りますが、どのような頻度でデザイナーが同様の画像を拡大縮小するのでしょうか。

  2. 「しかし、ほとんどの場合、違いに気付くことさえできないでしょう」 -もう一度-muntooの投稿。潜在的なエラーはどのくらい大きいですか?彼の例では、2ではなく75ステップでスケーリングされた画像があり、品質の変化は顕著ですが劇的ではありません。75ステップで!Ps CS4で画像を25%にスケーリングするとどうなりますか?

一歩で 二段階で

誰もが違いを見ることができますか?しかし、違いはそこにあります:

#: gm compare -metric mse one-step.png two-step.png Image Difference (MeanSquaredError):
           Normalized    Absolute
          ============  ==========
     Red: 0.0000033905        0.0
   Green: 0.0000033467        0.0
    Blue: 0.0000033888        0.0
   Total: 0.0000033754        0.0

そして、適切にマークされていれば確認できます(gm compare -highlight-color purple -file diff.png one-step.png two-step.png):

1ステップと2ステップのスケーリングの違い

1と2は私の答えです。他の人は非常に手の込んだものだったので、簡潔にしたいと思っていました;)。

それでおしまい!:)自分で判断してください。


1
これは実際の答えではないため、-1。「おそらくはい」... 何に基づいてますか?「違いに気づかないでしょう」...このQAサイトは、画像の細かい違いに気づく人々であるデザインの専門家を対象としています。サポートされていない理論とサポートされていないアサーションを削除すると、投稿に他のコンテンツはありません。
Farray

私の経験に基づく。試しましたか?優れた専門家は、色がパーセントの割合で異なるかどうかを数えるのではなく、
近似

つまり、いくつかの画像を段階的にリサンプリングして、その結果を1つのステップでリサンプリングした画像と比較しようとしましたか?私はあなたの経験に固執しませんでした。
thebodzio

1
@thebodzioの詳細な説明がこの答えを本当に助けました-そして、反対投票は永続的ではないので、私は私のものを削除しました。
JariKeinänen、2011
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.