Photoshopでは、ラスターを2回50%縮小するのではなく、1回75%縮小すると品質に違いがありますか?どちらの場合も、最終的なサイズは同じで、元のサイズの25%になります。
以前に縮小したことがわかっている画像を縮小したい場合があるからです。画像を元のサイズに戻すには、CTRL + Z(元に戻す)を100回行う必要がありません。最終的な品質に影響がない場合は、その場で画像を縮小します。
Photoshopでは、ラスターを2回50%縮小するのではなく、1回75%縮小すると品質に違いがありますか?どちらの場合も、最終的なサイズは同じで、元のサイズの25%になります。
以前に縮小したことがわかっている画像を縮小したい場合があるからです。画像を元のサイズに戻すには、CTRL + Z(元に戻す)を100回行う必要がありません。最終的な品質に影響がない場合は、その場で画像を縮小します。
回答:
だから、コミュニティのwikiだあなたはこの恐ろしい、恐ろしいポストを修正することができます。
Grrr、LaTeXなし。:)私はできる限りベストを尽くさなければならないでしょう。
私たちは、名前の画像(PNG、または別のロスレス*形式)持っているAサイズのAは、xはでyと。私たちの目標は、p = 50%でスケーリングすることです。
イメージ( "配列")Bは、Aの "直接スケーリング"バージョンになります。それは持っていますB 、S = 1つのステップの数を。
A = B B s = B 1
画像(「配列」)Cは、Aの「増分スケーリング」バージョンになります。それは持っているだろうC S = 2ステップの数を。
A≅C C S = C 2
A = B 1 = B 0 ×p
C 1 = C 0 ×p 1÷C s
A≅C 2 = C 1 ×p 1÷C s
あなたはそれらの分数の力を見ますか?理論的には、ラスターイメージの品質が低下します(ベクター内のラスターは実装によって異なります)。いくら?次にそれを理解します...
C e = 0の場合、p 1 if C s if∈
C E = C の場合、P 1÷C S ∉ℤ
ここで、eは整数の丸め誤差による最大誤差(最悪のシナリオ)を表します。
現在、すべてがダウンスケーリングアルゴリズムに依存しています(スーパーサンプリング、バイキュービック、ランチョスサンプリング、ニアレストネイバーなど)。
ニアレストネイバー(あらゆる品質の最悪のアルゴリズム)を使用している場合、「真の最大誤差」(C t)はC eと等しくなります。他のアルゴリズムを使用している場合、複雑になりますが、それほど悪くはありません。(Nearest Neighborほど悪くない理由についての技術的な説明が必要な場合は、それが推測である原因を1つ挙げることはできません。注:数学者の皆さん、これを修正してください!)
のは、画像の"アレイ"作ろうDとD X = 100、DのY = 100、およびD S = 10。pは同じです:p = 50%。
最近隣アルゴリズム(ひどい定義、知っています):
N(I、p)= mergeXYDuplicates(floorAllImageXYs(I x、y ×p)、I)。ここで、x、yのみが乗算されます。色(RGB)値ではありません!私はあなたが数学でそれを実際に行うことができないことを知っています、そしてこれがまさに私が予言の伝説の数学者ではない理由です。
(mergeXYDuplicates()は、見つかったすべての複製について、元の画像Iの一番下/一番左のx、y「要素」だけを保持し、残りを破棄します。)
ランダムなピクセルを考えてみましょう:D 0 39,23。次に、D n + 1 = N(D n、p 1÷D s)= N(D n、〜93.3%)を繰り返し適用します。
c n + 1 = floor(c n ×〜93.3%)
c 1 = floor((39,23)×〜93.3%)= floor((36.3,21.4))=(36,21)
c 2 = floor((36,21)×〜93.3%)=(33,19)
c 3 =(30,17)
c 4 =(27,15)
c 5 =(25,13)
c 6 =(23,12)
c 7 =(21,11)
c 8 =(19,10)
c 9 =(17,9)
c 10 =(15,8)
単純なスケールダウンを1回だけ行った場合、次のようになります。
b 1 = floor((39,23)×50%)= floor((19.5,11.5))=(19,11)
bとcを比較してみましょう。
b 1 =(19,11)
c 10 =(15,8)
これは(4,3)ピクセルのエラーです。エンドピクセル(99,99)でこれを試して、エラーの実際のサイズを説明します。ここですべての計算を行うことはしませんが、それは(46,46)、つまり本来あるべき(49,49)からの(3,3)のエラーになることをお伝えします。
これらの結果を元の結果と組み合わせてみましょう。「実際のエラー」は(1,0)です。これがすべてのピクセルで発生する場合を想像してみてください...違いが生じる可能性があります。うーん...まあ、おそらくもっと良い例があります。:)
画像が元々大きなサイズの場合、複数のダウンスケールを行わない限り、それは実際には問題になりません(以下の「実際の例」を参照)。
最近傍の増分ステップ(ダウン)ごとに最大1ピクセルずつ悪化します。10のダウンスケールを行うと、画像の品質がわずかに低下します。
(サムネイルをクリックすると拡大表示されます。)
スーパーサンプリングを使用して1%ずつ段階的に縮小:
ご覧のように、スーパーサンプリングは、何度も適用すると「ぼかし」ます。これは、1つのダウンスケールを行う場合に「良い」ものです。これを段階的に行っている場合、これは悪いことです。
*エディターと形式によっては、これにより違いが生じる可能性があるため、私はそれをシンプルに保ち、ロスレスと呼んでいます。
ジョジョは品質について尋ねます。ほとんどの応答はピクセル精度に関するものであり、デザイナーや写真家にとってもほとんど関係ありません。
品質はどのようにの尺度で説得と喜ば最終結果はそれがどのように「正確」、ではありません。良い例として、クローン作成またはコンテンツ認識塗りつぶしは、画像の不要な部分を妥当なピクセルに置き換えます。これらは正しく見えますが、正確とは言えません。
Photoshopでは、段階的なダウンサイジングとワンショットでのダウンサイジングの主な実用的な違いは、かなり時間がかかることです。時間単位で充電する場合は、必ず1%ずつ行ってください。そうでない場合は、1ショットで縮小します。後で大きなバージョンを作成する場合に備えて、最初に画像をスマートオブジェクトにします。
どのアルゴリズムを使用しても(そして、それらのアルゴリズムに関するDawsonのコメントは行き詰っています-それらは素晴らしいです)、ダウンサイジングはピクセルを捨てます。アルゴリズムはピクセルを減算し、ピクセルを正しく表示する方法を推測することで他のピクセルを変更します。良いアルゴリズムは良い推測をします。説得力のある結果が得られますが、意味のある意味では正確ではありません。正直に言って、色以外は正確です!-科学者でない限り、探しているものではありません。その場合、そもそもおそらくダウンサイジングではないでしょう。
通常のバイキュービックアルゴリズムを使用してサイズを縮小した画像は、多くの場合、シャープネスを少し行うことでメリットを得られますが、Web用にJPEGを作成している場合は、シャープネスによってファイルサイズが大きくなります。
設計における正しい品質は、最終製品に必要な品質です。それを超えると、作業に時間が追加されますが、価値はありません。
[編集:koiyuのこの質問の復活で拡大することに言及があったので。その件についていくつかコメントを追加しました。]
1つの大きな飛躍とは対照的に、画像を小さなステップでアップレザリングすると、わずかにより良い(「わずかに悪くなる」がより正確になる)結果が得られるという考えが飛び交っています。スコットケルビーは数年前にこのアイデアを宣伝しましたが、それはPS 7の時点では事実だったかもしれません。今日、それが正しいことを確信させるものは何も見ていません。PS CS2とPS 3を中心にした私のテストではそれは証明されませんでしたが、私はそれらに多くの時間を浪費しなかったと言わなければなりません。
「画質の低下」と「画質のわずかな低下」のわずかな違いには実用的な価値がないため、詳細なテストに時間を費やしませんでした。どちらも使用できません。私自身の仕事では、単純なルールは「アップサイズしない」です。設計作業における実用性の問題として、特定の目的に対して少し低解像度の画像は、同じ画像よりも、「正しい」解像度に「アップ」した同じ画像よりも、常にそのまま使用した方がよいように見えます。フラクタルとバイキュービックのバリエーションを含む、出くわす。
通常、複数のスケーリングでは、単一のスケーリングよりも最終的なサイズに品質が低下しますが、多くの場合、その差は最小限になります。特に、(2:1、2:1)と(4:1)の例のように、正確な比率で小さくスケーリングすると、単一のスケーリングに比べて劣化が非常に小さくなります。もちろん、すべての変更を最高の解像度で行い、最後に1回だけスケーリングするのが最善です。正確なスケーリングが最初にわからない場合は、一連のテストスケーリングを行って適切なサイズを見つけ、そのサイズを書き留め、テストイメージを破棄し、元のサイズからそのサイズに単一のスケーリングを実行できます。
この質問は素晴らしいです!...でも私達は技術的になりすぎていると思います。
100 x 100ピクセルの画像=合計10000ピクセル
画像を縮小すると、ピクセルが引き出されます。スケールアップすると追加されます。どちらの方法でも、ソフトウェアはファイルを変更するために「推測された推測」を行います。
1つの縮小: 90 x 90(元のファイル情報から1900pxを削除)
2ステップ削減: 95 x 95(975pxは削除されました)、90 x 90(別の925)。ここで把握するべき詳細は、削除された合計1900pxの詳細です。それらの975は元の情報の一部ではありませんでした。
元の画像は常に最高です。「世代」の数が少ないほど、常に品質が高くなります(元の品質に最も近い)。
PROOF(および@mutooのコメントへの応答)
それはシンプルです...それはアルゴリズムです...それは人間の目のセットではありません。こちらは3色ございます。100%黒、50%黒、白(グレースケールイメージ)。どのようにスケーリングしても、画像サイズメニュー、変換ツール、RGB、CMYK、100 x 100px、10 x 10inの場合、結果は同じです。
黒/灰色のエッジに沿って、80%黒(存在しない色)を見つけます。白/灰色のエッジに沿って、7%の黒(存在しない)を見つけます。[ここではアンチエイリアスの議論への招待ではありません]
私たち全員が知っているように(人間であり、すべて)、完全な縮小または拡大は、黒/灰色/白のストライプボックスを生成します。さらに、1回の反復(アップまたはダウン)で、複数回よりも優れたレプリカが作成されたことがわかりました。
おそらくそうですが、ほとんどの場合、違いに気付くことさえできません。
編集:人々は私の答えが好きではないようです:)。たぶんそれは単純だからです。私見それはそれをそれほど真実にしません。ええと…私が間違っていることを証明してください:)
編集2:回答を簡潔にしたかったのですが…:)
Q:Photoshopでは、ラスターを2回50%縮小するのに対して、1回75%縮小すると品質に違いがありますか?どちらの場合も、最終的なサイズは同じで、元のサイズの25%になります。
A:
「たぶんそうだろう」 – muntooの投稿を見てください。彼は、各補間ステップはいくつかのマイナーなエラーを導入すると言います。これらは丸め誤差または表現誤差であり、品質低下の原因となる可能性があります。簡単な結論:より多くのステップ、より多くの可能な劣化。したがって、「おそらく」の画像は、スケーリングの各ステップで品質が低下します。より多くのステップ–より可能な品質低下。したがって、「可能性が高い」画像は、1回よりも2回拡大した場合、より劣化します。品質の低下は確実ではありません。たとえば、単色の画像を例に取りますが、どのような頻度でデザイナーが同様の画像を拡大縮小するのでしょうか。
「しかし、ほとんどの場合、違いに気付くことさえできないでしょう」 -もう一度-muntooの投稿。潜在的なエラーはどのくらい大きいですか?彼の例では、2ではなく75ステップでスケーリングされた画像があり、品質の変化は顕著ですが劇的ではありません。75ステップで!Ps CS4で画像を25%にスケーリングするとどうなりますか?
誰もが違いを見ることができますか?しかし、違いはそこにあります:
#: gm compare -metric mse one-step.png two-step.png Image Difference (MeanSquaredError):
Normalized Absolute
============ ==========
Red: 0.0000033905 0.0
Green: 0.0000033467 0.0
Blue: 0.0000033888 0.0
Total: 0.0000033754 0.0
そして、適切にマークされていれば確認できます(gm compare -highlight-color purple -file diff.png one-step.png two-step.png):
1と2は私の答えです。他の人は非常に手の込んだものだったので、簡潔にしたいと思っていました;)。
それでおしまい!:)自分で判断してください。
(100%-75%)*(100%-75%) != 50%
。しかし、私はあなたが何を意味しているのかを知っていると信じています。その答えは「いいえ」であり、違いがあるとしても、実際には違いを伝えることができません。