あなたが尋ねる:
- 著者が示唆しているように、これは本当に実現可能ですか?論文によると、その結果は非常に効率的であり、常にデータをより小さなサイズに圧縮します。辞書のサイズは膨大ではないでしょうか?
はい、もちろん。厳選された例(「レイジードッグを越えたクイックシルバーフォックスジャンプ」)でも、辞書にはテキストの4バイトのサブストリングがすべて含まれているため(「 THE ")...そして、テキストの"圧縮 "バージョンには、辞書全体に加えて、この素数のすべてが含まれている必要があります。
- これを使用して、同じアルゴリズムを使用して圧縮データを繰り返し再圧縮することはできませんか?このような技術(圧縮データをできるだけ多く再圧縮し、ファイルサイズを劇的に削減する)は不可能であることは明らかであり、実証されています。実際、すべてのランダムデータのセットと圧縮データの間に全単射はありません。では、なぜこれが可能だと思われるのでしょうか?
繰り返しますが、状況を直観的に把握しているようです。すべての入力に効果的な圧縮方式はないことを直感的に理解しました。それがあれば、それを何度も繰り返し適用して、入力を1ビットに圧縮し、その後無に圧縮できるからです。
別の言い方をすれば、すべての.wavファイルを.mp3に圧縮した後は、それらを圧縮してもファイルサイズは改善されません。MP3コンプレッサーが機能している場合、ZIPコンプレッサーが悪用するパターンはありません。
(暗号化にも同じことが当てはまります。ゼロのファイルを選択し、選択した暗号化アルゴリズムに従って暗号化する場合、結果のファイルは圧縮できない方が良いか、暗号化アルゴリズムが出力に「パターン」を漏らしています!
- 技術がまだ完全ではない場合でも、明らかに最適化して大幅に改善することができます。なぜこれがより広く知られている/研究されていないのですか?確かにこれらの主張と実験結果が真実であれば、これはコンピューティングに革命を起こすことができなかったでしょうか?
これらの主張と実験結果は真実ではありません。
チャクラ、カーウァイのZandenデア・トム・バンは、すでに述べたように、「圧縮アルゴリズム」、およびGuchaitがその中に欠陥があるだけでなく、それは任意の圧縮率を達成していない、それはまた、(mathspeakで、「全単射ではない」)不可逆性:ありそれらのアルゴリズムは基本的に乗算であり、乗算は可換であるため、すべてが同じイメージに「圧縮」される多数のテキスト。
これらの概念を直感的に理解することで、すぐに正しい結論に至ったことを実感できます。そして、時間を割くことができるなら、そのトピックをまったく理解せずに考えることに多くの時間を費やした論文の著者に同情する必要があります。
投稿したURLの1レベル上のファイルディレクトリには、この同じ品質の139の「論文」が含まれており、「コンピューティング、情報、コミュニケーション、およびアプリケーションの新興研究に関する国際会議の議事録」に認められています。これは、通常のタイプの偽の会議のようです。このような会議の目的は、不正な学者が「ジャーナルへの掲載」を主張できるようにすることであると同時に、不cru慎な主催者が大量のお金を稼ぐことも可能にすることです。(偽のカンファレンスの詳細については、このredditスレッドまたはこのテーマに関するさまざまなStackExchangeの投稿をご覧ください。)偽のカンファレンスはあらゆる分野に存在します。自分の本能を信頼することを学び、「会議の議事録」で読んだすべてのことを信じないでください。