今日、特定のアプリケーションを展開するための推奨インフラストラクチャについて、ソフトウェアベンダーと面談しました。アプリケーションには2つのサーバーが必要です。サーバーWebページ用のアプリサーバー(.NET、Windows)とデータベース(SQL Server)です。ベンダーは、これら2つのサーバーには「ビットパリティ」が必要であると主張しました。これが意味するところは、アプリサーバーが32ビットの場合、SQLサーバーは32ビットである必要があります。また、アプリが64ビットの場合、SQLサーバーは64ビットです。そうしないと、パフォーマンスが低下します。
これは私には馬鹿げているようです。サーバーは独立しており、ネットワーク経由でのみ通信します。ネットワークプロトコルは、どちらのサーバーでもプロセッサの「ビット数」とは関係ありません。
私は間違っていますか?ミスマッチが実際にパフォーマンスに悪影響を及ぼす可能性がある理由はありますか?
注:特定のアプリは、32ビットではなく64ビットで実行される場合があります。しかし、ベンダーはWebサーバーとDBサーバーの不一致が問題を引き起こすと言っていました。これは私が質問している声明です。