タグ付けされた質問 「graphics」

ゲームの視覚的な部分を指す非常に一般的な用語。関連性のない使用を避け、代わりに、可能であれば、使用している特定のグラフィックスタイプ(2D、3D)、API、フレームワーク、またはライブラリのタグを付けてください。

3
無限の宇宙をレンダリングする方法は?
ゲーム開発業界で3Dユニバースをレンダリングするためのベストプラクティスは何ですか? 具体的には: データポイントが与えられ、静的です。各ポイントには位置、色、サイズがあります。 データセット全体は、使用可能なメモリよりもはるかに大きくなります。 ユーザーは、より大きな画像を一度に「ズームアウト」できる必要があります。 最も素朴なアプローチは、ユニバースをキューブに分割し、目に見えるものだけをレンダリングすることです。このシナリオで「ズームアウト」をどのように実装する必要があるのか​​わかりません。可能なズームレベルごとにキューブを事前に計算する必要がありますか?または、より良いアプローチがありますか? テクノロジーにとらわれないソリューションを探しています。

3
楽しい等尺性六角形
レンダリング時にいくつかのサイズのピクセルサイズ全体に追加で解決される、最も見栄えが良く、グラフィカルに規則的な等角(押しつぶされた平らな側面)ヘックスを与える角度と長辺/短辺の比率は?


5
ゲームグラフィックデザインを独自に学習したい場合、どこから始めますか?[閉まっている]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新して、 Game Development Stack Exchangeで話題になるようにします。 6年前に閉鎖されました。 自由に利用できるリソースを使用するのではなく、カスタムグラフィックを作成する方法を学びたいです。しかし、私は一般的に2Dゲームデザインを開始する方法に関する記事やチュートリアルを探していましたが、良い出発点を見つけることができないようです。グラフィックデザインの形式的な研究(高度なもの)を行ってきた人のために、ほとんどのリソースに出会いましたが、しばらくの間は形式的な研究の贅沢はありません。一方、私は物事のプログラミングの側面を学ぶためのリソースを見つけましたが、あなたが操作するグラフィックスをどのように作成するかではありません。 ゲーム指向のグラフィックデザインを学習するための優れたリソースはありますか?具体的には、私が最も興味を持っている2Dですが、3Dも歓迎します。
15 2d  3d  graphics  2.5d 

1
複数のダウンサンプリングには利点がありますか?
だから私はこのサイトに出くわし、最初と2番目の段落でこれらの行を見ることができます: 粗雑だが簡単な効果を得るには、シーンの明るい部分(光源など)をFBOに描画し、GL_LINEARミニファイを数回使用してダウンサンプリングします。最終レンダリングでは、元のシーンとダウンサンプリングされたFBOを単純に組み合わせます。 次の例では、元のシーンは128 x 128であり、3回ダウンサンプリングされます。これには4つのフレームバッファオブジェクトが必要です。元のシーンが左上に表示され、最終レンダリングが右上に表示されます。 1回ダウンサンプリングする(128-> 16)のではなく、複数回ダウンサンプリングする必要がある理由はありますか(128-> 64-> 32-> 16)? さらに下にスクロールすると、9回ほどダウンサンプリングされます。(128-> ...-> 16-> 128-> ...-> 16->など)。(128-> 16-> 128-> 16->など)のようにしないのはなぜですか?
14 opengl  graphics  bloom 

3
ピクセルアートを縮小するにはどうすればよいですか?
ピクセルアートを拡大するアルゴリズムはたくさんあります。(私が好むHQX。個人的に、)しかし、それを拡張する任意の顕著なアルゴリズムがあるダウンは?私のゲームはの解像度で実行するように設計されていますが、低解像度でプレイする場合は、見栄えを良くしたいです。1280x720 ほとんどのピクセルアートの議論は、コンソールエミュレーターで使用するために、320x200または640x480アップスケーリングを中心にしていますが、Monkey Island Remakeのような現代の2Dゲームは、低解像度でどのように見えるのでしょうか。 もちろん、アセットの複数のバージョンを持つオプション(つまり、ミップマッピング)を無視します。

5
Dangerous Daveで画面をどのように動かしたのですか?
私は子供の頃BASICでゲームを作りました。そして、C ++で作られた1988年版のDangerous Daveでグラフィックスがどのように行われたかについて興味がありました。特に、当時価値のあるグラフィックパッケージがなかったためです。Daveが画面の端に達したとき、画面全体のグラフィックがスイープの動きで左に移動するのにどのように使用されたか覚えていますか?ロメロがそれを行うために特別なテクニックを使ったと読んだことを覚えています。私はデイブのようなものを作りたいと思っていて、疑問に思っていました Daveに使用したグラフィックパッケージ/メソッド そして、画面全体のグラフィックを彼らのように動かす方法は?
14 graphics 

2
Time.deltaTimeを使用しているにもかかわらず、動きはフレームレートに依存しているように見える
Unityでゲームオブジェクトを移動するために必要な変換を計算する次のコードがありますLateUpdate。これはで呼び出されます。私が理解していることから、私の使用はTime.deltaTime最終的な翻訳フレームレートを独立させるべきCollisionDetection.Move()です(ただレイキャストを実行することに注意してください)。 public IMovementModel Move(IMovementModel model) { this.model = model; targetSpeed = (model.HorizontalInput + model.VerticalInput) * model.Speed; model.CurrentSpeed = accelerateSpeed(model.CurrentSpeed, targetSpeed, model.Accel); if (model.IsJumping) { model.AmountToMove = new Vector3(model.AmountToMove.x, model.AmountToMove.y); } else if (CollisionDetection.OnGround) { model.AmountToMove = new Vector3(model.AmountToMove.x, 0); } model.FlipAnim = flipAnimation(targetSpeed); // If we're ignoring gravity, then just …

4
粒子でソフトエッジ領域を実装する方法
私のゲームはPhaserを使用して作成されていますが、質問自体はエンジンに依存しません。 私のゲームにはいくつかの環境があります。基本的に、プレイヤーキャラクターが移動して影響を受けるポリゴンエリアです。たとえば、氷、火、毒など。これらの領域のグラフィック要素は、色で塗りつぶされたポリゴン領域自体と、適切なタイプの粒子(この例では氷の破片)です。これは現在、私がこれを実装している方法です-タイルスプライトをパーティクルパターンで覆うポリゴンマスクで: ハードエッジは悪いように見えます。次の2つのことを実行して改善したいと思います。1.多角形の塗りつぶし領域をソフトエッジにし、背景に溶け込ませます。2.いくつかの破片をポリゴン領域から出させて、それらが中央で切断されず、領域に直線がないようにする 例(モックアップ): ポリゴンをぼかすことで1を達成できると思いますが、2でどうすればいいかわかりません。 これをどのように実装しますか?

3
このフラットシェードの外観の再作成
短くしておきます。下の画像に描かれている効果をどのように達成しますか?リアルタイムで実行することは可能ですか?一見シンプルに見えますが、おそらくそうではありません。この外観を実現するためのシェーダーのプログラミングに関する詳細情報を取得するために検索できるキーワードはありますか?ありがとう。

5
Unity3dでアウトラインを描画するにはどうすればよいですか?
任意の高さの長方形をハイライトしようとしています。これを行う最も簡単な方法は、長方形の輪郭を描く別の「ボックス」ゲームオブジェクトを作成することだと思いました。 MeshRenderer + Transparent TextureとLineRendererの両方を使用して、四角形の4つのポイントの輪郭を描きました。どちらも非常に満足のいくものではありません。 (中央にラインレンダラー、右側にスケーリングされたキューブ) これについて正しい方法は何ですか?私は左の長方形のようなものを得ようとしています-私が選んだ4つのポイントを通して固定幅のシンプルな境界線。
13 unity  graphics 

3
古いテレビビデオゲームはどのプラットフォームで開発されましたか?[閉まっている]
閉じた。この質問はより集中する必要があります。現在、回答を受け付けていません。 この質問を改善したいですか?この投稿を編集するだけで1つの問題に焦点を当てるように質問を更新します。 2年前に閉店。 テレビのビデオゲーム(子供の頃にプレイしていたもの)がどのプラットフォームで開発されたかを知りたいと思います。 モバイルデバイス、Windows PC、およびMac用のゲームの開発方法は知っていますが、(当時)Contra、Duck Hunt、およびそれらすべてのゲームがどのように開発されたのかわかりません。高いグラフィックと多数のステージがあるため。それで、彼らはどのようにしてこのような小さなサイズの環境で、より低い構成プラットフォームでゲームを開発することに成功したのでしょうか?

2
リアルなメタルシェーダー
優れた金属シェーダーをどのように作成しますか? さまざまな金属の場合、多かれ少なかれ侵食/さびなどを言います。 通常の素材との違いの1つは、金属が鏡面反射光を「着色」することですが、たとえば金でそれを行うと、金属ではなく「黄色」に見えることを知っています。 どんな助けも感謝します!

4
2Dゲームで任意の大きな画像を処理する方法は?
質問 本当に大きな画像(ハードウェアがサポートできるサイズよりも大きい)を使用する2Dゲームがある場合、どうしますか?たぶん、私にはこれまでになかったこの問題に対する興味深い解決策があるかもしれません。 私は基本的に、一種のグラフィックアドベンチャーゲームメーカーに取り組んでいます。私のターゲットオーディエンスは、ゲーム開発(およびプログラミング)の経験がほとんどない人です。このようなアプリケーションで作業している場合、「画像を分割する」ように指示するよりも、内部で問題を処理する方が好みではないでしょうか? 環境 グラフィックカードは、使用できるテクスチャのサイズに一連の制限を課していることはよく知られています。たとえば、XNAを使用する場合、選択するプロファイルに応じて、2048または4096ピクセルの最大テクスチャサイズに制限されます。 通常、2Dゲームではほとんどの場合、小さな個別のピース(タイルや変形したスプライトなど)から構築できるレベルがあるため、それほど問題にはなりません。 しかし、古典的なpoint'n'clickグラフィックアドベンチャーゲーム(Monkey Islandなど)について考えてみてください。グラフィックアドベンチャーゲームの部屋は通常、全体的に設計されており、風景に取り組んでいる画家のように、再現可能なセクションがほとんどまたはまったくありません。または、大規模な事前レンダリングされた背景を使用するFinal Fantasy 7のようなゲーム。 これらの部屋のいくつかはかなり大きくなることがあり、頻繁に3画面以上の幅に広がります。現在、これらの背景を最新の高解像度ゲームのコンテキストで考慮すると、サポートされる最大テクスチャサイズを簡単に超えてしまいます。 これに対する明白な解決策は、背景を要件内に収まる小さなセクションに分割し、それらを並べて描画することです。しかし、あなた(またはあなたのアーティスト)はあなたのテクスチャのすべてを分割する人でなければなりませんか? 高レベルAPIを使用している場合、この状況に対処し、内部で(XNAのコンテンツパイプラインなどの前処理として、または実行時に)テクスチャの分割とアセンブルを行う準備をしてはいけませんか? 編集 XNA実装の観点から、私が考えていたものを以下に示します。 私の2Dエンジンは、Texture2Dの機能の非常に小さなサブセットのみを必要とします。実際にこのインターフェイスに減らすことができます: public interface ITexture { int Height { get; } int Width { get; } void Draw(SpriteBatch spriteBatch, Vector2 position, Rectangle? source, Color color, float rotation, Vector2 origin, Vector2 scale, SpriteEffects effects, float layerDepth); } …
13 xna  c#  2d  graphics  textures 

3
グラフィックスパイプラインを使用して、密度関数に基づいてボリュメトリックデータをレンダリングするにはどうすればよいですか?
両方のグラフィックスAPI(OpenGLおよびDirectX)は、いくつかのステージがプログラム可能な、明確に定義されたパイプラインを考案します。これらのプログラム可能なステージは、固定された最小量のデータを取得する必要があり、データに対して適切に定義された範囲の操作を行い、定義された最小出力を出力するため、データを次のステージに正しく渡すことができます。これらのパイプラインは、限られた量のジオメトリデータのみで動作するように設計されているように見えます。D3DとOGLの両方の場合、頂点データとテクスチャ座標です。 しかし、作成しようとしているアプリケーションが幾何学的データを表すために頂点(またはボクセルさえ)を使用せず、変換や投影、ラスタライズ、補間、またはそのような何かを正確に行わない場合、APIのそのような制限またはパイプラインが物事を困難にします。 では、グラフィックスパイプラインを変更して、各ステージがデータに対して行う機能と各ステージで出力されるデータのタイプの機能を変更する方法はありますか?そうでない場合、「生の」API関数を使用して独自のパイプラインを構築する方法はありますか?そうでない場合は、それが不可能な理由を説明してください。 編集:私のアプリケーションは、密度関数を使用してジオメトリを表現します。この関数は、空間の各ポイントに値を持っています。カメラの錐台を3Dグリッドに分割し、各ブロックをピクセルとして投影できます。各ブロックで、密度関数を統合し、その値が必要な値を超えているかどうかを確認します。はいの場合、そのブロックに何かが存在し、そのブロックに対応するピクセルがレンダリングされると想定されます。だから、今私のレンダラーでは、頂点バッファーの頂点データの代わりに、関数(文字列で表す)をグラフィックスハードウェアに渡したいと思います。これは、頂点シェーダーに同種のクリップスペースに変換する頂点がなく、フラグメントシェーダーがピクセル情報を取得しないことも意味します。代わりに、ほとんどの検索と評価はピクセルごとに行われます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.