単一ピクセルの色ではなく、長方形の領域の平均色を取得する必要がある場合は、次の別の質問を参照してください。
👉JavaScript-画像の特定の領域から平均色を取得します
とにかく、両方とも非常によく似た方法で行われます。
🔍画像またはキャンバスから単一ピクセルの色/値を取得する
単一のピクセルの色を取得するには、最初にその画像をキャンバスに描画します。これはすでに実行済みです。
const image = document.getElementById('image');
const canvas = document.createElement('canvas');
const context = canvas.getContext('2d');
const width = image.width;
const height = image.height;
canvas.width = width;
canvas.height = height;
context.drawImage(image, 0, 0, width, height);
そして、次のように単一ピクセルの値を取得します。
const data = context.getImageData(X, Y, 1, 1).data;
🚀すべてのImageDataを一度に取得することでシンニングを高速化
これと同じCanvasRenderingContext2D.getImageData()を使用して、画像全体の値を取得する必要があります。これは、3番目と4番目のパラメーターを変更することによって行います。その関数のシグネチャは次のとおりです。
ImageData ctx.getImageData(sx, sy, sw, sh);
sx
:ImageDataが抽出される長方形の左上隅のx座標。
sy
:ImageDataが抽出される長方形の左上隅のy座標。
sw
:ImageDataが抽出される長方形の幅。
sh
:ImageDataが抽出される長方形の高さ。
それが何であれ、ImageData
オブジェクトを返すことがわかります。ここで重要なのは、そのオブジェクトにすべてのピクセル値を含むプロパティがあることです。.data
ただし、.data
プロパティは1次元Uint8ClampedArray
であることに注意してください。これは、すべてのピクセルのコンポーネントがフラット化されているため、次のようなものが得られることを意味します。
次のような2x2の画像があるとします。
RED PIXEL | GREEN PIXEL
BLUE PIXEL | TRANSPARENT PIXEL
次に、次のように取得します。
[ 255, 0, 0, 255, 0, 255, 0, 255, 0, 0, 255, 255, 0, 0, 0, 0 ]
| RED PIXEL | GREEN PIXEL | BLUE PIXEL | TRANSPAERENT PIXEL |
| 1ST PIXEL | 2ND PIXEL | 3RD PIXEL | 4TH PIXEL |
呼び出しgetImageData
は遅い操作であるため、すべての画像のデータを取得するために1回だけ呼び出すことができます(sw
=画像の幅、sh
=画像の高さ)。
あなたがのコンポーネントにアクセスしたい場合はその後、上記の例では、TRANSPARENT PIXEL
、である、位置の1x = 1, y = 1
本の仮想イメージのは、あなたがその最初のインデックスを見つけるでしょうi
その中ImageData
のdata
ようにプロパティを:
const i = (y * imageData.width + x) * 4;
✨実際に見てみましょう
const solidColor = document.getElementById('solidColor');
const alphaColor = document.getElementById('alphaColor');
const solidWeighted = document.getElementById('solidWeighted');
const solidColorCode = document.getElementById('solidColorCode');
const alphaColorCode = document.getElementById('alphaColorCode');
const solidWeightedCOde = document.getElementById('solidWeightedCode');
const brush = document.getElementById('brush');
const image = document.getElementById('image');
const canvas = document.createElement('canvas');
const context = canvas.getContext('2d');
const width = image.width;
const height = image.height;
const BRUSH_SIZE = brush.offsetWidth;
const BRUSH_CENTER = BRUSH_SIZE / 2;
const MIN_X = image.offsetLeft + 4;
const MAX_X = MIN_X + width - 1;
const MIN_Y = image.offsetTop + 4;
const MAX_Y = MIN_Y + height - 1;
canvas.width = width;
canvas.height = height;
context.drawImage(image, 0, 0, width, height);
const imageDataData = context.getImageData(0, 0, width, height).data;
function sampleColor(clientX, clientY) {
if (clientX < MIN_X || clientX > MAX_X || clientY < MIN_Y || clientY > MAX_Y) {
requestAnimationFrame(() => {
brush.style.transform = `translate(${ clientX }px, ${ clientY }px)`;
solidColorCode.innerText = solidColor.style.background = 'rgb(0, 0, 0)';
alphaColorCode.innerText = alphaColor.style.background = 'rgba(0, 0, 0, 0.00)';
solidWeightedCode.innerText = solidWeighted.style.background = 'rgb(0, 0, 0)';
});
return;
}
const imageX = clientX - MIN_X;
const imageY = clientY - MIN_Y;
const i = (imageY * width + imageX) * 4;
const R = imageDataData[i];
const G = imageDataData[i + 1];
const B = imageDataData[i + 2];
const A = imageDataData[i + 3] / 255;
const iA = 1 - A;
const wR = (R * A + 255 * iA) | 0;
const wG = (G * A + 255 * iA) | 0;
const wB = (B * A + 255 * iA) | 0;
requestAnimationFrame(() => {
brush.style.transform = `translate(${ clientX }px, ${ clientY }px)`;
solidColorCode.innerText = solidColor.style.background
= `rgb(${ R }, ${ G }, ${ B })`;
alphaColorCode.innerText = alphaColor.style.background
= `rgba(${ R }, ${ G }, ${ B }, ${ A.toFixed(2) })`;
solidWeightedCode.innerText = solidWeighted.style.background
= `rgb(${ wR }, ${ wG }, ${ wB })`;
});
}
document.onmousemove = (e) => sampleColor(e.clientX, e.clientY);
sampleColor(MIN_X, MIN_Y);
body {
margin: 0;
height: 100vh;
display: flex;
flex-direction: row;
align-items: center;
justify-content: center;
cursor: none;
font-family: monospace;
overflow: hidden;
}
#image {
border: 4px solid white;
border-radius: 2px;
box-shadow: 0 0 32px 0 rgba(0, 0, 0, .25);
width: 150px;
box-sizing: border-box;
}
#brush {
position: absolute;
top: 0;
left: 0;
pointer-events: none;
width: 1px;
height: 1px;
mix-blend-mode: exclusion;
border-radius: 100%;
}
#brush::before,
#brush::after {
content: '';
position: absolute;
background: magenta;
}
#brush::before {
top: -16px;
left: 0;
height: 33px;
width: 100%;
}
#brush::after {
left: -16px;
top: 0;
width: 33px;
height: 100%;
}
#samples {
position: relative;
list-style: none;
padding: 0;
width: 250px;
}
#samples::before {
content: '';
position: absolute;
top: 0;
left: 27px;
width: 2px;
height: 100%;
background: black;
border-radius: 1px;
}
#samples > li {
position: relative;
display: flex;
flex-direction: column;
justify-content: center;
padding-left: 56px;
}
#samples > li + li {
margin-top: 8px;
}
.sample {
position: absolute;
top: 50%;
left: 16px;
transform: translate(0, -50%);
display: block;
width: 24px;
height: 24px;
border-radius: 100%;
box-shadow: 0 0 16px 4px rgba(0, 0, 0, .25);
margin-right: 8px;
}
.sampleLabel {
font-weight: bold;
margin-bottom: 8px;
}
.sampleCode {
}
<img id="image" src="data:image/gif;base64,R0lGODlhSwBLAPEAACMfIO0cJAAAAAAAACH/C0ltYWdlTWFnaWNrDWdhbW1hPTAuNDU0NTUAIf4jUmVzaXplZCBvbiBodHRwczovL2V6Z2lmLmNvbS9yZXNpemUAIfkEBQAAAgAsAAAAAEsASwAAAv+Uj6mb4A+QY7TaKxvch+MPKpC0eeUUptdomOzJqnLUvnFcl7J6Pzn9I+l2IdfII8DZiCnYsYdK4qRTptAZwQKRVK71CusOgx2nFRrlhMu+33o2NEalC6S9zQvfi3Mlnm9WxeQ396F2+HcQsMjYGEBRVbhy5yOp6OgIeVIHpEnZyYCZ6cklKBJX+Kgg2riqKoayOWl2+VrLmtDqBptIOjZ6K4qAeSrL8PcmHExsgMs2dpyIxPpKvdhM/YxaTMW2PGr9GP76BN3VHTMurh7eoU14jsc+P845Vn6OTb/P/I68iYOfwGv+JOmRNHBfsV5ujA1LqM4eKDoNvXyDqItTxYX/DC9irKBlIhkKGPtFw1JDiMeS7CqWqySPZcKGHH/JHGgIpb6bCl1O0LmT57yCOqoI5UcU0YKjPXmFjMm0ZQ4NIVdGBdZRi9WrjLxJNMY1Yr4dYeuNxWApl1ALHb+KDHrTV1owlriedJgSr4Cybu/9dFiWYAagsqAGVkkzaZTAuqD9ywKWMUG9dCO3u2zWpVzIhpW122utZlrHnTN+Bq2Mqrlnqh8CQ+0Mrq3Kc++q7eo6dlB3rLuh3abPVbbbI2mxBdhWdsZhid8cr0oy9F08q0k5FXSadiyL1mF5z51a8VsQOp3/LlodkBfzmzWf2bOrtfzr48k/1hupDaLa9rUbO+zlwndfaOCURAXRNaCBqBT2BncJakWfTzSYkmCEFr60RX0V8sKaHOltCBJ1tAAFYhHaVVbig3jxp0IBADs=" >
<div id="brush"></div>
<ul id="samples">
<li>
<span class="sample" id="solidColor"></span>
<div class="sampleLabel">solidColor</div>
<div class="sampleCode" id="solidColorCode">rgb(0, 0, 0)</div>
</li>
<li>
<span class="sample" id="alphaColor"></span>
<div class="sampleLabel">alphaColor</div>
<div class="sampleCode" id="alphaColorCode">rgba(0, 0, 0, 0.00)</div>
</li>
<li>
<span class="sample" id="solidWeighted"></span>
<div class="sampleLabel">solidWeighted (with white)</div>
<div class="sampleCode" id="solidWeightedCode">rgb(0, 0, 0)</div>
</li>
</ul>
⚠️注外部Cross-Origin
画像を含める場合の問題を回避するために小さいデータURIを使用していること、または長いデータURIを使用しようとした場合に許可されるよりも大きい回答を使用していることに注意してください。
🕵️これらの色は奇妙に見えますね?
アスタリスクの形の境界線の周りにカーソルを移動すると、avgSolidColor
赤になることがありますが、サンプリングしているピクセルは白に見えます。これはR
、そのピクセルのコンポーネントが高い場合でも、アルファチャネルが低いため、色は実際にはほぼ透明な赤の色合いですが、それをavgSolidColor
無視しているためです。
一方、avgAlphaColor
ピンクに見えます。まあ、それは実際には真実ではありません。アルファチャネルを使用しているため、ピンクに見えます。これにより、半透明になり、ページの背景(この場合は白)を確認できます。
🎨アルファ加重カラー
次に、これを修正するために何ができるでしょうか。さて、新しいサンプルのコンポーネントを計算するために、重みとしてアルファチャネルとその逆を使用する必要があることがわかりました。この場合、背景として使用する色である白とマージします。
つまり、ピクセルがR, G, B, A
、の場合、ここA
では区間内[0, 1]
にあり、アルファチャネルの逆数、、iA
および重み付けされたサンプルの成分を次のように計算します。
const iA = 1 - A;
const wR = (R * A + 255 * iA) | 0;
const wG = (G * A + 255 * iA) | 0;
const wB = (B * A + 255 * iA) | 0;
ピクセルの透明度が高い(A
0に近い)ほど、色が明るくなることに注意してください。