このような2つの変数のノイズの多いデータがあります。
x1 <- rep(seq(0,1, 0.1), each = 3000)
set.seed(123)
y1 <- rep (c(0.2, 0.8, 0.3, 0.9, 0.65, 0.35,0.7,0.1,0.25, 0.3, 0.95), each = 3000)
set.seed(1234)
e1 = rnorm(length(x1), 0.07,0.07)
set.seed(1223)
e2 = rnorm(length(x1), 0.07,0.07)
set.seed(1334)
yn <- rnorm(20000, 0.5,0.9)
set.seed(2344)
xn <- rnorm(20000, 0.5,0.9)
y <- c(y1 + e1,yn)
x <- c(x1 + e2, xn)
plot(x,y, xlim=c(0,1.2), ylim = c(0,1.2), pch = ".", col = "gray40")
よく見ると、潜在的に10個のクラスターがあることが視覚的にわかります。
ただし、データ全体には多くの点が広がっています。
plot(x,y, pch = ".", col = "gray40")
10個のクラスターを作りたいのですが。K-meansクラスター分析を試してみました。
xm1 <- cbind(x,y)
cl1 <- kmeans(xm1, 10)
colrs <- c("red", "green", "blue1", "pink", "green4","tan",
"gray40", "yellow", "black", "purple")
plot(xm1, col = colrs[cl1$cluster], pch = ".", xlim=c(0,1.2), ylim = c(0,1.2))
plot(xm1, col = colrs[cl1$cluster], pch = ".")
とにかく、このタイプのデータにより多くの正義を行うことができる(カーネルk-means、最近傍など)。もしそうなら、どうすればこれを行うことができますか?
1
これまでのところ何が問題になっていますか?あなたが持っているもの(k-meansクラスター分析)が受け入れられないのはなぜですか?
—
スティーブS
dbscanまたは光学アルゴリズムを調べます(en.wikibooks.org/wiki/Data_Mining_Algorithms_In_R/Clustering/…を参照)
—
Giorgio Spedicato