k-means++を使ってみた † 階層的クラスタリングより結果としては良く見える。 クラスタ数はエイヤで決めている。 x-means法という手法がある。 未調査 ↑ 研究のまとめ方について † どのような結論へ導くか? その方向に向かって論文を書く必要がある。 せめてサジェストしたい。 評価をどうするか? この方法でサジェストすると、現状のバラバラに決めている状況と比較して、より良くなっていることを示す。 専攻ゼミナールが9/1 8月中に投稿可能にする。 これから新しいことはできないだろう。 これまでにやったことをまとめる。
x-means法
--------------------------------------------------------------------------- ValueError Traceback (most recent call last) <ipython-input-9-59ceea26960f> in <module>() 92 93 # クラスタリングの実行 ---> 94 x_means = XMeans(random_state = 1).fit(np.c_[x,y]) 95 96 # 結果をプロット 2 frames <ipython-input-9-59ceea26960f> in build(cls, X, k_means, index) 63 @classmethod 64 def build(cls, X, k_means, index = None): ---> 65 if index == None: 66 index = np.array(range(0, X.shape[0])) 67 labels = range(0, k_means.get_params()["n_clusters"]) ValueError: The truth value of an array with more than one element is ambiguous. Use a.any() or a.all()