文章出處

引入

作為練手,不妨用matlab實現K-means

要解決的問題:n個D維數據進行聚類(無監督),找到合適的簇心。
這里僅考慮最簡單的情況,數據維度D=2,預先知道簇心數目K(K=4)

理論步驟

關鍵步驟:
(1)根據K個簇心(clusters,下標從1到K),確定每個樣本數據Di(D為所有數據整體,Di為某個數據,i=1...n)所屬簇,即歐氏距離最近的那個。
簇心編號:

c_i = arg min_{j} {D_i - clusters_j}, 即使得歐氏距離最近的那個j

(2) 更新簇心:所屬簇編號c_i相同的樣本數據D_i的元素們,用他們均值來替代原有簇心(D維向量均值)

代碼

% my_kmeans
% By Chris, zchrissirhcz@gmail.com
% 2016年9月30日 19:13:43

% 簇心數目k
K = 4;

% 準備數據,假設是2維的,80條數據,從data.txt中讀取
%data = zeros(100, 2);
load 'data.txt'; % 直接存儲到data變量中

x = data(:,1);
y = data(:,2);

% 繪制數據,2維散點圖
% x,y: 要繪制的數據點  20:散點大小相同,均為20  'blue':散點顏色為藍色
s = scatter(x, y, 20, 'blue');
title('原始數據:藍圈;初始簇心:紅點');

% 初始化簇心
sample_num = size(data, 1);       % 樣本數量
sample_dimension = size(data, 2); % 每個樣本特征維度

% 暫且手動指定簇心初始位置
clusters = zeros(K, sample_dimension);
clusters(1,:) = [-3,1];
clusters(2,:) = [2,4];
clusters(3,:) = [-1,-0.5];
clusters(4,:) = [2,-3];

hold on; % 在上次繪圖(散點圖)基礎上,準備下次繪圖
% 繪制初始簇心
scatter(clusters(:,1), clusters(:,2), 'red', 'filled'); % 實心圓點,表示簇心初始位置

c = zeros(sample_num, 1); % 每個樣本所屬簇的編號

PRECISION = 0.0001;


iter = 100; % 假定最多迭代100次
for i=1:iter
    % 遍歷所有樣本數據,確定所屬簇。公式1
    for j=1:sample_num
        %t = arrayfun(@(item) item
        %[min_val, idx] = min(t);
        gg = repmat(data(j,:), K, 1);
        gg = gg - clusters;   % norm:計算向量模長
        tt = arrayfun(@(n) norm(gg(n,:)), (1:K)');
        [minVal, minIdx] = min(tt);
        % data(j,:)的所屬簇心,編號為minIdx
        c(j) = minIdx;
    end
    
    % 遍歷所有樣本數據,更新簇心。公式2
    convergence = 1;
    for j=1:K
        up = 0;
        down = 0;
        for k=1:sample_num
            up = up + (c(k)==j) * data(k,:);
            down = down + (c(k)==j);
        end
        new_cluster = up/down;
        delta = clusters(j,:) - new_cluster;
        if (norm(delta) > PRECISION)
            convergence = 0;
        end
        clusters(j,:) = new_cluster;
    end
    figure;
    f = scatter(x, y, 20, 'blue');
    hold on;
    scatter(clusters(:,1), clusters(:,2), 'filled'); % 實心圓點,表示簇心初始位置
    title(['第', num2str(i), '次迭代']);
    
    if (convergence)
        disp(['收斂于第', num2str(i), '次迭代']);
        break;
    end
end

disp('done');

使用到的數據(data.txt)

1.658985    4.285136  
-3.453687   3.424321  
4.838138    -1.151539  
-5.379713   -3.362104  
0.972564    2.924086  
-3.567919   1.531611  
0.450614    -3.302219  
-3.487105   -1.724432  
2.668759    1.594842  
-3.156485   3.191137  
3.165506    -3.999838  
-2.786837   -3.099354  
4.208187    2.984927  
-2.123337   2.943366  
0.704199    -0.479481  
-0.392370   -3.963704  
2.831667    1.574018  
-0.790153   3.343144  
2.943496    -3.357075  
-3.195883   -2.283926  
2.336445    2.875106  
-1.786345   2.554248  
2.190101    -1.906020  
-3.403367   -2.778288  
1.778124    3.880832  
-1.688346   2.230267  
2.592976    -2.054368  
-4.007257   -3.207066  
2.257734    3.387564  
-2.679011   0.785119  
0.939512    -4.023563  
-3.674424   -2.261084  
2.046259    2.735279  
-3.189470   1.780269  
4.372646    -0.822248  
-2.579316   -3.497576  
1.889034    5.190400  
-0.798747   2.185588  
2.836520    -2.658556  
-3.837877   -3.253815  
2.096701    3.886007  
-2.709034   2.923887  
3.367037    -3.184789  
-2.121479   -4.232586  
2.329546    3.179764  
-3.284816   3.273099  
3.091414    -3.815232  
-3.762093   -2.432191  
3.542056    2.778832  
-1.736822   4.241041  
2.127073    -2.983680  
-4.323818   -3.938116  
3.792121    5.135768  
-4.786473   3.358547  
2.624081    -3.260715  
-4.009299   -2.978115  
2.493525    1.963710  
-2.513661   2.642162  
1.864375    -3.176309  
-3.171184   -3.572452  
2.894220    2.489128  
-2.562539   2.884438  
3.491078    -3.947487  
-2.565729   -2.012114  
3.332948    3.983102  
-1.616805   3.573188  
2.280615    -2.559444  
-2.651229   -3.103198  
2.321395    3.154987  
-1.685703   2.939697  
3.031012    -3.620252  
-4.599622   -2.185829  
4.196223    1.126677  
-2.133863   3.093686  
4.668892    -2.562705  
-2.793241   -2.149706  
2.884105    3.043438  
-2.967647   2.848696  
4.479332    -1.764772  
-4.905566   -2.911070

運行結果

缺點

非常naive的kmeans,對于K個簇心初始位置非常敏感,有時候會產生dead point,即有些簇心被孤立而沒有樣本數據歸屬它。

第一次改進:簇心向量的每個維度,在樣本數據的各自維度的最小值和最大值之間取值

clusters = zeros(K, sample_dimension);
minVal = min(data); % 各維度計算最小值
maxVal = max(data); % 各維度計算最大值
for i=1:K
    clusters(i, :) = minVal + (maxVal - minVal) * rand();
end 

效果:

第二次改進:在線K-means,使用隨機梯度下降SGD替代批量梯度下降BGD

思路是,每次僅僅取出一個樣本數據x_i,找出離他最近的簇心cluster_j,并把簇心往x_i的方向拉。這替代了原來使用“所有的、類別編號為c_j的樣本,算出一個均值,作為新簇心”策略.

同時考慮到收斂速度,每次將“最近的簇心”向數據項“拉取”的時候,乘以一個學習率eta,eta最好是隨著迭代次數增加而有所減小,即迭代次數t的減函數。此處代碼實現中使用倒數(eta = basic_eta/i),你也可以用更精致的函數替代。

參考代碼:

% 簇心數目k
K = 4;

% 準備數據,假設是2維的,80條數據,從data.txt中讀取
%data = zeros(100, 2);
load 'data.txt'; % 直接存儲到data變量中

x = data(:,1);
y = data(:,2);

% 繪制數據,2維散點圖
% x,y: 要繪制的數據點  20:散點大小相同,均為20  'blue':散點顏色為藍色
s = scatter(x, y, 20, 'blue');
title('原始數據:藍圈;初始簇心:紅點');

% 初始化簇心
sample_num = size(data, 1);       % 樣本數量
sample_dimension = size(data, 2); % 每個樣本特征維度

% 暫且手動指定簇心初始位置
% clusters = zeros(K, sample_dimension);
% clusters(1,:) = [-3,1];
% clusters(2,:) = [2,4];
% clusters(3,:) = [-1,-0.5];
% clusters(4,:) = [2,-3];
% 簇心賦初值:計算所有數據的均值,并將一些小隨機向量加到均值上
clusters = zeros(K, sample_dimension);
minVal = min(data); % 各維度計算最小值
maxVal = max(data); % 各維度計算最大值
for i=1:K
    clusters(i, :) = minVal + (maxVal - minVal) * rand();
end 


hold on; % 在上次繪圖(散點圖)基礎上,準備下次繪圖
% 繪制初始簇心
scatter(clusters(:,1), clusters(:,2), 'red', 'filled'); % 實心圓點,表示簇心初始位置

c = zeros(sample_num, 1); % 每個樣本所屬簇的編號

PRECISION = 0.001;


iter = 100; % 假定最多迭代100次
% Stochastic Gradient Descendant 隨機梯度下降(SGD)的K-means,也就是Competitive Learning版本
basic_eta = 0.1;  % learning rate
for i=1:iter
    pre_acc_err = 0;  % 上一次迭代中,累計誤差
    acc_err = 0;  % 累計誤差
    for j=1:sample_num
        x_j = data(j, :);     % 取得第j個樣本數據,這里體現了stochastic性質

        % 所有簇心和x計算距離,找到最近的一個(比較簇心到x的模長)
        gg = repmat(x_j, K, 1);
        gg = gg - clusters;
        tt = arrayfun(@(n) norm(gg(n,:)), (1:K)');
        [minVal, minIdx] = min(tt);

        % 更新簇心:把最近的簇心(winner)向數據x拉動。 eta為學習率.
        eta = basic_eta/i;
        delta = eta*(x_j-clusters(minIdx,:));
        clusters(minIdx,:) = clusters(minIdx,:) + delta;
        acc_err = acc_err + norm(delta);
    end
    
    if(rem(i,10) ~= 0)
        continue
    end
    figure;
    f = scatter(x, y, 20, 'blue');
    hold on;
    scatter(clusters(:,1), clusters(:,2), 'filled'); % 實心圓點,表示簇心初始位置
    title(['第', num2str(i), '次迭代']);
    if (abs(acc_err-pre_acc_err) < PRECISION)
        disp(['收斂于第', num2str(i), '次迭代']);
        break;
    end
    
    disp(['累計誤差:', num2str(abs(acc_err-pre_acc_err))]);
    pre_acc_err = acc_err;
end


disp('done');

因為學習率eta選得比較隨意,以及收斂條件的判斷也比較隨意,收斂效果只能說還湊合,運行結果:


文章列表


不含病毒。www.avast.com
arrow
arrow
    全站熱搜
    創作者介紹
    創作者 大師兄 的頭像
    大師兄

    IT工程師數位筆記本

    大師兄 發表在 痞客邦 留言(0) 人氣()