一些粗糙集的学习感悟
上述應該注意的是,假如X={x1,x2,x5},那么雖然x1和x2是不可分辨關系,但其實X也是可以精確描述的,因為{x1,x2}放在一起可以用同一個屬性去描述,x5可以單獨描述。所以并不是說集合里有不可分辨關系就不能精確描述。但是下面的例子:X={x1,x2,x3,x5}就不行,因為和x3有不可分辨關系的x4并不在X中,所以是無法通過知識庫里的交和并來精確描述這個X的。
這里應該注意,上述描述,是判斷用條件屬性能否描述給定的集合,而下述的概念是,能否用化簡后的知識系統去精確描述決策屬性的值,但本質的知識是一樣的。
(能否用化簡后的知識系統去精確描述決策屬性的值的本質其實也是判斷用條件屬性能否描述給定的集合:比如穩定決策屬性的集合就是X1={x1,x2,x5},不穩定的決策屬性集合就是X2={x3,x4,x6,x7,x8},然后用各種知識系統去判斷能否精確描述這兩個集合。)
整個粗集理論的核心就是上面說的有關知識、集合的劃分、近似集合等等概念。下面我們討論一下關于粗糙集在數據庫中數據挖掘的應用問題。考慮一個數據庫中的二維表如下:
元素 顏色 形狀 大小 穩定性
x1 紅 三角 大 穩定
x2 紅 三角 大 穩定
x3 黑 圓 小 不穩定
x4 黑 圓 小 不穩定
x5 藍 方塊 大 穩定
x6 紅 圓 中 不穩定
x7 藍 圓 小 不穩定
x8 藍 方塊 中 不穩定
可以看出,這個表就是上面的那個例子的二維表格體現,而最后一列是我們的決策屬性,也就是說評價什么樣的積木穩定。這個表中的每一行表示了類似這樣的信息:紅色的大三角積木穩定,黑色的小圓形不穩定等等。我們可以把所有的記錄看成是論域A={x1,x2,x3,x4,x5,x6,x7,x8},任意一個列表示一個屬性構成了對論域的元素上的一個劃分,在劃分的每一個類中都具有相同的屬性。而屬性可以分成兩大類,一類叫做條件屬性:顏色、形狀、大小都是,另一類叫做決策屬性:最后一列的是否穩定?下面我們考慮,對于決策屬性來說是否所有的條件屬性都是有用的呢?考慮所有決策屬性是“穩定”的集合{x1,x2,x5},它在知識系統A/R中的上下近似都是{x1,x2,x5}本身,“不穩定”的集合{x3,x4,x6,x7,x8},在知識系統A/R中的上下近似也都是{x3,x4,x6,x7,x8}它本身。說明該知識庫能夠對這個概念進行很好的描述。下面考慮是否所有的基本知識:顏色、形狀、大小都是必要的?如果我們把這個集合在知識系統中去掉顏色這個基本知識,那么知識系統變成A/(R-R1)={{x1,x2},{x3,x4,x7},,,}以及這些子集的并集。如果用這個新的知識系統表達“穩定”概念,那么得到的上下近似仍舊都是:{x1,x2,x5},“不穩定”概念的上下近似也還是{x3,x4,x6,x7,x8},由此看出去掉顏色屬性我們表達穩定性的知識不會有變化,所以說顏色屬性是多余的可以刪除。如果再考慮是否能去掉大小屬性呢?這個時候知識系統就變為:
A/(R-R1-R3)=A/R2={{x1,x2},{x5,x8},{x3,x4,x6,x7}}。同樣考慮“穩定”在知識系統A/R2中的上下近似分別為:{x1,x2,x5,x8}和{x1,x2},已經和原來知識系統中的上下近似不一樣了,同樣考慮“不穩定”的近似表示也變化了,所以刪除屬性“大小”是對知識表示有影響的故而不能去掉。同樣的討論對于“形狀”屬性,“形狀”屬性是不能去掉的。A/(R-R2)={{x1,x2},x6,{x3,x4},x5,x7,x8},通過求并可以得知“穩定”的下近似和上近似都是{x1,x2,x5},“不穩定”的上下近似都是{x3,x4,x6,x7,x8}。最后我們得到化簡后的知識庫R2,R3,從而能得到下面的決策規則:大三角->穩定,大方塊->穩定,小圓->不穩定,中圓->不穩定,中方塊->不穩定,利用粗集的理論還可以對這些規則進一步化簡得到:大->穩定,圓->不穩定,中方塊->不穩定。這就是上面這個數據表所包含的真正有用的知識,而這些知識都是從數據庫有粗糙集方法自動學習得到的。因此,粗糙集是數據庫中論域的有效方法。
(但是上述部分有點問題,因為其實A/(R-R1-R2)=A/R3={{x1, x2, x5}, {x3,x4,x7},{x6, x8}},{x1,x2,x5}和{x3,x4,x6,x7,x8}的上下近似也都是相同的。所以我懷疑是例子或者敘述給錯了。)
總結
以上是生活随笔為你收集整理的一些粗糙集的学习感悟的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: tcpdump与Wireshark抓包分
- 下一篇: 干货!基于表征的噪声转移矩阵估计方法