接著我們見到擬合優指數Goodness of fit statistics。這是甚麽呢?
我們知道,在做研究時,會得到一個correlation matrix或covariance matrix,即S
然後我們提出一個模型,例如這五題從屬於一個因子
另外四題從屬於另一個因子,諸如此類
然後我們就會畫一個路徑圖,知道哪幾題從屬於哪幾個因子
亦知道那些因子之間哪幾個是有相關的, 但我們並不知道內裡的關係強弱
輸入電腦的就是S和那個路徑圖(模型)
然後電腦就會估計出路徑圖中的每一個參數, 再根據剛才的參數產生一個矩陣Σ
這個Σ是根據剛才輸入的數字計算出來的
這些輸入的數字不是隨便選定的,而是被選定為最好的
怎樣才是最好呢?就是數字産生出來的Σ跟我們的S越接近越好
雖然好想讓Σ接近S,但最終究竟真的能接近S,還是跟S的距離仍然很大呢
就要用擬合優指數goodness of fit來表達這個差距。
第一行就是degree of freedom(df),degree of freedom就是模型的複雜度
模型越複雜,degree of freedom就越小, 因此degree of freedom越大越好,它越大就代表模型越簡單
degree of freedom究竟是甚麽呢? 就是模型開始時數據有多少個原素element
例如在這範例中有17個變量
它的degree of freedom = 17 x 18 / 2, 這就是開始時的degree of freedom
然後,要減去總共要估計的參數
例如我們有17個題目和5個因子
於是我們就有17個因子負荷和17個獨特性uniqueness要被估計, 即共估計34個參數
另外還有10個因子間相關要估計,就是5個因子之間的相關
即總共要估計34 + 10 = 44個關係,即freely estimated
原本開始時有153即(17 x 18 / 2) – 44 = 109個degree of freedom
傳統上我們用Chi-square,Chi-square作為Σ和S之間的距離的一個總指標
Chi-square越大即是這兩個之間的距離越大,所以我們用Chi-square來量度Σ和S之間的距離
如今亦有不同類型由Chi-square或其他方法推算出來的擬合優指數
它們表現有相似或不同的地方,暫時我們不在此作深究
得到Chi-square後我們應該如何解讀? 我們記著自由度degree of freedom = 109,然後查表
看看它是否統計上顯著significant,如果是顯著significant,則代表這個chi-square很大
如果查表後發現那個chi-square並不顯著,我們就總結Σ和S的距離很小
後面括弧內的p就代表它是否顯著
如果p小於0.05就是顯著的,因此這個模型(數據與模型的差異)就是顯著的
因為p = 0.00。如果p = 0.5,而我們用0.05作標準,p就不顯著
但現在p = 0.00小於0.05,我們就作結論說這是顯著的
即是如p的數值很小,即代表這個(數據與模型)距離是顯著的
換句話說,就是S和Σ之間有個顯著的分別
但我們又發現,原來用這個方式檢查Chi-square是否顯著會有一個頗嚴重的缺陷
就是樣本大的時候,chi-square就會很大
縱使兩個矩陣相距很小,即是輸入的S和電腦輸出的Σ距離很小
只要樣本量很大的時候,電腦亦會告訴我們兩個矩陣的距離很大
這就造成誤導,因此不同的研究人員就發展出其他
可供參考的擬合優指數Goodness of fit index
其中一個我們可以留意的是,螢幕中間顯示的RMSEA
RMSEA的一般指標是0.08或0.05以下; 現在是0.046,比剛才提及的指標小
換句話說,(依RMSEA)Σ和S之間的距離很小
即是我們提出的模型(題目的歸類法及因子的關係)是合理的
是能够充份代表輸入的S的實際情況
另外螢幕上高還有一個NCP(non-centrality parameter); 其實chi-square有一個expected value
如果自由度degree of freedom是109, 我們就期望Chi-square是109
現在我們的結果是190.15,我們的non-centrality parameter(離中指數), 就會距離我們期望的109相差81.15
如果離中指數越高,即離開期望值越大,提出模型就越不吻合
通常我們參考Chi-square就足够,並無需參考離中指數
但離中指數在計算其它指數等較複雜的研究中很有用
另外還有一個minimum fit function,這是一個迭代的過程
這過程就是找出一個跟S距離最小的Σ
我們可以找出很多Σ,但有些Σ跟S的距離很大
我們就得用一個最小化的過程,即minimization
或者叫優化過程,把兩個矩陣之間的距離減至最小
在範例中最小的fit function值就是0.56; 0.56跟chi-square有甚麽關係?
原來0.56 x (n - 1) = Chi-square
在範例中的n相等於350,因此範例中的Chi-square相等於0.56 x 349
如此一來就容易明白,因為minimization的過程
不理樣本究竟多大,都會乘以這個特定的值value(在此,0.56)
假如我們告訴電腦,這個研究的樣本是1000
電腦就會把Chi-square計算成0.56 x (1000 - 1),那Chi-square將會很大
換句話說,minimum fit function計算出來的距離
不論有多少個樣本,都是將這函數最小化的; 所以這是一個最小化的過程
然後它就會視乎樣本數量計算出Chi-square
我們說Chi-square會受樣本數量影響,就是因為這個步驟
另外我們有一個90%的置信區間confidence interval
近來研究人員越來越重視區間interval的概念而不再是點的概念
即是我們估計出0.046後,就會思考0.046究竟有多大,是否絕對是0.046
電腦就會提出它的範圍大約在0.035-0.057之間
而0.035-0.057的confidence interval相對地不是一個很大的範圍
因此就是0.046的估計不是絕對準確,取其最大及最小的值,都比0.08小
所以我們說這兩個矩陣的吻合度還是頗高的
另一個概念就是近似吻合close fit
我們的目標一直都是透過模型來簡化數據間的複雜關係
爲甚麽要提出模型? 因為每個變量之間都有關係, 但這樣表達就難以讓人明白
因此我們要建立一個模型,用一個簡單的方法
越簡單越好,表達變項之間的關係
因此如果我們能用一個簡單的模型來簡化這些複雜的關係
而且最終得出的矩陣Σ跟原本輸入的數據S是接近
我們就認為這個模型很有用,是個好的模型
我們不可能以0差距做目標,即Σ跟S沒有可能相等
這個要求(Σ跟S是0差距)太苛刻了
因為開始時我們從沒有想過兩個矩陣的結果會完全一樣
我們期望最後的結果和S有少許距離,這是可以接納的
因爲我們本來就只是想做簡化,而簡化的結果是沒有可能跟原來的數據100%吻合
所以兩個矩陣間有少許距離是合理的,可接納的
因此我們最終的目標不會是生出一個跟S零距離的矩陣
例如我們的目標是兩個矩陣之間的相差令RMSEA = 0.05的距離
即是說RMSEA = 0.05, 如果我們用這個來做標準,來衡量最終的RMSEA是否顯著
因此我們就有一項名為p-value of test of close fit; 我們以close fit為目標,以RMSEA少於0.05為目標
本次分析的RMSEA是否顯著(與RMSEA 0.05明顯不同)? 當然我們期望那是不顯著的
因此這個p-value就是越大越好, 並不期望它是0.00或0.01;
所以p-value越大就越好
而非跟0相比。 假如現在我們期望RMSEA是0.05,又是否顯著呢?
接下來我們探討其他吻合指數: NNFI和CFI都是比較常用的
如果這兩個指標都比0.90大,就代表我們的模型有很高的吻合度
範例中兩個指標都比0.90大,因此我們結論依據這兩個指標,Σ和S都很吻合的
而NNFI有另一個名稱為TLI,它倆的定義極為接近 而CFI另一個名稱就是RNI
CFI與RNI二者是被兩組不同的研究學者在同期、同一個期刊推薦爲參考指標
因此這兩個名稱都被廣泛使用
另外還有RMR,SRMR,GFI,AGFI; 它們都是傳統而歷史較早的指標
其後研究人員卻發現它們有很多缺點,所以現在相對較少被使用
我們期望RMR和SRMR越小越好,對於GFI和AGFI我們卻期望它們比0.90大
RMR是一些殘差,當然就是越小越好
另外電腦會輸出一些修正指數; 修正指數是甚麽呢?
有一些地方有這個指數,有些地方卻沒有提供這個指數
原來我們需要估計的位置,例如首四題跟第一個因子
凡是我們容許電腦自由估計的參數的位置,都不提供修正指數
例如第一題和第二個因子是沒有路徑、沒有關係的,不存在自由估計的
電腦就會給我們一個修正指數,就是0.06
又例如第八題與第一個因子的修正指數是最大的, 而它們現時是被固定為0的
通過修正指數,電腦告訴我們,如果這參數(位置)我們把它改變為自由估計
它的chi-square就會减少了41.37
換句話說,如果第八題從屬於第一個因子, 好處就是chi-square减少了
而我們一直期望chi-square越小越好, 因為chi-square是Σ和S的距離,
所以我們期望chi-square越小越好
假如我們把剛才的結果放入我們的路徑圖,就會得出螢幕中的圖示
我們看見第四題和第一個因子的關係(因子負荷)很弱
熟悉數學的同學又會明白,λ-square的因子負荷的平方+error = item的variance
而我們把所有解都標準化後,所有variance就相等於1
換句話說,例如第一題,0.59 x 0.59 + 0.65 = 1
同樣道理,第二題,0.58 x 0.58 + 0.66 = 1
即是每一個變量(item)的共同部份都被抽到去因子裡
餘下的就放在誤差(最左邊的theta-delta)裡
theta-delta包括甚麽呢? 就是題目內沒有被抽出的共同部份
即是跟其他人沒有相關的部份, 以及該題目的測量誤差的部份,
就被放進theta-delta內
大致上我們有以下結論: 第四題在A的負荷很小,只有0.05
但,好不幸,它在其他因子的修正指數並不高
即是如果我們在第四題加入一條路徑到另一個因子, 亦不能解決問題
因此我們總括講它既不屬於A,又不從屬其他因子
第八題在B的因子負荷亦不高,只有0.28; 但它在A的修正指數是41.4
即是第八題可能不從屬於B,但可能從屬於A
我們下面就可以作這樣一個檢查
當然,這種看著數字來不斷做各種的修改,被稱為數據驅動data driven
在做研究時,主要依這方法修改,是不被推薦的
因為我們不建議單憑數據來改動模型
我們應該考慮實際情况及變項的意義, 看一下題目與因子的從屬關係
假如從實况考慮都發現某個從屬關係是合理的
我們就應該參考那些數字,在對模型作出修改
而不應該單憑數字作主導來修改,而是應該先參考實况和理論
再參考修正指數,最後才作出合理的修改
這個模型的因子相關很高, 而模型的擬合優指數Goodness of fit index亦頗理想
當我們仔細地檢查所有題目內容後
就決定刪去第四題,以及把第八題歸類到A因子, 然後再作出檢查
接著我們再執行(RUN)一次程式,檢查修改後的模型 (模型M-B)
首先看怎樣修改程式syntax,第一句沒有變動,DA NI=17,17個變量以及350個受試者
然後我們輸入那個相關矩陣
不同之前的就是我們删去了第四題, 於是我們就用SE指令(選取select)
指出我們選擇留下來用作檢查的題目, 即是1,2,3,刪去4,然後保留5,6,7直至17
但假如我們這句指令分兩行輸入, 我們就可以在輸入SE時可以省掉分號";"
只需在第二行輸入我們想保留的題目就可以
輸入所有保留的題目後要加一個"/", 以向電腦表示這句指令到此爲止
接著就是MO指令。 今次NX=16,因爲我們只保留16個題目。然後NK=5
PA LX,pattern中首三題從屬第一個因子, 次三題從屬第二個因子
接下來那一題的設定原本是(0 1 0 0 0),如今卻改為(1 0 0 0 0)
因為這一題,即新程式的第七題(其實就是原本的第八題)
改為從屬於A(第一個因子), 因此我們作出這個改動
括弧內的1就是自由估計,0則是固定不用估計
其他的編程則跟之前一樣, 這就明顯地使用了固定方差方法,PH = ST
螢幕顯示的是模型M-B的結果
從圖中得知第八題改為從屬A後的因子負荷不算太差(0.49接近0.5)
其他擬合優指數Goodness of fit index頗好,例如RMSEA小於0.05或0.08, NNFI和CFI都大於0.90
現在我們已經得出模型A和B的各個擬合優度指數
究竟哪一個模型較好? 我們應該如何比較?
我們先學習一些普遍的比較原則
要學習那些普遍的比較原則前, 我們必須認識嵌套的觀念
嵌套是甚麽呢? 我們先看MX和MY這兩個模型
MX和MY是嵌套的,因爲如果有一個模式的路徑可以被修改變成另一個模式
我們便說這兩個模型有嵌套的關係
M-X兩個因子之間可以有相關, M-Y兩個因子之間的相關是被固定為0
即是我們删掉了兩個因子之間的路徑(關係)
如果有一個模式,我們删去了當中部份關係
把之固定為0,並改成第二個模式, 我們便說這兩個模式有嵌套的關係
我們便說新的模式嵌套於舊模式當中
而M-Y的自由度則不需減這麽多,因為我們不需要估計因子的相關
所以M-Y的自由度就是27
至於兩個模型的Chi-square,哪一個模型的會較小? 我們是否能夠知道呢?
如果這兩個模型有嵌套的關係,我們一定知道它們的Chi-square關係
因為當我們把其中的關係固定為0以後,Chi-square只會變大而不會減少
最理想時都只能保持差不多的Chi-square,但應該是會變多
因爲假設它們是一些積木或玩具模型, 我們把一些位置固定為0的意義就是
把一些位置不再容許自由估計,把它鎖死為0
然後我們套入一些讓Σ接近S的數值, 難度一定會加大
原本的模型有很多可以調較的位置, 因為那些位置就是可以自由估計的地方
但如今可調較的位置減少,那些位置被強逼為0
所以最理想的情況就是原本被自由估計出來的那個都是接近0
那時,把模型可調較的位置固定/鎖緊後,兩個模型都是接近0
它們的Chi-square自然也沒有甚麽大分別
如果原本的位置的相關,如圖中所示原本的關係是0.25,是最理想的數值
然後我們強逼固定它為0,就少了自由,沒那麼舒服, 因此Chi-square就一定變大
所以我們學會了一些通則: 原本開始時的模型自由度較小,不太理想
我們要緊記自由度越大代表模型越簡單,亦即更理想
原本開始時模型自由度小
從自由度角度來說這樣就不太理想,因為說明模型更加複雜
但當我們把一些地方固定為0後,模型的自由度却變大
即是模型變得簡單,這就更理想
為甚麽會變得簡單? 因為要估計的路徑减少了
但若從Chi-square的角度考慮,原本的模型因爲有很多位置被自由估計
所以它的Chi-square會比較小。但減少自由估計的位置後,chi-square就會變大
所以就减低了吻合度。 甚麽時候兩個模型會吻合得較好呢?
就是原本的路徑都很接近0,然後我們把它們固定為0, Chi-square就不會變得太大
因此兩個嵌套模型,原本很多路徑的模型的自由度會較小,但它的Chi-square就會較小
另外把很多路徑固定為0的模型,其自由度較大
那麼模型較看來較理想簡單,但它的Chi-square卻一定會較大
究竟甚麽時候選用哪個模型呢?
就是假如我們把位置固定為0後,即加大自由度後,Chi-square並不會增加太多
我們就會選用新的(那個較簡單的)模型,因爲那模型較好較理想
但假如我們固定某些關係以後,Chi-square增加得太多
我們就評定將這些位置固定爲0的做法為不值得、不可取
於是我們會追問,怎樣才算是增加得太多或增加得不多?
我們可以做一個叫做delta-Chi-square的測試
我們把兩者之間的Chi-square的差距當成一個Chi值, 把degree of difference當成degree of freedom
於是在這個模型裏,delta-Chi-square就是第一個Chi-square和第二個Chi-square的差距,即是14
而degree of freedom就相差1,然後我們查看圖表
看一看增加的Chi-square(14,即delta-chi-square)換來一個degree of freedom是顯著還是不顯著
如果查表後發現這是顯著的,即表示這個chi-square都頗大
即代表chi-square增加得大多,我們不可以選用那個新的較簡單的模型
即是我們只能容許兩個因子之間的相關應該自由估計
假如我們只考慮delta-Chi-square和degree of freedom, 我們會發現它是顯著的,換句話說
它再一次證明兩個因子之間的相關必須存在自由估計,才算是一個較好的模型
當然我們知道Chi-square有很多缺點, 不然就不會發展更多新的參考指數了
而因為chi-square有很多缺點,我們再做delta-Chi-square的檢查亦有很大局限
因此我們同時應該參考NNFI、CFI、RMSEA等吻合指數的改變
如果我們修改模型後,它們的值改變得太多,就代表我們不應該簡化我們的模型
但如果我們發現刪去一些路徑後,模型的吻合指數沒有太大改變
則代表那個簡化是可取的
詳細一點闡述,假如我們删去關係,簡化模型後,NNFI、CFI、RMSEA都沒甚麽改動
我們就總結這個簡化的是值得和可取的
如今我們來到另一個問題,就是我們的M-A和M-B有沒有甚麽結論呢?
這一次我們的M-A和M-B之間並沒有嵌套關係
因爲一個只有17題題目,而另一個卻有16題題目
兩個模型的題目數量根本不同,就更談不上加減路徑來變成另一模型
因此它倆者之間並沒有嵌套的關係, 所以我們不能用上剛才的delta-Chi-square比較
但我們可以參考剛才的邏輯, 考慮它們不同的吻合指數
如果指數改變很大, 就代表不可以作出這樣的改變,不可以把模型簡化
但如果指數改變很小,我們就結論那個簡化的動作是值得的