R信息解析:追隨top期刊手把手教你做1個臨床預(yù)判模型
臨床預(yù)判模型也是大家較為感興致的,今日就帶著大家看一篇臨床預(yù)判模型的文章,以及用1個例子給大家過一遍作法。
這篇文章來自護(hù)理行業(yè)高級期刊的文章,文章名在以下
Ballesta-Castillejos A, Gómez-Salgado J, Rodríguez-Almagro J, Hernández-Martínez A. Development and validation of a predictive model of exclusive breastfeeding at hospital discharge: Retrospective cohort study. Int J Nurs Stud. 2021 May;117:103898. doi: 10.1016/j.ijnurstu.2021.103898. Epub 2021 Feb 7. PMID: 33636452.
文章作家做了個入院時純潔母乳豢養(yǎng)的預(yù)判模型,信息來自2個隊(duì)列,1個隊(duì)列做模型,此外1個拿來驗(yàn)證。樣件量的計算用的是“10個樣件1個變量”的規(guī)范,預(yù)判結(jié)局變量是個二分類,變量篩選的方式仍然是單原因有意思的都?xì)w入預(yù)判模型中,詳細(xì)的建模方式是logistic回歸模型。接著用AUC進(jìn)行模型的評價。
在結(jié)果報表上,作家報表了一切的有意思的預(yù)判原因,每個原因會展現(xiàn)OR和OR的置信區(qū)間,還有總體模型的評估指標(biāo),含蓋展現(xiàn)了模型的ROC曲線,和AUC,作家還展現(xiàn)了不同幾率階截斷值下的模型的Sensitivity, Specificity, PPV, NPV, LR+, LR-。如圖:
作家全部文章是用SPSS做出去的,今日給大家寫寫論文中的各類指標(biāo)全是什么意思并且怎樣用R話語做出去論文中須要報表的各類指標(biāo)。理論鋪墊
首先給大家寫靈敏度(Sensitivity)與特異度(Specificity),這2個物品全是對于二分類結(jié)局來講的,大家先瞅瞅以下的圖:
咱們真正的結(jié)果有兩類也許,模型的預(yù)判也有兩類也許,上圖的AD表示模型預(yù)判對的個案數(shù)目,如此靈敏度就是:在真的有病了,你的模型有多大也許檢查出去,表示為
Sensitivity: A/(A+C) × 100
在論文中就是這個母親真的是純潔母乳豢養(yǎng)的,模型有多大也許辨認(rèn)為真的純潔母乳豢養(yǎng)。
特異度就是:我是真的真的沒病,你的模型有多大也許說我真的沒病,表示為:
Specificity: D/(D+B) × 100
在論文中就是這個母親真的不會去純潔母乳豢養(yǎng)的,模型有多大也許辨認(rèn)為真的不僅純母乳豢養(yǎng)。
有類學(xué)友說,我知曉個模型預(yù)判確切率不就好了嗎,用(A+D)/(A+B+C+D)來評價模型不就好了嗎?搞如此麻煩。。
不可如此想的,例如你如今有1個傻瓜模型,這個模型傻到它只會將一切的人都預(yù)判為沒病,恰好這個模型被用在了1個常態(tài)人群中,接著咱們發(fā)掘這個傻瓜模型的準(zhǔn)確率也是100%,這個就很離譜,因此并模型預(yù)判確切性是不可廣泛評價模型體現(xiàn)的,須要借助Sensitivity, Specificity。
咱們再看 PPV, NPV這2個指標(biāo):
Positive Predictive Value: A/(A+B) × 100
Negative Predictive Value: D/(D+C) × 100
看上面的公式,相信大家都看得出這2個實(shí)則就是模型的陰性預(yù)判確切性和陽性預(yù)判確切性,也能夠從特定角度闡明模型的體現(xiàn)。
再看LR+和 LR-,這2個就是陰性似然比 (positive likelihood ratio, LR+)和 陽性似然比
(positive likelihood ratio, LR+),似然比的概念請考慮下一段英文描繪:
Likelihood ratio (LR) is the ratio of two probabilities: (i) probability that a given test result may be expected in a diseased individual and (ii) probability that the same result will occur in a healthy subject.
如此:(LR+) = sensitivity / (1 - specificity),意義就是真陰性率與假陰性率之比。闡明模型準(zhǔn)確判定陰性的也許性是錯誤判定陰性也許性的倍數(shù)。比值越大,實(shí)驗(yàn)結(jié)果陰性時為真陰性的幾率越大。
(LR-) = (1 - sensitivity) / specificity,意義就是假陽性率與真陽性率之比。表示錯誤判定陽性的也許性是準(zhǔn)確判定陽性也許性的倍數(shù)。其比值越少,實(shí)驗(yàn)結(jié)果陽性時為真陽性的也許性越大。
因此大家記?。宏幮运迫槐仍酱笤胶?,陽性似然比越少越好。
最終再把上面的一切的內(nèi)容總結(jié)1個表獻(xiàn)給可惡的粉絲們,嘿嘿。以下就是1個分類結(jié)局預(yù)判變量須要報表的許多模型評價指標(biāo):
再回過頭想想咱們所謂的陰性或者陽性,假設(shè)用logistics回歸做的話自身這個陰性陽性的鑒別全是能夠設(shè)定的,由于咱們的模型擬合出去的是呼應(yīng)幾率,就是Logit公式里面的那個p值,你能夠以p=0.5為咱們鑒別陰陰性的cutoff,固然你還能夠以0.9或者0.1為cutoff,cutoff不同自然咱們模型靈敏度和特異度就不同了,就是說靈敏度和特異度是緊隨cutoff不同而改變著的,因此要安穩(wěn)地評價模型體現(xiàn)還須要此外的指標(biāo),這個時候咱們就引出了1個很首要的概念:ROC曲線和曲線以下積AUC。在實(shí)戰(zhàn)中解讀ROC曲線
我如今手上有信息如下:
我要做1個default的預(yù)判模型,default是個二分類變量,取值為“No” 和“Yes”,為了簡潔我預(yù)判原因只參考1個balance。因而我創(chuàng)建1個logistics模型:
model_glm = glm(default ~ balance, data = default_trn, family = "binomial")
咱們將預(yù)判為Yes的幾率為0.1的時候成為cutoff值,區(qū)分預(yù)判結(jié)局(p<0.1的時候?yàn)镹o,p>0.1的時候?yàn)閅es),一樣地咱們還能夠?qū)utoff設(shè)置為0.5,0.9。接著咱們分別看一看模型的靈敏度和特異度:
test_pred_10 = get_logistic_pred(model_glm, data = default_tst, res = "default",
pos = "Yes", neg = "No", cut = 0.1)
test_pred_50 = get_logistic_pred(model_glm, data = default_tst, res = "default",
pos = "Yes", neg = "No", cut = 0.5)
test_pred_90 = get_logistic_pred(model_glm, data = default_tst, res = "default",
pos = "Yes", neg = "No", cut = 0.9)
test_tab_10 = table(predicted = test_pred_10, actual = default_tst$default)
test_tab_50 = table(predicted = test_pred_50, actual = default_tst$default)
test_tab_90 = table(predicted = test_pred_90, actual = default_tst$default)
test_con_mat_10 = confusionMatrix(test_tab_10, positive = "Yes")
test_con_mat_50 = confusionMatrix(test_tab_50, positive = "Yes")
test_con_mat_90 = confusionMatrix(test_tab_90, positive = "Yes")
metrics = rbind(
c(test_con_mat_10$overall["Accuracy"],
test_con_mat_10$byClass["Sensitivity"],
test_con_mat_10$byClass["Specificity"]),
c(test_con_mat_50$overall["Accuracy"],
test_con_mat_50$byClass["Sensitivity"],
test_con_mat_50$byClass["Specificity"]),
c(test_con_mat_90$overall["Accuracy"],
test_con_mat_90$byClass["Sensitivity"],
test_con_mat_90$byClass["Specificity"])
)
rownames(metrics) = c("c = 0.10", "c = 0.50", "c = 0.90")
metrics
運(yùn)作代碼后獲得呼應(yīng)幾率不同cutoff值的狀況下模型的靈敏度和特異度,如下圖:
能夠看見咱們設(shè)定的呼應(yīng)幾率的cutoff值不同,就是判定陰陽的規(guī)范不同,咱們獲得的模型的靈敏度和特異度就是不同的。
以上不過為了再次給大家直觀地闡明咱們的模型的靈敏度和特異度是取決于咱們的呼應(yīng)幾率界值的,你判定陰陽的規(guī)范會直接牽連模型的靈敏度和特異度,因而,咱們換個思想,針對1個模型,咱們將靈敏度成為橫坐標(biāo),特異度成為縱坐標(biāo),接著cutoff輕易取,咱們生成一條曲線,這就參考了一切的cutoff狀況了,就能夠安穩(wěn)地評價模型的體現(xiàn)了,這條曲線就是ROC曲線。
如此咱們希望的是1個模型它的靈敏度高的時候,特異度也能高,表現(xiàn)到曲線上就是曲線下的面積可以越大越好。預(yù)判模型R話語實(shí)操
此部份給大家寫怎樣做出論文中的各類指標(biāo),并且怎樣繪出ROC曲線。
仍然是用上一部份的信息,仍然是做balance預(yù)判default的模型:
model_glm = glm(default ~ balance, data = default_trn, family = "binomial")
模型流出結(jié)果如下:
結(jié)果中有流出模型的截距和balance的β值,咱們能夠用如下代碼獲得balance的OR值并且置信區(qū)間:
exp(cbind(OR = coef(model_glm), confint(model_glm)))
運(yùn)作上面的代碼就能夠獲得balance的OR值和OR的置信區(qū)間:
同時咱們有遠(yuǎn)古的真正值,咱們模型擬合好了以后能夠用該模型進(jìn)行預(yù)判,獲得預(yù)判值,生成攪渾矩陣:
model_glm_pred = ifelse(predict(model_glm, type = "response") > 0.5, "Yes", "No")
在矩陣中就能夠獲得哪類是遠(yuǎn)古信息真正的No和Yes,哪類是模型預(yù)判出去的No和Yes:
上面就是咱們自身信息做出去的攪渾矩陣,接著大家就能夠直接帶公式計算出須要報表的模型的Sensitivity, Specificity, PPV, NPV, LR+, LR-了。
同時大家能夠用pROC包中的roc函數(shù)一行代碼繪制出ROC曲線并獲得曲線以下積,例如我做的模型,寫出代碼如下:
test_roc = roc(default_tst$default ~ test_prob, plot = TRUE, print.auc = TRUE)
就能夠獲得ROC曲線和曲線以下積了:
上面的一切操控全是能夠在SPSS中完結(jié)的,論文作家也是用SPSS做的。大家感興致去閱讀原論文哈。小結(jié)
今日結(jié)合刊登文章給大家寫了分類結(jié)局的預(yù)判模型須要報表哪類指標(biāo),指標(biāo)的意思并且怎樣用R做1個分類結(jié)局的預(yù)判模型,感激大家耐煩看完,自身的文章都寫的很細(xì),首要代碼都在原文中,期望大家都能夠自身做一做,請轉(zhuǎn)發(fā)本文到同伙圈后私信答復(fù)“信息鏈接”獲得一切信息和自己采集的學(xué)習(xí)資料。假設(shè)對您有用請先記得珍藏,再點(diǎn)贊分享。
也歡迎大家的看法和倡議,大家想了解什么統(tǒng)計方式都能夠在文章下留言,說不定我看到了就會給你寫教學(xué)哦,有疑問歡迎私信。
假設(shè)你是1個大學(xué)本科生或研發(fā)生,假設(shè)你正在由于你的統(tǒng)計功課、信息解析、模型建立,科研統(tǒng)計設(shè)計等憂愁,假設(shè)你在應(yīng)用SPSS, R,Python,Mplus, Excel中碰到任意問題,都能夠聯(lián)絡(luò)我。由于我能夠給您供應(yīng)最佳的,最全面和耐煩的信息解析服務(wù)。
假設(shè)你對Z檢查,t檢查,方差解析,多元方差解析,回歸,卡方檢查,有關(guān),多程度模型,構(gòu)造方程模型,中介調(diào)整,量表信效度等等統(tǒng)計方法有任意問題,請私信我,獲得全面和耐煩的引導(dǎo)。
If you are a student and you are worried about you statistical #Assignments, #Data #Analysis, #Thesis, #Reports, #Composing, #Quizzes, Exams.. And if you are facing problem in #SPSS, #R-Programming, #Excel, Mplus, then contact me. Because I could provide you the best services for your Data Analysis.
Are you confused with statistical Techniques like z-test, t-test, ANOVA, MANOVA, Regression, Logistic Regression, Chi-Square, Correlation, Association, SEM, multilevel model, mediation and moderation etc. for your Data Analysis...??
Then Contact Me. I will solve your Problem...
加油吧,打工人!往期精彩
R信息解析:用R話語做meta解析
R信息解析:用R話語做潛類型解析LCA
R信息解析:什么是人群歸因分?jǐn)?shù)Population Attributable Fraction
R信息解析:手把手教你畫列線圖(Nomogram)及理解結(jié)果
R信息解析:偏向性評分匹配完好實(shí)例(R實(shí)行)
R文本發(fā)掘:感情解析
R信息解析:怎樣用R做驗(yàn)證性因子解析及繪圖,實(shí)例操練
R信息解析:有調(diào)整的中介
R信息解析:怎樣用R做多重插補(bǔ),實(shí)例操練
R信息解析:多分類邏輯回歸
R文本發(fā)掘:中文詞云形成,以2021新年賀辭為例
R信息解析:臨床預(yù)判模型的樣件量討論及R實(shí)行
R信息解析:混合效應(yīng)模型實(shí)例
R信息解析:隨機(jī)截距交叉滯后RI-CLPM與傳統(tǒng)交叉滯后CLPM
R信息解析:多程度模型全面闡明
R信息解析:怎樣做潛在剖面解析Mplus
R信息解析:主成份解析及可視化
R信息解析:生存解析的作法與闡明續(xù)
R信息解析:競爭危害模型的作法妥協(xié)釋二
R信息解析:怎樣做邏輯斯蒂回歸
R信息解析:開拓性因子解析
R信息解析:交叉滯后模型非專業(yè)闡明
R信息解析:線性回歸的作法和優(yōu)化實(shí)例
R信息解析:多元邏輯斯蒂回歸的作法
R信息解析:非專業(yè)講解潛變量增長模型
R信息解析:競爭危害模型的作法妥協(xié)釋
R信息解析:中介功效與調(diào)整功效的解析與闡明
R信息解析:混合效應(yīng)模型的可視解除釋,再不懂就真沒方法
R信息解析:潛增長模型LGM的作法妥協(xié)釋,及其與混合模型對照
信息可視化——R話語分組較為時圖形增加P值和明顯性程度
R信息解析:構(gòu)造方程模型繪圖并且模型較為,實(shí)例操練
本文網(wǎng)址:http://m.55swg.cn/news/1887.html
相關(guān)標(biāo)簽:預(yù)判模型,總體模型,模型預(yù)判,傻瓜模型,這個模型,評價模型,模型評價,模型靈敏度,logistics模型,1個模型,1個模型它,模型流出,流出模型,程度模型,方程模型,效應(yīng)模型實(shí)例,危害模型,滯后模型,增長模型,效應(yīng)模型,模型LGM,混合模型
最近瀏覽:
相關(guān)產(chǎn)品:
相關(guān)新聞:
- “四大?!眲?chuàng)建的中醫(yī)人體模型分析《傷寒論》|《醫(yī)圣心印》連載8
- 法證先鋒:3D打印解剖模型在法庭上大現(xiàn)身手 證實(shí)原告言行
- 中國學(xué)者開發(fā)嶄新癡呆危害預(yù)判模型 可提早十年預(yù)判癡呆發(fā)病
- 模型展上多奇葩:往年的WF展上的幾個有趣(沙雕)模型
- 服務(wù)經(jīng)營| 優(yōu)化決策在醫(yī)療健康行業(yè)的理論+實(shí)踐
- 提前一周預(yù)測流感,中國首個AI流感實(shí)時預(yù)測模型登《柳葉刀》子刊
- 種子磁力鏈接聚合搜索工具-magnetW老司機(jī)必備的5個資源網(wǎng)站,第3個還能搜索種子BT!除了常見的搜索引擎,您還須要知曉這類良知的搜索神器python爬蟲入門01:教你在 Chrome 瀏覽器輕盈抓包這5個在線資源網(wǎng)站較強(qiáng)大,能幫你搜到99%的資源!5款SteamVR動作游戲分享舉薦10款必玩的熱點(diǎn)VR游戲舉薦,不玩你的Oculus Quest VR眼鏡就白買了體會完這個新品后,我感覺爽用VR的日子要來了設(shè)施太貴內(nèi)容太坑?VR前景令人擔(dān)心,誰才是順利路上的絆腳石熱點(diǎn)經(jīng)典VR游戲分享清點(diǎn),5款優(yōu)秀Meta
- 劍橋華人隊(duì)伍搞出多模態(tài)醫(yī)學(xué)大模型!單個消費(fèi)級顯卡就能布置
- 港科大褚曉文:醫(yī)療場景下的 AutoML,模型參數(shù)量更小、分類準(zhǔn)確率更高
- 晶體-細(xì)胞互相功效的蛋白質(zhì)組學(xué):腎結(jié)石研發(fā)的模型