哈里·斯里尼瓦桑:近日,《科學》雜志上發表了一則研究,該研究發現,美國各地有很多醫院會使用某種算法來決定哪些病人需要后續的照料、哪些病人不需要后續的照料
。但這個算法存在巨大的種族偏見 。近日,梅根·湯普森跟STAT的史拉達·柴可拉達聊了聊,史拉達解釋了研究人員的發現成果 。梅根·湯普森:為什么會有這種偏見呢?
史拉達·柴可拉達:有2種方法可以判斷一個人生病的嚴重程度
。第一種:這個人治病花了多少錢 。大家都知道,一般都會這樣看待:獲得的醫療照顧越多,獲得的治療就越多 。在獲得了所有治療的情況下,他們花費的錢越多,他們病的就越重 。第二種:大家都知道,我們可以通過實驗測試評估實際的生物物理學情況,了解人可能出現的問題或者疾病 。所以,似乎這個算法是取決于成本預測的定義 。換言之,一位病人預計花在保險公司或者醫院的錢越多,他們病得就越重 。而偏見似乎也是從這里生發出來的 。梅根·湯普森:我理解,研究人員用這個算法來搭配不同類型的數據
。您能稍微介紹一下嗎?他們用的是什么?史拉達·柴可拉達:沒問題
。是這樣的,他們沒有只依據成本來預測哪些病人需要后續的照顧,他們用的是生物統計的數據、生物物理學的數據、生理數據,然后他們在之前的模型上發現了巨大的不同 。這個算法錯失了近4.8萬額外的慢性病,這種慢性病的患者是非裔美籍病人 。但他們調試了算法來觀測實際的生物數據時,他們將這個數字降到了7700 。所以,偏見程度下降了大概84% 。梅根·湯普森:我們是否知道這個偏見算法是否會影響病人獲得的照顧呢?
史拉達·柴可拉達:這個不知道
。不過,就像我之前提到的那樣,這個算法是一些醫院用來幫助自己確定未來一年中哪些病人可能需要額外照料的 。這種照料包括在家的照料、確保病人可以定期跟醫生預約 。所以,咱們只能這樣想:如果黑人病人、病得更重的黑人病人沒有獲得準確的定位,那么他們也無法獲得后續的照顧 。梅根·湯普森:Optum公司是否會有什么負面影響呢?畢竟這個算法是他們做的
。史拉達·柴可拉達:會的
。該研究發布一天后,紐約的一些監管人員,比如紐約州金融服務署和衛生部的監管人員,他們給該公司發了一封信 。他們說,他們在調查這個算法,他們還說,該公司必須要證明這個算法的運作方式并沒有違背紐約的反歧視法 。所以,這個調查還未進行 。一件令人鼓舞的事情是:研究人員做研究的時候,實際上,他們找過這家公司,也讓他們知道了數據的不一致性 。該公司聽聞后表示很開心 。我聽說,他們正在修復這個問題 。另一件令人鼓舞的事情是:這些研究人員發起了一項活動,幫助其他可能落后的公司在自己的項目里修復這些偏見問題 。所以,他們推出了一個項目,該項目是在芝加哥大學布斯商學院外進行的,而且是無償的 。所以他們可以在其他算法中發現這些可能在全國各地使用的內容 。梅根·湯普森:好的,讓我們感謝史拉達的講解
。史拉達·柴可拉達:謝謝大家
。譯文為可可英語翻譯,未經授權請勿轉載!