用於測試AI模型中測試偏差的NHS藍圖

用於測試AI模型中測試偏差的NHS藍圖
分享分享

英國國家衛生服務局(NHS)正在試用一項旨在識別和消除用於管理醫療保健係統的算法偏見的計劃。NHS人工智能(AI)倫理實驗室委托Ada Lovelace Institute開發算法影響評估(AIA)工具。該工具旨在提供算法問責機製,以支持研究人員在訪問NHS數據之前評估AI係統和算法的潛在風險和偏見。

盡管AI可以支持衛生和護理人員為人們提供更好的護理,但如果算法偏見仍然沒有解決,它也可能加劇現有的健康不平等。這項工作補充了NHS AI實驗室倫理團隊正在進行的工作,以確保用於培訓和測試AI係統的數據集多樣化和包容性。作為訪問NHS數據的條件,此迫使開發人員探索和解決其擬議的AI係統的法律,社會和道德含義。但是,這不是作為完整解決方案的目的,應由算法問責計劃(例如審計或透明度寄存器)進行補充。此外,AIA不應取代現有的監管框架,而應補充英國已經使用的監管框架。

NHS新聞稿伴隨著ADA Lovelace研究,該研究詳細介紹了在現實世界中使用AIA的逐步過程。報告中提供的AIA的一個例子是加拿大的AIA,該例子是為了管理公共部門AI交付和采購標準而創建的。

資源:英國衛生與社會護理部,,,,Ada Lovelace Institute

««歐盟采用人工智能建議


Himss 2022是3月14日至18日!»»»

發表於:2022年3月14日星期一



NHS,人工智能,偏見NHS藍圖,用於測試AI模型中的偏差

沒有意見


登錄發表評論...

突出的產品