可信AI
在康普利尔,我们积极参与可信AI政策倡议,确保医疗健康中使用的AI系统符合最高的可靠性和透明度标准。
道德AI原则
倡导AI系统中的基本原则,包括人类监督、透明度、公平性和问责制。
AI治理模型
研究有效的治理模型,在保持道德标准和监管合规的同时允许创新。
可解释AI研究
联合研究医疗健康中使用的机器学习模型的可解释性,平衡可解释性和性能。
当前倡议
AI风险评估框架
为医疗健康AI应用的风险评估和分类框架做出贡献。
多利益相关者治理
参与关于医疗环境中AI治理、监控和评估的多利益相关者讨论。
偏见检测与缓解
专门为医疗健康AI系统定制的偏见检测和缓解方法研究。