近年来,以生成式人工智能为代表的新技术迅猛发展,深刻重塑着各行各业的基本范式。在药品监管这一关乎公众生命健康的特殊领域,人工智能技术的引入在提升审评审批、日常监管、服务公众与辅助决策效能的同时,也因其技术的复杂性与不确定性带来了独特的伦理挑战。本研究系统梳理了人工智能在药品监管中的典型应用场景,并深入剖析了其可能引发的内生风险(如算法偏见与内容幻觉)、应用风险(如模型安全漏洞与数据隐私泄露)以及衍生风险(如责任主体模糊与监管公信力受损)。通过借鉴世界卫生组织、联合国教科文组织、欧盟等主要国际组织与其他监管机构的治理经验,结合我国实际,构建了覆盖“理念-规范-治理-能力”4个层次的综合性人工智能伦理治理体系。该体系主张在理念层确立以人民健康为中心、发展与安全并重的价值导向;在规范层推动科技伦理与医学伦理要求的协同融合,并制定专门的技术标准;在治理层建立基于风险的全生命周期监管机制,确保可追溯性与问责制;在能力层着力打造复合型人才队伍与技术支持平台。通过该伦理体系的建立与完善,为推动人工智能在我国药品监管领域实现稳健、负责任的应用提供理论支撑与实践框架,从而切实保障公众用药安全与健康权益。