新京报贝壳财经讯(记者罗一丹)随着人工智能、生命科学等前沿技术正以前所未有的速度重塑产业和生活,科技伦理作为“安全防线”的重要性日益凸显。科技创新要真正优秀,如何防范算法偏差、数据滥用、隐私泄露等伦理风险?出席北京市第十六届人民代表大会第四次会议,北京市人大代表、中国电信集团人工智能领域高级技术专家张颖提出进一步加强科技道德治理的建议。我们还结合政策实施实践和行业现状,提出完善科技治理道德体系的意见和建议。副委员张营市人民代表大会代表。供图:受访者 2025年1月,北京市八部门联合发布《关于加强科技伦理治理的实施意见(征文)》,立足国际科技创新中心定位,谋求人工智能、生物医药等领域伦理治理“北京方案”。张颖告诉新京报贝壳财经记者,《实施意见》已经实施一年了,但实际执行仍面临一些问题。他认为,当前科技伦理治理的中心问题集中在三个方面。首先,新兴技术领域的伦理审查标准不规范,审查能力参差不齐,“形式审查”现象依然存在。二是科研人员伦理意识与实践脱节,存在倾向性。“重技术、轻道德”,道德培训没有任何实际效果。一些科研人员没有接受系统的伦理培训,或者培训与实际工作脱节,忽视项目实施过程中的伦理风险,导致伦理审查滞后于技术迭代,造成全生命周期风险防范和管理的空白。三是新兴技术跨学科发展趋势,导致跨部门职责、跨区域监管难以协调,监管协调、问责难以有效。例如,在“AI+医疗”或“AI+教育”等融合场景中,监管主体分散、制度不统一,容易出现“管理多元、责任模糊”的情况,问责的震慑作用不强。螨虫。针对这些问题,张颖提出,对于人工智能、基因编辑、脑机接口等快速发展的领域,应根据整个技术生命周期建立差异化、动态的伦理审查周期。伦理意识相关培训要结合实际科研工作或科研管理工作,推动技术与伦理并重,将伦理意识与科研实践深度融合。我们将积极应对区域合作、领域融合等发展趋势,构建与这些趋势相适应的科技伦理责任机制。例如,在跨地区或跨专业的项目中,需要根据项目的具体阶段明确责任主体和合作伙伴,避免多个管理团队划分不明确。责任,同时确保项目不同阶段的负责部门在主导项目进展方面有足够的话语权。编辑:杨川,校对:刘军