□ 唐 浩
人工智能技术的迅猛进步正以前所未有之态势深刻重塑着人类社会的方方面面。然而,伴随日新月异的技术升级,隐私侵犯、算法偏见、决策失误等潜在风险亦日益凸显,这就要求我们重新审视并构建技术发展的伦理框架与治理体系。建设“以人为本”的人工智能治理体系,不仅是技术安全与社会和谐的保障,更是未来技术生态发展的重要方向。
尊重隐私,明确伦理底线
保护个体数据隐私权益,明确数据使用的伦理底线。党的二十届三中全会《决定》提出“建立人工智能安全监管制度”。当前,许多人工智能系统依赖于对海量个人数据的采集和分析,而用户往往难以知晓自己的信息如何被使用。部分企业在数据利用过程中无视个人权益,甚至将用户隐私作为商业化的核心资源。同时,算法的设计往往带有训练数据中的偏见,这种偏见会在自动化决策中放大,从而形成算法歧视。对此,企业和技术开发者必须严格遵循透明原则,在数据采集、存储、处理和使用的全过程中保持公开,让用户拥有知情权、选择权和删除权。法律法规应当对隐私保护设立最低标准,并规定违规行为的处罚机制。为防止算法歧视,开发者需要建立健全的数据质量审查机制,剔除偏见性数据源,同时加强模型设计的可解释性,让每一步决策都可以被追溯和理解,从而增加用户对系统的信任。
强调责任,优先公共利益
强调人工智能的社会责任,推动人工智能与人类社会伦理“价值对齐”。人工智能技术的开发者和使用者必须认识到,技术并不是中立的工具,而是深刻嵌入社会关系之中,会对社会结构、文化价值乃至个体生活方式产生持续性影响。当前,技术发展的主导逻辑是效率最大化和市场扩张,忽视了技术应用的伦理影响。部分算法被利用来吸引用户“沉迷”,无节制地推送令人上瘾的内容,对大众的心理健康造成极大冲击;另一些AI生成内容(如虚假新闻或深度伪造)则可能引发恐慌、传播偏见,甚至干扰公共决策,动摇社会的信任基础。针对这些问题,企业必须承担起更大的社会责任,在技术设计和应用过程中优先考虑公共利益。人工智能具有提高生产力、优化资源分配的潜力,如果技术被有意识地操控或限制,势必造成更严重的社会不平等,导致更为深远的负面影响。监管机构需明确技术使用的伦理边界,强制要求平台设立算法审核机制,推动“道德算法”的研究与实践,使技术在平衡利益时优先考虑人类福祉。
多方协同,推动全球治理
推动全球协作,建立多方协同的全球治理机制,从孤治走向共治。《全球人工智能治理倡议》强调:“在世界和平与发展面临多元挑战的背景下,各国应秉持共同、综合、合作、可持续的安全观,坚持发展和安全并重的原则,通过对话与合作凝聚共识,构建开放、公正、有效的治理机制,促进人工智能技术造福于人类,推动构建人类命运共同体。”目前,一些技术强国将人工智能作为国际竞争的关键手段,忽视其潜在的安全隐患,而发展中国家在技术资源和治理能力上相对薄弱,这种不平衡使全球范围内的技术应用充满风险。国际社会应尽快构建人工智能全球治理框架,就高风险技术的应用、算法透明度和军事化研发等议题达成共识,以人类福祉为核心,禁止高风险技术的滥用。技术资源丰富的国家和企业应帮助和带领技术薄弱群体分享发展红利,通过技术转移和知识分享缩小数字鸿沟,避免全球不平等加剧。在国际治理中引入多方参与机制,各国政府、国际组织、企业、研究机构、社会组织和个人等多元主体积极发挥自身作用,参与人工智能治理体系的构建和实施。
建设“以人为本”的人工智能治理体系并不是为了限制技术发展,而是为了确保技术始终在安全、透明和公平的轨道上运行。发展人工智能应坚持“以人为本”理念,以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展。
(作者单位:昆明理工大学马克思主义学院)
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)