2022年06月21日

|

您当前所在位置: 河南省党史方志网 > 学术研究 > 理论前沿

智能技术发展与人文关怀

来源:解放日报作者:肖峰时间:2025-02-18分享:

  人类正在进入智能时代。作为起引领和基石作用的人工智能技术,正在普遍应用于各个领域。从ChatGPT到DeepSeek,大模型技术使人工智能呈现出大智能、大应用和大参与的技术特征、功能效应与强劲态势,从而使社会逐渐走向深度而泛在的智能化。

  从智能手机到智能家居,从自动驾驶到人工智能助手,从智能医疗到智能教育,智能技术通过个性化关怀、公益服务、无障碍环境建设等多方面的应用和创新,使更多人有机会享受到新技术带来的便利,提高人们的生活质量和幸福感,促进社会的和谐。但也要看到,智能时代的技术发展又会形成新的风险、危害和挑战,形成种种负面的人文效应。

  例如,在智能时代,数据成为推动技术进步和经济发展的关键资源。随着数据收集、处理、分析能力的不断提升,个人隐私泄露的风险随之加剧。企业的数据泄露事件频发、个人信息的非法获取与滥用成为常态,不仅威胁个人的财产安全,还可能对个人的名誉、生活造成严重影响。

  又如,智能系统尤其是基于大数据、机器学习算法的系统容易受到数据偏差的影响,从而产生算法偏见。这种偏见可能体现在性别、种族、年龄等多个维度,导致系统在决策时产生不公平的结果。在招聘、信贷、司法等领域,算法偏见可能导致某些群体受到不公正对待。基于算法的决策,还可能消解对象的个性:算法推荐导致的认知茧房,可能瓦解地域文化的自然演进路径;智能翻译技术可能消解语言背后的文化独特性,导致历史文化符号被算法解构重组等。

  智能时代是人与智能机器协同工作的时代。随着人机交互深化,人与机器之间的界限将变得越来越模糊。DeepSeek这一具备逻辑推理能力的非生物体,进一步使人重新审视机器智能是否包含自我意识和理解能力,也使如何界定作为智能体之机器的责任、权利和义务成为新的伦理议题。还有,一些专家预言通用人工智能即将出现,不久的将来还会迈向超级人工智能,而超级人工智能的出现有可能超出人的驾驭能力,导致智能机器失控,甚至发生主客异位、人反过来成为智能奴仆的情况。当然,还有来自军用领域的威胁:人工智能的武器化或智能化武器,可能加快形成毁灭人类文明的能力。

  鉴于智能技术的人文风险甚至对人类生存的挑战,有必要在积极发展人工智能的同时强化对其人文效应的关注,防止工具理性全面侵蚀价值理性,保持人文思辨的优先性。可探讨建立智能技术发展的“人文防火墙”,用以民为本、技术为人和智能向善的理念关照人工智能研发应用,坚守人类共同价值之善,避免“计算主义”成为新的意识形态。

  进一步看,智能科学探索、智能技术开发主要受到好奇心、功利心的双重驱动:好奇心驱使科学家探索未知领域,如对智能本质的探寻;功利心促使工程师寻求技术的实际应用价值,关注智能技术的应用和商业化,希望通过技术创新带来经济效益。但现实中,只有好奇心、功利心是不够的,还必须有“道德心”,即对科技的人文关怀。尤其在智能技术的设计和应用中,要融入智能向善的伦理原则,确立“负责任地涌现”理念,为人工智能系统设定文化演进边界。要关注人的需求、情感和价值,尊重人的尊严、自由和权利,服务于人类的全面发展,使人工智能成为人的助手而不是对手。这意味着不仅要关注技术本身的性能和效率,还要关注其对社会的影响,通过伦理规范和价值引导,确保技术发展不偏离人类福祉的轨道。

  技术是由人在社会中建构而成的,因此不可能是中性的。本质上,人工智能系统是负载一定文化的。要达成智能向善、实现人文关怀,需参与智能技术建构的所有社会成员的协同努力,能动且积极地承担必要的责任,作出应有的贡献。其中,科学家和工程师是智能技术的研发主体,是智能向善的关键角色,需要审慎看待智能科学的新发现,对什么可做、什么不可做要有清醒判断。在充分评估的基础上,确保智能科技在实际应用中的正面效果大于潜在风险,并趋利避害地管控智能技术应用的新成果,实施负责任的研究与创新。

  在这一过程中,还有必要积极鼓励跨学科研究和交流,促进科技工作者与人文社科工作者的对话与合作,共同探索智能技术的社会责任和伦理边界,使研发者在有益的对话中扩展人文视野、培育技术伦理意识,将深厚人文关怀嵌入技术设计方案中。比如,在技术标准制定中嵌入文化多元性保护机制,构建文化基因的数字保存系统,抵御算法均质化侵蚀,在技术架构中预置人文伦理审查层,实现价值嵌入式设计,使个体的研发产品保持与人类价值的对齐。

  政府或国家是智能技术的规划与宏观管理主体。作为智能向善的监督管控者,其主要职责是通过构建完备的治理体系来建立智能技术的国家治理系统,通过合理的政策和法规来规范新技术应用,防止其被不当使用。比如,采取严格的数据保护措施,确保用户信息的安全性和隐私权不受侵犯;通过制定建立技术和产品伦理审查机制,确保新技术研发和应用符合人道主义原则,并及时发现和纠正技术发展中的偏差问题。通过政策手段引导科技向善、智能向善,就是所谓的“以善治促善智”。

  公众是智能技术的使用主体,是智能向善的主力军和实施者。新形势下,可积极考虑通过公众教育来提高大家对智能科技的认知水平,增强全民辨别能力,让人们可以理性看待科技发展带来的变化。这里面,尤其要重视提高公众对智能技术潜在风险的认识,通过科技素养的提高来减少技术误解与滥用。

  社会环境是智能技术生长和形成的土壤,是智能向善的文化根基。新形势下,要构建一个包容的社会环境,帮助那些因技术变革受到影响的人群重新找到自己的位置。为应对“机器换人”的挑战,政府和企业应当加大职业教育和技能培训投入,帮助人们掌握新技能,适应新兴岗位的需要。

  还应看到,因智能技术发展而受到伤害或者处于不利地位的人,如果不能得到妥善安排,直接成为被智能技术“排斥”的人,往往会成为排斥和阻碍智能技术的群体。要通过基于人文关怀的制度创新和工作职业创新,进一步缩小数字鸿沟,促进社会公平正义,构建和谐的社会关系。

  人文社会科学工作者也是智能技术社会建构中的重要一员。智能技术的快速发展会超出现有道德伦理和法律框架的范畴,如自动驾驶汽车在遇到紧急情况时应如何决策、类脑智能系统是否应享有与人类相似的权利和责任、谁拥有大模型所生成的知识成果的所有权等问题,引发广泛的争议和讨论,而现有的道德伦理和法律框架难以给出明确的答案。人文社会科学工作者尤其是科技伦理、科技法学研究者,应当下力气研究或建立适应智能时代特点的道德伦理、法律框架,确保技术设计和实施时兼顾人权、公平性和透明度等考虑。

  2024年,联合国大会协商一致通过中国主提的加强人工智能能力建设国际合作决议,140多国参加决议联署。这一决议倡议以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展,为全球人工智能发展与治理指明了方向。未来的时代应当是一个科技与人文并进、科技创新与人文关怀交织共生的新纪元。为了实现这一愿景,需不断探索智能技术与人文关怀相结合的新路径,发展适应智能时代的新人文范式,不断提升安全性、可靠性、可控性、公平性。

  (作者为上海大学智能哲学与文化研究院教授)

来源:《解放日报 》(2025-02-18)

责任编辑:姜静涛