清华大学智能产业研究院院长张亚勤:将人工智能红线作为社会风险共同应对
http://www.weld21.com 2024-03-27 09:37 来源:中国新闻网

  中国发展高层论坛2024年年会于2024年3月24-25日举行。3月24日下午举行了“人工智能发展与治理专题研讨会”,清华大学智能产业研究院院长、中国工程院院士张亚勤在“小组讨论二”环节的发言中表示:各国要在全球智能领域共同合作,将人工智能红线作为社会风险共同应对。
  张亚勤简要总结了人工智能大模型的发展趋势,一是多模态、多尺度、跨模态的新智能;二是未来五年要在整个架构上有大的突破,追随尺度定律(ScalingLaw),但未必是transformer模型结构;三是智能逐渐向“人工智能手机”“人工智能PC”边缘侧延伸;四是可以实现定义任务、规划路径、自我升级、自我编码等的自主智能;五是信息式智能逐渐走向物理世界;六是大模型与生物体连结的生物智能。
  张亚勤认为,未来五年随着各大领域大规模应用人工智能技术,将带来三方面风险,包括:信息世界的风险,包含错误、虚假信息的风险;已经出现的大模型幻觉问题,随着信息智能大规模应用延伸至物理智能、生物智能时,风险也会规模化;大模型与经济体系、金融体系、军事系统、电力网络相连接的风险。

  如何防范这些风险问题,张亚勤提出五个长期建议。
  一是像标识广告一样,对人工智能生产的数字人等智能体进行标识。
  二是设立映射和注册机制。明确机器人作为从属体,必须映射到主体,这个主体可以是人或公司等法定实体,如果机器人出现问题,就可以追溯主体责任。
  三是建立分级监管体制机制。对应用在物理世界、生物系统等不同领域的大模型,分级监管。
  四是加大对大模型风险研究的投入,呼吁政府、科学家、技术从业者和企业家共同参与,一边发展,一边治理。
  五是制定人工智能发展的红线。目前北京人工智能国际安全对话已经达成了《北京AI安全国际共识》,提出人工智能发展的红线。各国要在全球智能领域共同合作,将人工智能红线作为社会风险共同应对。


页面功能 】【返回首页】【关闭
更多文章搜索:
相关文章
·人工智能推动科研创新 政策支持破解发展难题(03-26)
·全国首个智能机器人中试验证平台在“大零号湾”诞生,闵行抢跑智能机器人新赛道(03-25)
·联合国大会通过首个有关人工智能的决议(03-22)
·推进“人工智能+”落地开花主题论坛在京举行(03-18)
·“人工智能+”驶入快车道(03-14)
·进阶新引擎 “人工智能+”亟待构筑安全防线(03-12)
·开展“人工智能+”行动 这些领域有望率先“动起来”(03-11)
·2024世界人工智能大会将于7月4日至6日召开(03-08)
·代表委员热议人工智能发展:加快标准建设 厚植创新沃土(03-07)
·全国人大代表钟铮:加大智能制造支持力度,加快形成新质生产力(03-05)
热点文章 更多>>>
会员动态 更多>>>
网站动态 更多>>>
论文集锦 更多>>>
特级合作伙伴
版权所有:焊接21世纪-中国焊接器材网 技术支持:3w21.com