新闻动态
全球乱局里的AI共识:先保命,再谈钱,最后成事儿
发布日期:2025-08-01 19:20:50 点击次数:163

#图文带货训练营#全球乱局下,“凝聚合力” 听起来像理想,但其实历史上很多看似不可能的全球协作,都是从 “危机倒逼” 和 “小范围共识” 开始的。

比如当年核武器扩散风险加剧时,各国也吵了很久,但最后还是搞出了《不扩散核武器条约》;应对气候变化,从《京都议定书》到《巴黎协定》,也是在分歧中一点点找到妥协点。AI 监管可能也会走类似的路:

先抓 “最危险的共识”:比如用 AI 开发自主杀人武器、制造全球性网络攻击、伪造引发战争的虚假信息,这些威胁到所有国家的安全,哪怕平时有分歧,在 “保命” 这件事上容易先达成一致。就像现在联合国已经开始讨论禁止 AI 自主武器,这就是个小切口。

用 “利益绑定” 代替 “纯粹奉献”:发展中国家怕被规则卡住技术发展,那就可以在规则里加条款,要求科技强国向弱国共享基础 AI 安全技术;强国怕别人 “抄近路” 破坏规则,那就建立监督机制,谁违规就限制其 AI 国际合作。大家都能从协作中得点实在的,才更愿意坐下来谈。

民间先 “预热”:政府层面卡壳的时候,企业、科学家、社会组织可以先联动。比如全球 AI 实验室自愿签署安全承诺书,大学联合搞 AI 伦理研究,普通人通过舆论压力倒逼政客重视。就像当年环保运动,先从民间热起来,最后才推动全球政策。

说到底,人类从来不是 “主动团结”,而是 “被逼到份上不得不团结”。AI 的风险扩散得越快,各国就越会发现 “单打独斗保不住自己”,到时候就算再乱,也得捏着鼻子找合作的办法。这过程肯定磨人,但总比真出了大事再后悔强。

友情链接: