院士称要严格控制人工智能的底层价值取向,大家觉得可以怎么做?
2024世界人工智能大会(WAIC 2024)期间,中国工程院院士,鹏城实验室主任,北京大学博雅讲席教授高文认为,如果强人工智能时代到来,可能存在三大安全风险,即模型的不可解释性、算法和硬件的不可靠性、自主意识的不可控性。
高文认为AI技术的进步需要我们思考:什么样的人工智能技术更容易被恶意使用?哪些新技术可以更好地抵御可能的攻击?哪些机构和制度的建立可以帮助我们最大限度利用人工智能的好处?同时最大限度降低安全风险?
针对这些问题,高文认为,首先,AI技术需要完善理论基础验证,并实现模型的可解释性;其次,要严格控制人工智能的底层价值取向,实现技术的标准化;在应用阶段,需要预防人为造成的人工智能安全问题,对人工智能进行动机选择。他同时指出,应对强人工智能,必须加强国际合作。