破坏力堪比切尔诺贝利:人工智能失控究竟有多可怕?

来源:华体汇平台    发布时间:2024-04-17 20:00:09

  • 规格参数

      财联社4月11日讯(编辑 马兰)人工智能的加快速度进行发展掀起了全球对技术的狂热追逐,然而在许多专家眼里,变化发生得太快可能会对世界造成灾难性的影响。

      根据美国斯坦福大学的一份年度报告,接受调查的AI领域研究人员中,很多人承认AI将变成人类社会的分水岭,但其中36%的专家觉得这项技术带来的影响未必是积极的。

      报告中指出,随着创建和部署生成式人工智能的门槛大幅度降低,人工智能的伦理问题将变得更明显。因为初创企业和大公司都在竞争开发自己的模型,这在某种程度上预示着这项技术不再由一小群参与者控制,这让监管也变得更困难。

      而谷歌和微软“军备竞赛”式的竞争,也让这个行业进入更加高速的发展车道。在另一方面,这也代表着不愿尝试的公司或个人将被AI行业迅速丢下,这样一来,所有人都被裹挟向前,别无选择。

      在斯坦福大学的调查中,57%的研究人员赞同,以目前的发展速度,大量研究正在从生成人工智能转向创造通用的人工智能(AGI)。业界认为AGI的出现需要50年或数百年,而一些人则质疑是不是真的存在真正的AGI。

      AGI本身能准确模仿甚至超越人脑能力。作为人类的创造物,人工智能反而获得超越人类的智慧,这在58%的受访问研究人员心中是一个巨大的问题。

      加州大学巴克莱分校的计算机科学教授Stuart Russell警告,不受约束的人工智能可能会带来切尔诺贝利式的灾难。

      Russell数十年来一直是AI领域的领军人物,但他也是与马斯克联合呼吁暂停开发人工智能的名人之一。

      他强调,人工智能发布者一定要保证其开发的系统能安全运作,并证明该模型符合相应的规定。就好像是建造一座核电站,建设者必须向政府证明其安全性:其不会在地震中泄漏,也不会像切尔诺贝利那样爆炸。

      Russell认为创建新的人工智能模型与生产客机和建造核电站一样,只要出现一点小问题,就会对世界产生灾难性影响。

      此外,专家们还很紧迫的担忧是,人工智能当前的研究过于关注商业化和实现目标,而牺牲了听取不同研究领域见解的时间和精力,这可能不利于解决人工智能伦理问题。

客户服务

销售热线:086-523-86841156

服务热线:086-523-85565555

服务传真:086-523-86841566

在线服务

售后服务时间:周一至周六(8:00-17:00)

QQ:335290870

官方微信

@ 华体汇平台官网入口-华体汇平台app下载 版权所有 | 网站地图