人工智能是通过机器来_不要惧怕人工智能,而是使其安全可控

据说中世纪的哲学家和弗朗西斯科会的修士罗杰·培根制造了不知道的人工脑,包裹在人类一样的青铜头中。 故事就是这样开始的,培根利用从这个“无耻的头”中收集的见解,希望英国永远不要被征服。

培根之后,对于工程师和计算机科学家来说,长期的挑战是匹配人的智能,制作更多的硅类脑复制物。 这种雄心勃勃的志向,如果我们成功了,就可以和我们一起思考,如果我们能创造出梦想和推理的下一代计算机系统,那么我们该怎么办呢?

今天几乎没有人说“无耻的脑袋”,但人工智能似乎无处不在。 杂志和报纸的文章不断地被宣传,人们的期待和恐惧几乎同等程度地提高了。

某种形式的AI确实到处都有了。 例如,算法在我们的金融市场上进行大量的交易,开始自动驾驶汽车在街上导航,我们的智能手机已经从一种语言翻译成另一种语言。 这些系统有时比人类更快,更容易感知。 但是,到目前为止,这只适用于为系统设计的特定任务。 这是AI开发人员现在想改变的。

今天的AI先驱者中,有些人希望从“弱”和“狭”的AI世界发展起来,创造出被称为“强”和“全”的AI和一般人工智能( AGI )的AI。 从某种意义上说,今天强大的计算机使我们的大脑变小。 他们能够存储大量数据,以超快的速度处理数据,并且能够与地球上的其他计算机瞬间进行通信。 如果能够为这些设备提供更灵活运作的AGI算法,就会有很大的机会。

支持人员称,AGI可以全天候为我们工作,并可以向许多已被证明难以解决的问题提供解决方案,并且可以利用所有可用数据。 他们可能会提供有效的先驱医疗法,对防止股市崩溃和地缘政治对立起来很有帮助。 谷歌的DeepMind公司专注于AGI的开发,雄心勃勃的目标是“解决信息”。 他们的任务声明中写到“我相信,如果我们成功,这是最重要的,最广泛利益的科学领域之一取得了进步。”

自从AI诞生之初,想象力就超过了可能发生的事情。 1965年,富有想象力的数学家欧恩古德( Irving Good )是布莱奇公园二战解密团队阿伦图林的同事。 他最终预测“超智能机器……这将大大超越一切智能活动”。 这样的机器能够将巨大的智慧转化为自我改善——每次调整都会增强自己的能力,正反馈回路会迅速加速。 古德写道:“那毫无疑问,这是“智能爆炸”,人类的智慧远远被抛在后面”。

古德继续提出“最初的超智能机械”可能是“人类需要的最后的发明”。 这引起了雷克斯韦尔提出的“技术特异性”思想,超智能计算机的到来是我们历史上的一个重要转折点,之后,技术和知识能力的喷发将改变生存的各个方面。 Good为他预测“最后一项发明”增加了重要条件。 “我们会获得收益”的想法是“以机器被充分驯养为前提,教给我们控制方法”。

很多小说作品,如玛丽·雪莉的《科学怪人》( Frankenstein )和《终结者》的电影系列等,恶性强大的人工智能机器出现的可能性日益加剧。 但是,如果AI最终被证明是我们的败笔,最终就不能模仿人的行为,例如攻击性和报复性等人的动机。

相反,牛津哲学家尼克·波士顿的观点是合理的,我们认为AGI面临的最大风险不是来自于背信弃义的人类,而是来自于一切牺牲的顽固追求目标。 伯克利大学AI研究员Stuart Russell总结了这个问题的核心内容。 “比如说,“如果我希望接触到的一切都是金钱,那么如果这是你所要求的,电脑真的变得聪明了,我们就没有理由期待人们分享正义和同情心的功能。

真正的AGI前景和危险是巨大的。 但是,今天关于这些可能性的动人讨论,以我们能够构筑这些系统为前提。 并且,在和世界上最重要的AI研究者谈话之后,我们有充分的理由怀疑是否会尽快(如果有的话)看到AGI。

据罗素介绍,“除了你认识到的共同智能,还有一些算法被突破。”截止到今年年初,中国科技公司腾讯( AI )负责AI研究的张顿( Tong Zhang )表示,“MIT机器人专家Cynthia Breazeal认为,通用AI “在不久的将来,对于横断面的通用超智能,看不到任何实用的驱动器”,Beyond Limits的Mark James怀疑有人会开发真正的AGI。 他谈到“为了发展到AI的领域拥有真正的人类思考机器的地步,有必要重新考虑问题。”

毕竟,我们如何设计无法定义的东西呢? 我们从来没有真正想弄清楚自然人类的智能是什么,所以不知道工程师想要模仿什么机器。 智力不是单一的物理参数,有感情、音乐、体育、数学智力等多种智力。 剑桥大学教授、Uber首席科学家Zoubin Ghahramani同意“我不认为实际上拥有共同信息”,如果没有共同信息,就无法从合成和生物部件中构筑信息。 Ghahramani说:“我们的信息观点是“哥白尼时代前的”,走得更远。 正如地球不在太阳系的中心一样,人脑也没有表示信息的顶点。

这意味着即使模仿人脑的智能,也不一定是通向强大AGI形式的最佳途径。 正如加利福尼亚大学伯克利分校着名的AI研究者迈克尔·乔丹所指出的那样,土木工程不是通过制造人工瓦工和木匠而发展起来的,化学工程不是来源于制造人工化学家,为什么认为信息工程的最大进步应该来源于制造人工脑的努力?

相反,工程师必须使他们的想象力面向构建我们无法想象的计算机系统:应对不确定性,考虑成千上万的不同变量来计算风险,整合来自许多不同来源的大量结构不良数据。

它们不是为了摆脱日常适应性高的AI算法的威力,也不是为了忽视意外副作用和恶意应用程序带来的风险。 但是,如果有理由相信人类这种具有广义智能的机器是不可能的,那么就没有必要将关于AI的担忧消失很多的严格定义的道德规范和价值体系写入AI系统的工作中。 相反,我们的目标是控制它,对我们的需求有很高的响应性。 许多一流的研究者和思想家为了解决AI的相关问题投入了大量的时间和精力。

蜂窝认为AI系统更加安全,更强大的关键是不清楚目标或者用计算机科学术语将不确定性引入目标。 “我认为我们实际上必须从基础上重建AI。 确立的基础是优化目标的合理(如人)代理的基础。 罗素和他的团队正在开发积极学习想要达成的目标和对他们来说重要的价值的算法。 他解释了这样的系统是如何提供某种保护的。 "例如,因为不知道目标的机器可以证明关机. "

这项工作至关重要,尤其是罗素和他的合作者,不仅标志着不确定的风险,还提出了具体的解决办法和保障措施。 斯坦福大学的AI教授,原谷歌cloud Fei-Fei Li负责人斯坦福大学说:“只宣传关于AI的乌托邦是不健康的。 传授深思熟虑的信息有很多责任。 ’他说

如果关于20世纪初期物理学飞跃的唯一信息是核大决战的恐怖警告,那么我们现在对原子结构和量子力学的理解并没有什么惊人的发现。 与AI相关的风险必须保持透明度,以建设性的行动和法规来应对。

在极度乐观和极度悲观之间,AI是更加现实的未来。 在他们远远无法实现智能的东西之前,电脑会以难以深入预测的方式继续改变我们的生活和想法。 随着我们的计算机越来越智能化,人们也越来越智能化,能力越来越强。 我们需要机器的处理能力和越来越智能的见解,以应对最紧迫的全球挑战(从应对气候变化到癌症的治愈),寻求我们自身和我们在更广阔宇宙中地位的最深层问题的答案。

中世纪的炼金术师罗杰·培根( Roger Bacon )尝试过,到现在为止,工程师机械地模仿人脑的尝试以失败告终。 他们很可能永远实现不了这一雄心壮志。 然而,那次失败并不重要。 尽管当今先进的AI系统具有明显的非人性观念,但它们是我们构建的最强大的工具之一。 只要我们明智负责地运用它们,他们就会帮助我们为全人类建设更美好的未来。

大家都在看

相关专题