在人工智能的奇点到来之前,你需要做什么准备?

500

自 2023 年以来,生成式人工智能一直备受关注,但人工智能的存在时间远不止于此。图片来源:Dee Karen / Shutterstock

今天恰逢国际翻译日(每年9月30日),今年的主题为:翻译,塑造可信的未来。强调翻译工作者在推动可信沟通、促进各方对话、把关人工智能生成文本和机器翻译质量方面所发挥的关键作用。

人工智能(artificial intelligence,AI)正在改变我们的生活、工作以及使用技术的方式。从虚拟助手到自动驾驶汽车,我们依赖的许多工具背后都离不开人工智能。

但并非所有人工智能都是一样的。了解不同类型的人工智能可以帮助我们理解这些系统当下可以做什么,以及它们将来可能做什么。

以下是人工智能主要类型(基于功能和能力)的划分,从过去的单一反应型,到仍存在于未来设想中的“超级智能思维”。

1. 单一反应型AI

这些是最基本的人工智能系统。单一反应型仅在当下运行,响应特定任务,而不存储过去的数据或从经验中学习。

击败加里·卡斯帕罗夫(Garry Kasparov)的IBM国际象棋程序深蓝(Deep Blue)就是一个典型的例子。它可以分析下一步行动,但没有记忆或学习能力。

2. 有限记忆型AI

有限记忆型AI系统可以从历史数据中学习,以做出更好的预测和决策。大多数现代人工智能,包括机器学习模型和深度学习应用程序,都属于这一类。

这些系统通过分析过去的数据并进行相应调整,为自动驾驶汽车、面部识别和供应链管理工具提供动力。

3. 心智型AI

从理论上讲,“心智型”AI指的是理解人类情感、信念和意图的系统。这个名字来自一个心理学概念。具体来说,这是认识到其他人有自己的想法、信念、愿望和观点,而且可能与自己不同的能力。

这种类型的人工智能需要处理人类语言、理解上下文并调整互动方式——这些能力可以增强自然语言处理并实现更像人类的对话式人工智能。

虽然研究人员正在探索“心智型”AI,但它还不是当前人工智能系统的一部分。

4. 自我意识型AI

自我意识型AI是最先进和具有思维能力的人工智能形式,它将具有知觉和自我意识。它可以体验情感,深入了解人类,并在意识到自己存在的情况下做出决定。

这种水平的通用人工智能仍然是一个科幻概念,在当前的人工智能发展中尚无法实现。

5. 狭义人工智能(弱人工智能)

500

Siri 只是众多日常 AI 应用程序之一。Piotr Swat / Shutterstock

狭义人工智能是当今最常见的人工智能类型。这些系统旨在执行特定任务,例如图像识别、语音助手或垃圾邮件过滤器。他们擅长一项功能,但不能执行超出该功能的任务。

狭义人工智能包括从 Siri 和小爱同学,到客户服务聊天机器人和推荐算法的所有种类。

6. 通用人工智能(强人工智能)

通用人工智能(AGI)旨在在广泛的任务中匹配或超越人类智能。它将能够解决复杂的问题,跨多个领域学习,并适应新的挑战。AGI 仍然是人工智能研究的主要目标,但尚未实现。

7. 超人工智能

超人工智能是指在各方面都超越人类智能的理论人工智能。它在科学研究、决策和创造力方面将优于人们。

虽然超级人工智能是推理小说和人工智能伦理辩论的中的常客,并引发了许多哲学和安全讨论,但它尚不存在。

应用和技术

人工智能技术涵盖广泛的应用:

自然语言处理:理解和生成人类语言

计算机视觉:图像和面部识别

机器学习:训练数据驱动模型

生成式人工智能:创建文本、图像或音乐等内容

预测式人工智能:利用过去的经验来预测结果

基于人工智能的系统正在深入融入日常生活,解决重复性任务并提高各行各业的生产力。

500

机器人技术有时与人工智能齐头并进。戈罗登科夫 / Shutterstock

从单一反应型AI到超人工智能的概念,人工智能经历了持续的发展。大多数人工智能仍然是狭义的、只能处理特定任务,但当下的人工智能研究正在拓宽智能机器的能力边界。

随着技术的前进,了解人工智能的类型(包括对伦理道德的影响)将成为“如何将人工智能融入社会”这个问题上,帮助人们做出明智、安全决策的关键。

什么是奇点?你应该担心吗?

500

我们还没有进入后奇点世界,但似乎现在出现具有人类水平智能(及更高)的机器比以往任何时候都更合理。图片来源:安德烈·奥努弗里延科(Andriy Onufriyenko) / 盖蒂图片社

这是科幻小说中的一个常见主题:人类在反乌托邦的未来社会中挣扎求生。科学家发现他们的机器太强大而无法控制为时已晚,他们甚至在通常被称为“奇点”的事件中结束了人类的生命。

但奇点到底是什么?这个流行的情节可能不只是存在于小说中。这个想法是哲学家、计算机科学家和莎拉·康纳(Sarah Connor)的热门话题,似乎每年都越来越可信。

定义奇点

弗诺·文奇(Vernor Vinge)在他题为“即将到来的技术奇点:如何在后人类时代生存”的文章中提出了一个有趣且可能令人恐惧的预测。他断言,人类将在 2030 年之前发展出超人的智慧。

本文具体说明了发生这种情况的四种方式:

1. 科学家可以在人工智能方面取得进步。

2. 计算机网络可能会以某种方式具有自我意识。

3. 人机交互变得十分先进,以至于人类本质上进化成一个新物种。

4. 生物科学的进步使人类能够对人类智能进行物理工程改造。

在这四种可能性中,前三种可能导致机器接管世界。虽然文奇在他的文章中谈到了所有的四种可能性,但他着重讨论了第一种可能性。

文奇的理论

计算机技术的进步速度比许多其他技术都要快。计算机的功率往往每两年左右翻一番。这一趋势与摩尔定律有关,摩尔定律指出晶体管的功率每18个月翻一番。

文奇说,按照这个速度,人类制造出一台可以像人类一样“思考”的机器只是时间问题。

但硬件只是第一步。在人工智能成为现实之前,必须有人开发软件,让机器能够分析数据、做出决策和自主行动。

如果发生这种情况,我们可以期待看到机器开始自主设计和制造更好的机器。这些新机器可以构建更快、更强大的模型。

500

像这样的机器人可能看起来很可爱,但它们会不会在策划你的末日?图片来源:Yoshikazu Tsuno/法新社(AFP)/盖蒂图片社

技术将以惊人的速度发展。机器会知道如何改进自己。人类在计算机世界中将变得过时。我们会创造出一种超人的智慧。

进步的速度比我们想象的要快。简而言之,我们将到达奇点。

接下来会发生什么?

文奇说,这是不可能知道的。世界将变得如此不同,以至于我们只能做出最疯狂的猜测。文奇承认,虽然设想的情景可能没什么用,但这个过程仍然很有趣。也许我们会生活在一个每个人的意识与计算机网络融合的世界。

或者,也许机器会为我们完成所有的任务,让我们过上奢侈的生活。但是,如果机器认为人类是多余的——或者更糟呢?当机器达到可以自我修复甚至创造更好的自己的地步时,它们是否会得出这样的结论:人类不仅是不必要的,而且是不需要的?

这似乎确实是一个可怕的场景。但文奇对未来的猜想会发生吗?有什么办法可以避免吗?

人工智能会达到那个地步吗?

机器能否取代人类成为地球上的主导力量?有些人可能会争辩说,我们已经到了这一步。毕竟,计算机使我们能够相互通信,跟踪全球市场等复杂系统,甚至控制世界上最危险的武器。

但现在,这些机器必须对人类负责。他们缺乏在编程之外做出决定或使用直觉的能力。如果没有自我意识和根据可用信息进行推断的能力,机器仍然是工具。

这种情况会持续多久?我们是否正在走向一个机器获得某种意识形式的未来?如果他们这样做了,我们会怎样?我们是否会进入一个由计算机和机器人完成所有工作并享受它们劳动成果的未来?我们会像《黑客帝国》那样变成低效的人体电池吗?或者机器会从地球上消灭人类吗?

了解人类智能和人工智能的运作逻辑可以帮助我们弄清楚这些世界末日情景发生的可能性有多大。

500

黑客帝国中的“人体电池”

是什么让人类智能与众不同?

人类智能不仅仅是像海绵一样吸收信息,我们在把所学的知识应用到现实世界中。

可以这样想:仅仅知道蛋糕的配方是不够的,你需要了解如何混合成分、在合适的温度下烘烤,以及可能调整食谱以适合您的口味。

这种对知识的实际应用是人类智力真正闪耀的地方。我们对世界的理解涉及亲身体验。想象一下第一次骑自行车的喜悦,或试图解决棘手难题的挫败感。这些经历塑造了我们的理解,并赋予了我们作为人类的独特视角。

人脑的复杂性——以我们学习、适应和体验的能力为特征——是人工智能发展的灵感来源。科学家和工程师不断突破界限,试图在机器智能中复制人脑的各个方面。但无论人工智能研究多么先进,它仍然面临着像我们一样真正体验世界的巨大挑战。

人工智能的兴起

人工智能的发展取得了令人难以置信的进步。当今的机器学习算法可以自学识别图像、做出决策,甚至在复杂的游戏中击败人类。

然而,创建一个超越人类智能的完全自主的人工智能——一个能够处理无限密度的人类思维过程并毫不费力地从一个想法过渡到另一个想法的实体——仍然遥不可及。

人类智能的复杂性带来了重大挑战。我们的大脑可以无缝地从思考晚餐吃什么到思考宇宙的奥秘。这种流动性和联想思维对于人工智能开发人员来说是难以破解的难题。人工智能的进展令人印象深刻,但距离达到通用人工智能(AGI)的水平还有很长的路要走。

从狭义人工智能到通用人工智能

AGI 就像人工智能研究的圣杯:一种与人脑的多功能性和能力相匹配的机器智能。

与专为特定任务(想想手机的语音助手或垃圾邮件过滤器)而设计的狭义人工智能 (ANI) 不同,AGI 将能够在广泛的活动中理解、学习和应用知识。

尽管一些人工智能创造者和营销人员吹嘘他们的产品正在推动我们更接近 AGI,但现实仍有待商榷。AGI 不仅仅是技术升级,这是向机器有可能复现人类能力的新时代的飞跃。

但请记住,这仍然是一项正在进行的工作,我们还没有抵达那一步。

500

深蓝计算机与国际象棋冠军大战

克服障碍实现超级人工智能(ASI)

超人工智能(ASI)比 AGI 更进一步。ASI 不仅仅能匹配人类智能,更是为了超越它,有可能带来具有超人能力的机器。(想象一下一台计算机,它比最聪明的人类更快地解决问题和创新。

一些研究人员认为,ASI 可能会在2065 年至未来 100 年之间的任何时候成为现实。

不过,想走到那一步,可不是像在公园里散步那么简单。克服人类智能的复杂性是人们遇到的第一个障碍,另一个是确保人工智能开发是负责任和道德的。我们需要创建一个系统,既能够掌控人类带来的未知奇点,又不会带来伤害或偏见。

迈向 AGI 和 ASI 的旅程充满了兴奋和谨慎。虽然可能性是无限的,但重要的是要记住,权力越大,责任越大。通往人工智能发展奇点的道路不仅意味着技术突破,更要确保这些进步造福整个人类。

此外,在我们深入研究人工智能领域时,必须权衡显著的好处和潜在的陷阱。

人工智能的好处

人工智能有可能以多种方式彻底改变我们的生活,而且它能带来的诸多益处也令人心动。

想象一下这样一个世界:人工智能会接管那些占用时间的平凡任务,例如浏览大量数据集或总结冗长的报告。这不仅可以让你专注于更具创造性和战略性的任务,还可以提高工作场所的生产力和效率。

对于雇主来说,人工智能可以改变企业盈利的游戏规则。提高生产力意味着在更短的时间内完成更多工作,而创新的人工智能解决方案可以带来新产品、服务和市场机会。

从自动化日常工作流到进行高级数据分析为人们提供更深入的见解,人工智能的潜在好处是巨大而多样的。

人工智能的危险

奇点虽然仍然是一个假设的概念,但引发了对未来的质疑。如果人工智能超越人类智能,这对人类意味着什么?我们能否控制这样的奇点,还是会受到能力远远超出我们自己的机器的摆布?

不受控制的人工智能增长的危险不仅限于工作岗位的流失。人们担心隐私、安全和人工智能决策的道德影响。如果人工智能系统的设计和管理不负责任,它们可能会使偏见长期存在或做出产生意想不到的负面后果的决策。

当我们迈向人工智能不断进步的未来时,正面应对这些挑战十分重要。负责任的人工智能开发和监管将是必要的,它能确保我们在利用人工智能的优势同时,降低相应的风险。

在创新与谨慎之间找到平衡,将是驾驭人工智能复杂格局及其对我们社会影响的关键。

500

柯洁与AlphaGo的围棋大战

专家见解和预测

几十年来,技术奇点的概念一直吸引着思想家的兴趣。20世纪初,匈牙利裔美国数学家约翰·冯·诺依曼(John von Neumann)首次讨论了这个想法。在他的设想中,未来技术进步将加速到人类无法控制的范围。

快进到本世纪,相似的想法又出现了。这次是著名的计算机科学家雷·库兹韦尔(Ray Kurzweil),他预测奇点将发生在2045年左右。库兹韦尔设想了一个人工智能以难以想象的速度自我升级的世界,以我们几乎无法理解的方式改变社会。

技术奇点来了吗?

想象一下,一个可升级的智能体进入自我完善的正反馈循环。这个想法被称为智能爆炸模型,表明这样的智能体可以迅速提高其智能,有可能立即超越人类智能。

实现这一奇点的时间表备受争议,预测最早从 2030 年到最远一个世纪后不等。当我们展望人工智能的未来时,这种不确定性增加了一层兴奋和担忧。

随着我们接近奇点的可能性越来越大,严谨的人工智能开发的重要性怎么强调都不为过。专家们越来越一致认为,我们需要一项全球条约和国际合作来建立人工智能发展的伦理原则和指南。这些措施对于减轻与人工智能奇点相关的风险至关重要。

确保人工智能造福人类并且不会导致人类灭绝等灾难性后果,这一点非常重要。通过优先考虑负责任的人工智能治理,我们可以利用人工智能的巨大潜力,同时保护我们的未来。

作者:Grant Virellan & Jonathan Strickland & Mack Hayden

翻译:7号机

审校:virens

原文链接:7 Types of AI, What They Do, and How

站务

全部专栏