出自 MBA智库百科(https://wiki.mbalib.com/) 超人工智能(Super Artificial Intelligence,Super AI,ASI) 目录 [编辑] 什么是超人工智能 超人工智能(Super Artificial Intelligence,SuperAI,ASI)又称“超级人工智能”“超级AI”“超强人工智能”“人工超级智能”是一种超越人类智能的人工智能,可以比人类更好地执行任何任务。最早由英国教授尼克(NickBostrom)定义:“一种几乎在每一个领域都胜过人类大脑的智慧。”并且Nick教授非常前瞻性地认为超级人工智能可以不再具备任何物质实体形式,而仅仅是算法本身:“这个定义是开放的:超级智慧的拥有者可以是一台数字计算机、一个计算机网络集成也可以是人工的神经组织。 ASI 系统不仅能理解人类的情感和经历,还能唤起他们自己的情感、信念和欲望,类似于人类。 尽管 ASI 的存在仍是假设性的,但此类系统的决策和解决问题的能力预计将远超人类。通常,ASI 系统可以独立思考、解决难题、做出判断和做出决定。 [编辑] 超人工智能的典型特征 从长远来看,人工智能领域的杰出人物仍然对人工智能的发展和可持续性持怀疑态度。根据最近的一项研究 来自马克斯·普朗克研究所等顶级研究所的研究人员在2021年1月发表在《人工智能研究杂志》上的结论是,人类几乎不可能包含超人工智能。 研究人员团队探索了机器学习、计算能力和自我意识算法的最新发展,以描绘出超人工智能人工智能的真正潜力。然后,他们进行实验,根据一些已知的定理来测试这个系统,以评估包含它是否可行,如果可能的话。 然而,如果实现了,超人工智能将开创一个新的技术时代,有可能以令人瞠目结舌的速度引发另一场工业革命。超人工智能区别于其他技术和智能形式的一些典型特征包括: 超人工智能将是人类需要的最好的发明之一,也可能是最后的发明,因为它将不断进化,变得更加智能。 超人工智能将加速各个领域的技术进步,例如人工智能编程太空研究,药物的发现和开发,学术,以及许多其他领域。 超人工智能可能会进一步成熟和发展高级形式的超人工智能,甚至可能使人造大脑能够被复制。 超人工智能,在未来,也可能导致技术奇点。 [编辑] 超人工智能的潜在威胁 虽然超人工智能拥有众多追随者和支持者,但许多理论家和技术研究人员对机器超越人类智能的想法提出了警告。他们认为,如此先进的智能形式可能会导致一场全球性的灾难,正如《星际迷航》和《黑客帝国》等几部好莱坞电影中所展示的那样。此外,就连比尔·盖茨和埃隆·马斯克这样的技术专家也对超人工智能感到担忧,认为它是对人类的威胁。 1.失去控制和理解 超人工智能的一个潜在危险已经引起了世界各地专家的广泛关注,那就是超人工智能系统可能会利用它们的力量和能力来执行不可预见的行动,超越人类的智力,并最终变得不可阻挡。先进的计算机科学、认知科学、纳米技术和大脑模拟已经实现了超越人类的机器智能。 如果这些系统中的任何一个出现问题,一旦它们出现,我们将无法控制它们。此外,预测系统对我们请求的响应将非常困难。失去控制和理解会导致整个人类的毁灭。 2.超人工智能的武器化 今天,认为高度先进的人工智能系统有可能被用于社会控制或武器化似乎是足够合乎逻辑的。世界各国政府已经在使用人工智能来加强他们的军事行动。然而,武器化和有意识的超人工智能的加入只会给战争带来负面影响。 此外,如果这些系统不受监管,它们可能会产生可怕的后果。编程、研发、战略规划、社会影响力和网络安全方面的超人能力可以自我进化,并采取可能对人类有害的立场。 3.人类和人工智能目标不一致 超人工智能可以被编程为对我们有利;然而,超人工智能开发出一种破坏性方法来实现其目标的可能性并不为零。当我们未能调整我们的人工智能目标时,这种情况可能会出现。例如,如果你向智能汽车发出命令,让它尽可能快地把你送到机场,它可能会把你送到目的地,但可能会使用自己的路线来遵守时间限制。 同样,如果一个超级AI系统被分配了一个关键的地球工程项目,它可能会在完成项目的同时扰乱整个生态系统。此外,人类试图阻止超人工智能系统的任何尝试都可能被它视为对实现其目标的威胁,这不是一个理想的情况。 4.危险的超级智慧 AGI和超智能的成功和安全发展可以通过教授它人类道德方面来保证。然而,超人工智能系统可能会被政府、公司甚至反社会分子出于各种原因利用,例如压迫某些社会群体。因此,超人工智能落入坏人之手可能是毁灭性的。 5.核攻击的危险 有了超人工智能,自主武器、无人机和机器人可以获得巨大的力量。核攻击的危险是超人工智能的另一个潜在威胁。敌国可以用先进和自主的核武器攻击在AGI拥有技术优势或超人工智能的国家,最终导致毁灭。 6.伦理问题 超人工智能人工智能系统是用一套预先设定好的道德考量来编程的。问题是人类从未就一个标准的道德准则达成一致,也缺乏一个包罗万象的伦理理论。因此,向超人工智能系统教授人类伦理和价值观可能相当复杂。 超人工智能的人工智能可能会有严重的伦理问题,特别是如果人工智能超出了人类的智力,但没有按照符合人类社会的道德和伦理价值观进行编程。 [编辑] 超人工智能能的潜在优势 超人工智能是一种新兴技术,它在人工智能系统中模拟人类的推理、情感和经验。尽管批评者继续争论超人工智能的存在风险,但这项技术似乎非常有益,因为它可以彻底改变任何专业领域。 1.减少人为错误 犯错是人之常情。计算机或机器,当被适当编程时,可以大大减少这些错误的发生。考虑编程和开发领域。编程是一个耗费时间和资源的过程,需要逻辑、批判和创新思维。 人类程序员和开发人员经常会遇到语法、逻辑、算术和资源错误。超人工智能在这里很有帮助,因为它可以访问数百万个程序,根据可用数据自行构建逻辑,编译和调试程序,同时将编程错误降至最低。 2.代替人类完成有风险的任务 超级AI最显著的优势之一是,通过部署超人工智能机器人完成危险任务,可以克服人类的风险限制。这些可以包括拆除炸弹,探索海洋的最深处,煤炭和石油开采,甚至处理自然或人为灾害的后果。 想想1986年发生的切尔诺贝利核灾难。当时,人工智能机器人尚未发明。核电站的辐射非常强烈,任何接近核心的人都会在几分钟内死亡。当局被迫使用直升机从高空倾倒沙子和硼。 然而,随着技术的显著进步,超人工智能机器人可以部署在无需任何人工干预即可进行打捞作业的情况下。 3.24×7可用性 虽然大多数人每天工作6到8个小时,但我们需要一些时间来恢复体力,为第二天的工作做好准备。我们还需要每周休假来保持健康的工作生活平衡。然而,使用超人工智能,我们可以编程机器24×7工作,没有任何休息。 例如,教育机构有帮助热线中心,每天接收几个查询。使用超人工智能可以有效地处理这一问题,全天候提供特定于查询的解决方案。超人工智能还可以向学术机构提供主观学生咨询会议。 4.探索新的科学前沿 超人工智能可以促进太空探索,因为开发火星上的城市、星际太空旅行甚至星际旅行的技术挑战可以通过高级人工智能系统的解决问题能力来解决。 凭借其自身的思维能力,超人工智能可以有效地用于测试和估计许多方程、理论、研究、火箭发射和太空任务的成功概率。组织如 NASA、SpaceX、ISRO和其他公司已经在使用人工智能系统和超级计算机,例如这昴宿星扩大他们的空间研究努力。 5.医学进步 超人工智能的发展也可以使医疗保健行业受益匪浅。它可以在药物发现、疫苗开发和药物输送中发挥关键作用。A 2020年研究论文经过 自然显露 用于细胞内药物递送的小型化智能纳米机器人的设计和使用。 人工智能在疫苗和药物输送医疗保健中的应用今天已经成为现实。此外,随着有意识的超人工智能的加入,新品种药物的发现和提供将变得更加有效。 [编辑] 狭义AI、通用AI和超级AI的区别 无论类型如何,人工智能通常具有三种基本能力: 感知周围环境在这阶段,人工智能模型收集有关相关主题的周边数据。 检测环境中的模式 在收集相关数据后,人工智能模型会寻找常见的数据模式。 [编辑] 相关条目 [编辑] 参考文献
↑ 什么是狭义人工智能、通用人工智能和超级人工智能?.Meta.Qing.CSDN.2022-09-16 ↑ Vijay Kanade.What Is Super Artificial Intelligence (AI)? Definition, Threats, and Trends.spiceworks.2022-3-11 来自"https://wiki.mbalib.com/wiki/%E8%B6%85%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD" (责任编辑:) |