|
克服我们的恐惧和避免机器人统治者 灰鸽子,灰鸽子下载
计算机科学家表示,担心不应该阻碍研究,但说话现在应该继续让人工智能的进步更加安全
有些人担心将来有一天机器人将起来,有知觉的,作为一个集体和愤怒足以推翻人类。
人工智能(人工智能),机器人将授权,是恐惧,根据物理学家和作家斯蒂芬·霍金Elon Musk和高科技企业家。
其他科学家说最可怕的事情是我们的恐惧阻碍我们的人工智能研究和技术进步缓慢。
“如果我害怕什么,我害怕人类超过机器,”尤兰达吉尔说,南加州大学的计算机科学研究教授,在美国国防部高级研究计划局最近的等等,什么?未来的技术论坛。“我担心的是,我们必须限制我们能做研究的类型。我担心恐惧导致限制我们能工作,这将意味着错失良机。”
吉尔和其他人在论坛上要讨论人工智能可能的潜在危险,并开始建立任何威胁保护数十年才得以成为现实。
会有很多讨论。普通人会在日常生活中看到更多的人工智能的进步在未来10年里比在过去50,根据特雷弗·达雷尔加利福尼亚大学的计算机科学教授。
今天,人工智能涉及人们的生活与谷歌搜索等技术,苹果的智能助理Siri和亚马逊的图书推荐。
谷歌也正在测试无人驾驶汽车,而美国军方已示威核武化的智能机器人。
虽然有些人会认为这已经是科幻的东西,它只是生活的开始充满了人工智能随着技术的临近,视觉革命的风口浪尖,自然语言处理和机器学习。
结合,与大数据分析的发展,云计算和处理能力和人工智能预计将在未来10至40年方面取得显著成就。
“我们已经看到了很多进展,但现在达到一个临界点,“达雷尔告诉计算机世界。“在5年或10年,我们会有机器越来越能够感知自己和与人沟通,并有一个基本的了解他们的环境。你可以询问你的运输设备带你去最短路线和最佳的星巴克拿铁。”
例如,今天,业主可能需要一个小群人移动她的家具。人工智能和机器人技术,10年来,房主可能家具能够理解她的声音命令,self-actuate,搬到是告诉去哪里。
这听起来一样有用,有些人会想知道人类将留在这样的智能控制和潜在的强大的机器。人类将如何维护权威和保持安全吗?
“令人担心的是,我们将失去控制的人工智能系统,”汤姆Dietterich说,教授和主任俄勒冈州立大学智能系统。“如果他们有一个错误,在对经济造成损害或人,和他们没有开关?我们需要能够保持对这些系统的控制。我们需要建立数学理论,以确保我们可以维持控制和保证安全的边界。”
一个人工智能系统可以严格控制,能保证其良好的行为呢?可能不会。
现在正在从事的一件事是如何验证,验证或给一些安全保障人工智能软件,Dietterich说。
研究人员需要关注如何抵御网络攻击在人工智能系统中,以及如何设置警报警告——人类和数字网络攻击时,他说。
Dietterich还警告说,人工智能全自动系统不应该建立。人类不想在一个位置的机器完全控制。
达雷尔附和,说研究人员需要建立冗余系统,最终让人类控制。
和机器的人”系统仍将监督发生了什么,”达雷尔说。“正如你想保护一个流氓的黑客能够突然接管世界上每辆车,开到沟里,你想拥有壁垒(人工智能系统)。你不想要一个单点故障。你需要制衡。远程控制软件”
南加州大学的吉尔补充说,弄清楚如何处理越来越多的智能系统将超越只有工程师和程序员参与开发。律师需要参与。
“当你开始有机器可以做决定和使用复杂的智能功能,我们必须要考虑责任和法律框架,”她说。“我们没有类似的,现在……我们技术人员。我们不是法律学者。这些都是双方,我们需要努力和探索。”
由于人工智能是一个技术,放大了好的和坏的,会有很多准备,Dietterich说,需要很多不同的思想领先技术的发展。
“智能软件仍然是软件,”他说。“它将包含bug和网络攻击。当我们使用人工智能技术构建软件,我们有更多的挑战。我们怎样才能使不完美的自治系统安全吗?”
而霍金和麝香都说人工智能可能导致人类的毁灭,Dietterich,吉尔和达雷尔很快指出,人工智能不是阈值的现象。
“这不是像今天他们不那么强大的人然后繁荣他们比我们更强大,”Dietterich说。“我们不会达到一个阈值,有一天醒来发现他们变得智慧超常,意识或意识”。
同时,达雷尔说,他很高兴有足够的关注提高问题的讨论。
“有危险的每一点,”他说。“完全自治的危险是科幻小说的想法,我们将控制权让给一些虚构的机器人或外星种族。有危险的决定从来没有使用的技术,然后别人赶上我们。没有简单的答案,但是没有简单的恐惧。我们不应该盲目地害怕任何东西。” |
|