日前,世界级的轰动人物埃隆·马斯克发了一条推特,说:
2029年是关键的一年如果那个时候我们还没有实现普遍的人工智能,我会觉得很奇怪火星上的人都一样
马斯克推出后不久,著名人工智能科学家,纽约大学心理学教授加里·f·马库斯立即写了一篇博文,为马斯克叫好他从五个方面向马斯克普及了一般人工智能的知识,并提出了他认为2029年不可能实现AGI的理由
马斯克尚未对加里·马库斯的挑战做出回应。
以下是加里·马库斯对马斯克五个角度的反驳。《AI技术评论》整理如下:
马斯克是一个说大话的预言家。
第一,马斯克对时间的预测总是不准确。
2015年,马斯克表示,距离真正的自动驾驶汽车出现还有两年时间,从那以后,他每年都会说同样的话,但真正的自动驾驶汽车还没有出现。
马斯克并不关注边缘案例的挑战
其次,马斯克应该更加关注边际情况的挑战,思考这些离群值对预测可能意味着什么。
因为长尾问题,很容易认为AI问题比实际情况简单很多我们有很多关于日常事务的数据,现在的技术很容易处理这些数据,会误导我们,给我们一个错误的印象,对于罕见事件,我们得到的数据非常少,目前的技术很难处理这些数据
我们有很多不完全信息推理的技巧,可能会克服生活中的长尾问题但长尾问题对于目前流行的人工智能技术来说是一个非常严重的问题,它更多地依赖于大数据而不是推理
2016年,在一篇题为大数据是否带我们更接近人工智能中更深层次的问题在采访中,加里·马库斯试图就此发出警告
虽然有很多关于人工智能的炒作,也有大量资金投入其中,但我认为这个领域正在朝着错误的方向发展在深度学习和大数据的具体方向上,有很多触手可及的成果人们对大数据以及它现在给他们带来的东西感到非常兴奋,但我不确定它是否会让我们更接近人工智能中更深层次的问题,例如我们如何理解语言或我们如何推理世界
想想无人驾驶汽车你会发现,总的来说,无人驾驶汽车很棒如果你把它们放在帕洛阿尔托阳光充足的地方,车辆性能会非常出色但是如果你把你的车辆放在下雪或下雨的地方,或者你从来没有见过的地方,这些车就不可避免地会出现问题史蒂文·利维写了一篇关于谷歌汽车工厂的文章在文章中,他谈到了2015年底让他们最终让系统识别树叶的研究
诚然,系统可以识别树叶,但对于不寻常的东西,它无法获得这么多数据人类可以用常识互相交流我们可以试着弄清楚这个东西是什么,它是怎么来的,但是系统能做的只是记忆东西,这是真正的极限
特斯拉自动驾驶撞上了价值300万美元的喷气式飞机。
意外情况一直是当代人工智能技术的祸害,可能一直都是,直到真正的革命出现这就是为什么马库斯保证马斯克不会在今年或明年推出L5级自动驾驶汽车
离群值并非完全不可解决,但仍然是一个主要问题,目前还没有已知的健壮解决方案马库斯认为,人们必须摆脱对深度学习等现有技术的严重依赖距离2029年还有7年七年是一段很长的时间,但如果要在这个十年结束前实现AGI,这个领域需要投资于其他想法否则,仅仅是这个异常值就足以让AGI的目标失败
通用人工智能范围很广。
马斯克需要考虑的第三件事是,AGI是一个广泛的问题,因为情报本身涉及的范围很广。马库斯在这里引用了查兹·费尔斯通和布莱恩·绍尔的话:
世界上不只有一种思维方式,因为思维不是一个整体相反,思维可以分成几个部分,它的不同部分以不同的方式发挥作用:看到颜色不同于计划一个假期,而计划一个假期不同于理解一句话,移动你的四肢,记住一些事情或感受一种情绪
例如,深度学习相当擅长识别对象,但在规划,阅读或语言理解方面很差。这种情况可以用下图来表示:
目前AI在感知的某些方面做得不错,但在其他方面还需要努力即使在感知上,3D感知仍然是一个挑战,场景理解也没有解决对于常识,推理,语言或类比等几个领域,仍然没有稳定或值得信赖的解决方案实际上,马库斯已经使用这个饼状图5年了,但AI的情况几乎没有改变
在马库斯2018年发表的文章《深度学习:批判性评价》中,他总结道:
虽然我提出了这些问题,但我认为我们不应该放弃深度学习。
相反,我们需要重新定义深度学习:深度学习不是一般的溶剂,而是一种工具除了这个工具,我们还需要锤子,扳手和钳子,更不用说凿子,钻头,电压表,逻辑探头和示波器了
四年后,很多人还是希望深度学习能成为灵丹妙药,但这对于马库斯来说仍然是不现实的,他仍然认为人类需要更多的技术实事求是地说,七年时间可能不足以发明这些工具,或者从实验室投入生产
马库斯向马斯克提出了2018年量产地狱的情况在不到十年的时间里,整合一套以前从未完全整合过的技术,要求会非常高
马库斯说,我不知道马斯克打算把擎天柱做成什么,但我可以保证,一个通用家用机器人需要的AGI远远超过一辆汽车毕竟车在路上开还是在路上开都差不多
复杂的认知系统尚未建成。
马斯克需要意识到的第四件事是,人类仍然没有一个合适的方法论来构建复杂的认知系统。
复杂的认知系统有太多移动的部分,这通常意味着制造无人驾驶汽车和其他东西的人最终会玩一场巨大的打老鼠游戏,往往刚解决一个问题,另一个问题就出现了一个又一个补丁有时会派上用场,有时却不会马库斯认为不解决方法论问题就不可能得到AGI,他认为还没有人提出任何好的建议
用深度学习进行调试是非常困难的,因为没有人真正理解它是如何工作的,也没有人知道如何修复问题,收集更多的数据和添加更多的层,等等众所周知的调试在经典编程环境中不适用,因为深度学习系统是如此无法解释,所以人们无法以同样的方式思考程序在做什么,也无法期待通常的淘汰过程相反,现在在深度学习范式中,有大量的试错,再训练和再测试,更不用说大量的数据清洗和数据增强实验等等脸书最近的一份报告坦率地说,在训练大型语言模型OPT的过程中存在许多麻烦
有时候更像是炼金术而不是科学,如下图:
这是你的机器学习系统吗。
对,你把数据倒进这堆线性代数里,然后去另一边捡答案。
答案错了怎么办。
然后把这堆东西搅起来,直到答案看起来对了。
编程验证最终可能会有帮助,但还是那句话,深度学习中没有编写可验证代码的工具如果马斯克想要赢得这场赌注,那么他们可能也必须解决这个问题,而且必须尽快解决
下注标准
马斯克最不需要考虑的是赌博的标准如果你想打赌,你必须制定基本的规则
我将AGI定义为灵活而普遍的智能,其独创性和可靠性堪比或优于人类智能。
到2029年,AI仍然无法告诉你在观看电影时到底发生了什么,它无法回答这些角色是谁,他们的冲突和动机是什么等问题。
到2029年,人工智能仍然无法阅读小说,准确回答关于情节,角色,冲突,动机等问题。
到2029年,AI仍然无法成为任何厨房的称职厨师。
到2029年,人工智能仍然无法根据自然语言规范或通过与非专业用户的交互,可靠地编写出超过10,000行的无bug代码。
到2029年,人工智能仍然无法从用自然语言编写的数学文献中任意提取证明,并将其转换成适合符号验证的符号形式。
如果马斯克在2029年成功打破至少三个预测,他就赢了,如果只有一两个被打破,就不能说AGI可以实现,而胜利者是马尔库斯。
对于这个赌注,马库斯跃跃欲试,对马斯克说:你想打赌吗赌10万美元怎么样
你怎么想呢你认为谁会赢
参考链接:
。郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。