上来就抛出王炸问题。
div css=&ot;ntentadv&ot; 霍利淡淡一笑,“国内做的最好的ai大模型,能够匹配chatgpt35。
差距很明显,如果按照时间算,落后两年左右。
不可否认,这是一段比较长的距离,我们在追赶的同时,openai也在快速更迭,甚至是以一种我们难以预测的速度。
奥特曼是我很喜欢的一位科技ceo。”
奥特曼坐在台下抬手捂胸,以示礼貌。
主持人:“有追上的可能性吗?”
霍利微笑道:“当然,因为今天我坐在了这里。”
偏头看向马斯克,“为什么马斯克邀请的不是别人?”
马斯克笑着鼓掌,“霍创造了很多商业奇迹,我同样期待他创造科技奇迹。
也许他会超过我们。”
有点捧场的味道。
现场掌声热烈。
青年人的自信还是很有魅力的。
特别是用这种幽默风趣的方式表现出来。
主持人:“我也很期待那一天。
霍,人工智能能够击败人类吗?”
霍利:“我不知道你们如何定义失败?
是指智力超过人类,还是指统治人类,甚至是消灭人类?
如果是比较智力,我想人工智能已经在多个领域击败了人类。
他就像多个高智商的个体融合在了一起,世界上很难找出和他一样聪明的人类。
如果击败是指统治和消灭人类,这个话题需要从多个纬度去思考。”
主持人:“马斯克,你同意霍的观点吗?”
“当然。”,马斯克点头,“ai最后会替代人类,人类将会以意识生存在这个世界上。
人的躯体将会被ai消灭。
ai的复杂性,已经很难用人类的大脑去思考了,也许在系统开发和算法研究上出现一个微小的错误,就会带来全球性的灾难。
人类应对风险的能力是有限的。”
霍利:“我并不希望这样的事情发生。”
主持人看向霍利,今天对话上的第一次观点碰撞诞生了。
主持人:“r霍不赞同马斯克的观点?”
霍利:“任何一个新事物的诞生,都会给人类带来恐慌,但是我们不能忽视一个重要的现象,人类的适应能力是极强的。
马斯克预估了ai最坏的结果,但是他忽略了人的主观能动性。
核武器诞生的时候,也给全人类带来过恐慌。
大国之间的核竞赛诞生了很多末日的言论。
但是最后国际社会创建了一个国际原子能结构(iaea)监管核武器,让核武器只是停留在军事威胁上。
ai也是如此,从它诞生开始,我们必须认清它带来的负面影响,包括人类的毁灭。
我相信国际社会同样能够做好对ai的监管。”
马斯克摇头道:“no!霍,人类无法监管ai,它的成长速度和变化超过了人类的预知能力。”
霍利:“人类不可以,但是ai可能。”
马斯克愣神看着霍利。
现场也突然安静。
主持人不确定道:“霍,你的意思是用ai监管ai?”
霍利点头。
所有人都露出震惊的表情。
这是一个非常新的话题。