霍金认为人类无法与人工智能竞争,最终被超越,你是否认可这个观点?
生命最后几年,霍金将大量的精力投入到对人工智能的关注中,他一再指出,人工智能科技在初级发展阶段的确为人类生活带来便利,但是,机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。科学界把这种人工智能超越人类智慧的转折点命名为“奇点”。
但是个人认为,人工智能的发展是可控的,人之所以与人工智能不同,是在于我们有独立的意识以及丰富的情感,这是人工智能所不能拥有的,人工智能作为一种新的科技,是为了提高我们的生活和工作的质量和效率,不应该处于悲观的态度。
大家认为呢?
但是个人认为,人工智能的发展是可控的,人之所以与人工智能不同,是在于我们有独立的意识以及丰富的情感,这是人工智能所不能拥有的,人工智能作为一种新的科技,是为了提高我们的生活和工作的质量和效率,不应该处于悲观的态度。
大家认为呢?
没有找到相关结果
已邀请:
6 个回复
匿名用户
赞同来自: 龟派气功
1 人工智能发现速度可怕,远超想象,前有阿尔法狗,再有阿尔法元,现有智能自编程技术。仅仅才两三年,对比十年前的生活和现在,这个变化速度可是古时上千年才可达。一切皆有可能。
2 人的贪婪和惰性会反噬自己。无法克制人性中的恶,受金钱,权利等利益和懒惰的驱动,很可能赋予人工智能不可控的能力。就像人类一直做的,为了利益,做了很多伤害地球最终伤及自身的事儿。
比如可能有高科技公司,为了强占市场(钱),制造出西部世界。比如,有高反份子,违背道德,制造出反人类智能大军,人类战斗力不如智能军队而成奴隶。(有人说拔电池,请问太阳能怎么拔?你没近身就被弄死了怎么拔?人工智能控制网络和通信等成一体作战,人类如散沙怎么赢?)
人类和人工智能对决就是人类和科技的对决,想想二战。人的生物属性决定各种天花板。
3 可能人工智能开始与人和平共处,突然有一天意识到,有了人工智能工作后,人类不生产只消耗资源,没有存在的意义,是地球毒瘤,为了他们的延续,决定消灭人类。
只要人工智能发展到一定程度,就存在各种风险,根据墨菲定律,一定会发生。
所以个人觉得人类呀,警醒一点,不要太自负终害己。
胖熊貓 - 没有人不爱惜他的生命,但很少人珍视他的时间
赞同来自:
人的思维、意识、情感对与未来的人工智能来说并不是什么独特的东西。
我个人持开放观点。
男儿当自强 - 天空飘来一朵云,那都不是事
赞同来自:
以下有三点论据:
1.从生命和学习周期来看,一个人:婴儿期(未知)——成熟期(学习,已知)——衰退期(遗忘)——死亡(遗留);AI:发布(学习)——成熟期(学习)——衰退期(学习)——完成一次部件迭代(学习)。人的生命周期和学习周期是跟不上AI的。
2.从技术发展来看,人脑研究终会突破,AI的芯片数级终会超越人脑神经元数级。
3.从物种进化来看,人的进化速度相比AI过于漫长,在后期竞争中,“一山不容二虎”,人类与AI平起平坐的在金字塔顶端的可能性极低。人类因贪婪的人性灭亡,或成为二等生物。最终AI将以新的“生物”形式处于金字塔顶端。
玉林 - 摔倒了爬起来就好。
赞同来自:
我想从另一个角度讨论一下这个问题。
一个人,一条狗。
人是地球上最高级的物种,狗相对低级。与人相比,狗少了什么呢?情感?思维?
然而类似忠犬八公的故事我们应该也听过不少吧。这又如何解释呢?是否是在与人类的相处过程中,狗也有了情感,也学会了思考呢?
回到人工智能本身。人工智能如何产生的呢?智能音箱,扫地机器人,智能语音等等都是人类创造的,但上述说的这些只是人工智能的载体,核心还是其背后的运行逻辑以及代码。和人类相对,这些载体可以更合理有效的解决问题,甚至在某些岗位代替人类;但是其少了情感和自助思考的能力。
但随着时间的发展,个人认为这些智能物种是有可能被人类赋予或者培养出感情以及自助思考能力。就比如人的声音可以被赋予他们,那么各种场景下所应该出现的反应,表情、动作等等也是可以被赋予的。
我们需要警惕的是,不能把创造的能力赋予他们,假设一个机器人被赋予了创造能力,比如写代码,那么他们可能会自我创造。
本来人工智能就是为了弥补人类不足或惰性而创造出来的,当他们可以自我创造的时候,人类岂不危矣?
龟派气功 - 执子之手,与子偕老
赞同来自:
梦丢丢
赞同来自:
实践是检验真理的唯一标准。
当然单独就命题来讨论的话。
我个人认为人类是有可能被超越的。
虽然人和机械的区别是意识。
但是人最早的意识是如何觉醒的呢,我们自身好像都无法回答。
我的观念是人工智能肯定是会超越人脑的。
但是,人工智能应该是可控的,万物遵循一个道字。如果人工智能失控了,毁灭了人类,那也是道,只不过不是以人为中心的道。