俞宁   草根首页 | 设为首页 | 加入收藏
谈点想法 - 俞宁首页
人工智能技术会毁灭人类吗?
2017-04-13
字号:
    一个忽悠全人类的谎言:人工智能技术会毁灭人类

    以前在科幻电影中看到的智能机器人消灭人类的故事虽然引起人们的关注,但是绝大多数人认为那些科幻故事是为了吸引观众而编造的,至少在非常遥远的年代里都不可能出现。但是,随着美国谷歌公司旗下企业开发的人工智能围棋软件“AlphaGo”此前在人机大战中以4比1战胜了韩国的世界顶级棋手;AlphaGo的升级版Master在著名围棋对弈网站“弈城网”横空出世,通过下快棋连胜职业高手60盘。人们对计算机人工智能的进步速度感到惊讶,公众也关注在科幻电影里面的人工智能机器人给人类带来灾难的故事是不是离现实越来越近了。其实现代社会中广泛采用的智能化的自动技术已经造成了工人失业的问题。

    在现代生产发展过程中机械的采用产生了第一次工业革命;电气的运用被称为第二次工业革命;而信息产业的发展被认为是第三次工业革命;以智能制造为基础的工业革命被认为是第四次工业革命。在工业时代的开始阶段,机器只是起了动力的作用,主要用来减轻人工劳动的体力需求。在生产过程中还需要工人直接操作机器来完成工作。在工业化的历史上,即使是很初步的机械生产对手工业生产带来了极大的冲击也会引发社会的改变。第一次工业革命的发生地——英国就发生过手工业工人销毁蒸汽机带动的纺织机的的运动。但是,机器生产带来的生产力的极大提高,全体社会成员都从生产力的发展中大大提高了生活质量。所以机械化生产最终成为社会的主要生产方式,包括了工业生产和农业生产;甚至一些日常生活的服务工作也大量采用机械,比如洗衣机、空调等等。

    自动化机器的应用,使得一些比较复杂的工作也可以由机器来完成。以智能制造为基础的第四次工业革命已经使得在一些自动化生产车间需要人工的岗位越来越少了。所以,有不少人认为,机器人上岗则会造成大量的工人失业,机器人直接夺走了工人的饭碗。而且随着机器人技术的成熟和广泛应用,这种趋势还在逐步扩大化。

    据华盛顿邮报报道,一份美国白宫发布的报告指出,人工智能技术的普及有可能在美国导致数以百万的人失去工作,特别是受教育程度较低的工人。但人工智能技术对生产力的增长又至关重要。人工智能技术指导下的机器人的采用,对生产质量、生产效率、节约成本等关键指标的提高都有极大的好处。这可能导致更高的平均工资和更短的工作时间。在最后报告得出的结论是:我们的经济实际上需要更多的人工智能,而非更少。为了调和人工智能技术带来的好处和负面作用,报告指出美国政府应该一方面加强技术领域的教育,另一方面要扩大失业福利的范围,以支持这些因经济转型而失业的人。

    由此可以知道,人工智能技术的普及可以大大地提高社会生产力,可以创造更多的社会财富,可以提高生活质量。工人失业,生活水平下降,其实是社会财富分配方式不能适应生产方式的改变的反映。一些工人可以通过技术培训、再教育而走上新的工作岗位。人工智能技术带来的更高的生产效率,产生更多的社会财富,可以带来更高的平均工资和更短的工作时间、更加广泛的失业福利,这些都是这种转型的基础。很多国家的有效力的政府都已经认识到这个问题,并且主动地采取了广泛的措施来开展这项转型工作。 所以智能化的自动技术造成工人失业的问题是一个社会问题,而不是技术问题。从这个角度来看,人工智能技术的广泛采用不仅会对生产的发展带来革命,而且也会推动社会的发展。

    再来看看更加高级的人工智能技术的发展会不会对人类带来威胁?人工智能按照其智力水平可以分成三大类:

    弱人工智能Artificial Narrow Intelligence (ANI): 弱人工智能是擅长于单个方面技能的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要让它解决其它方面的问题,它可能需要重新学习积累知识,重新研究策略。

    强人工智能Artificial General Intelligence (AGI): 人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。

    超人工智能Artificial Superintelligence (ASI): 牛津哲学家,知名人工智能思想家Nick Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。超人工智能也正是人们对人工智能会毁灭人类这个话题这么火热的缘故。

    强人工智能和超人工智能除了要模拟人类的理性思考能力(比如计算、逻辑分析、推理等)以外,还需要学会人类的感性思维技能(比如联想、感情、顿悟等)。对于感性思维技能方面运行机制和计算原理,目前几乎是一无所知。所以能否用现在的电子计算机实现强人工智能和超人工智能的可能性现在还是一个未知数。超强人工智能技术和超强人工智能的具体实现还有很大的差距。目前人类认识到的再高级的智能机器人也只不过是一些电子设备,它们在某些方面的技术功能可能大大超过人类,但是再复杂的设备也不可能具有违背自然规律的特性。人工智能机器要够完成强人工智能,甚至超人工智能必须要有比人脑更加合理(合乎自然规律)的机构和运行机制。可以说使用现在的简单电子元件的运行为基础的电子计算机要达到人类的智力水平可能需要把全部地球的物质用完还不够,或者需要消耗地球上(甚至全宇宙的)无法支持的能量。所以强人工智能和超人工智能的实现可能不是什么机器人了,而是人类自己的进化。当人类充分认识自己的进化规律以后,发展出更加进化的人类。所以那个进化并不是人类的毁灭,而是新的更加进化的人类会被人类自己的努力而更加快速地发展起来。

    对于人工智能技术的控制问题我们可以回顾一下核武器的发展过程。二次世界大战中,人们为了赢得战争胜利发展了核武器。它的巨大的杀伤力引起世界人民的广泛关注,所以世界各国高度重视核武器的管理和控制。目前虽然世界上已经有足够毁灭人类好多次的核武器,但是没有人敢于轻易地使用它。这些核武器成为那些拥有核武器的国家之间平衡的威慑力量,使他们不能够轻易发动大规模战争。可以说核武器从一种战争武器,成为一种制止大规模战争的特殊力量。人类制造出了核武器,那么必须能够有效地控制核武器的使用,人类才能够在这个地球上共同生存下去。

    与核武器类似,高级人工智能技术可能具有毁灭人类的能力。但是再高级的人工智能技术也是人类发展出来的一种技术,所以人类在开发这种技术的同时,也会发展出控制这种技术的能力。就好比人们不会去做一辆没有刹车的汽车,即使是它可能具有非常高超的人工智能的自动驾驶功能。目前人类生产的各种机器,比人类具有更强大的力量,跑的更快,飞得更高,当它们失控的时候的确会带来灾难,甚至伤害一些人的性命。但是它们是不可能战胜人类的。

    舆论所指的高级人工智能可能会对人类造成伤害的一个主要因素是生物的生存原则。的确中自然界经过长期进化而生存下来的生物,当然包括人类,生存是基因能够延续的一项基本原则。但是被人为地制造出来的人工智能机器人,就不应该让它具有这个为了自己生存而伤害人类的规则,而应该具有为了人类可以牺牲自己的“社会性”原则。科幻作家阿西莫夫在1940年就提出了著名的机器人三原则,就是为保护人类的对机器人做出的规定。第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。这说明人类在发展人工智能技术的开始就已经注意到这个问题。

    那么相信当技术发展到可以制造高级人工智能机器人的时候,人类一定有办法控制机器人不会对人类产生伤害。对于可以自我复制的机器人,也一定有办法在需要的时候可以控制它的复制过程。不会让它们无限制地自我复制而威胁到人类的安全。倒是要防止人类中的不法分子利用人工智能技术以危害人类的恶性目的来制造战争机器人。

    所以可能毁灭人类的不是人工智能机器人,而可能是人类自己的恶性。随着科技的发展,人类社会也必须更加和谐地发展。特别是对于人的社会性的培养和维护也要能够适应社会生产力发展的步伐,不要使得人类自己制造的为人类服务的高级人工智能机器人成为能够危害人类自己的东西。那些科幻故事中智能机器人伤害人类的故事的确给人类以提醒,在开发那些智能机器人的时候应该充分注意采取足够的措施,包括赋予那些高级智能机器人足够的“社会性”特性,以及对这些机器人具有足够强的控制能力。

    有些人担心因为高级智能机器人具有自己学习和进化能力,所以可能会自发地生产出一些对人类不利的,不可控制的特性。但是,不要忘记:机器人是人创造出来的。人类就是它们的“上帝”。那么除非有人故意在智能机器人中植入了与人类为敌的程序,否则机器人无论怎么学习,如何进化也不会产生与“上帝”为敌的特性。

    “人工智能技术会毁灭人类”是一个忽悠全人类的谎言,可能是因为对人工智能技术的不够了解而产生的误识;也可能是某些恶性人员企图掩饰他们利用人工智能技术来实现的阴谋而是散布的舆论。与管理控制核武器类似,人类只要认真对待技术发展的失控,就可以很好地发展人工智能技术来为人类自身的发展服务。但是人类自身的恶的特性而“教坏”机器人才是应该加以大力防范的问题,就如防止核武器扩散到坏人手中一样。只要人类坚持正确的社会发展道路,在各种先进的科学技术的支持下,人类社会生产力的极大发展,会大大加快社会的进步,使得全人类可以有一个更加美好的生活。我对于人工智能技术的发展持乐观态度,更加不会去担心人工智能技术会毁灭人类。

所有文章只代表作者观点,与本站立场无关!
  • 并不遥远,业内人士预测是10年、20年不等,也就下一代人的事情。对待危机,“随遇而安”的想法很多人都表示过,我觉得这跟自杀倾向没区别。

    举个栗子,就说南京大屠杀前夕南京城里那30万冤魂就是这么想当然的: 日本鬼子也是人,应该不会对顺民怎么样?万一被杀了,那只能说明运气不好、命里当绝;中国万一亡国灭种了,只能说明自己是劣等的......反正就是自己给自己不作为找一堆理由证明应该坐那里等死,直到死到临头了才后悔。宿命论除了害人害己,没有什么新鲜玩意。人的命运是由当前的行为决定的,南京30万军民的不作为导致了被屠,狼牙山五壮士的抗争导致了一半人的存活。我们面对不确定的未来,现在怎么做决定了将来我们是被屠还是生存繁衍。

    只有共产主义制度才能有效驾驭人工智能和机器人技术,人类可以和新生的机器人和谐共处,共同开发宇宙无尽的资源;而资本主义制度无法驾驭新技术,人工智能机器人只会成为资本家消灭无产阶级和“垃圾人口”的工具,最终带有“自私”编码的人工智能机器人会把资本家这种垃圾也消灭掉。历史留给无产阶级的时间窗口不多了,绝不是杞人忧天。
    2017/4/15 11:02:52
  • 机器人是机器,不是人。是一种人形机器。它的智慧就是人类的智慧。至于会不会毁灭人类,根据马克思主义的原理,任何事物都有它的产生,发展和消灭的过程,人类也不例外。根据达尔文的生物进化的原理。人类的消灭,只能在人类的基础上,发展出更高级的动物来取代人类。到那时人类才会消灭。不管这个结果似乎还很遥远。所以,关于机器人的智慧,现在还受着人的操纵,而它如何能够操纵人类。还是一个遥远的问题。大家不要杞人忧天。
    2017/4/15 3:12:20
  • 1、阿西莫夫的机器人三定律放在社会大环境背景下看就是个笑话,现在最精巧高端的机器人就是“军用杀人”机器人。

    2、人类有什么特殊能力是机器人和人工智能无法山寨模仿的?  所谓自我意识和创造力不过是随机性的数学表现,当高级人工智能可以随机设计目标,随机选择自我进化之路,人类还怎么控制它们,恐怕连理解它们都很困难。

    3、现在是人工智能拼命模仿人类,理解人类,未来是人类拼命模仿人工智能,理解人工智能。只不过前者的奇点10年内就可以达到,后者的目标只会越来越远!
    2017/4/14 10:59:01
  • 机器杀人有主动杀人和过失杀人,有直接杀人和间接杀人。
    在良莠不齐的社会里,只有你想不到的,没有机器做不到的,就像一个熟练的司机小心翼翼地开着车,依然在车祸中身亡一样!你技术高切遵守交规不等于别人也技术娴熟也能遵守交规。
    群体的社会还未进入共产主义时代,机器代替了人,人就可能失业,失去生存的空间,目前机器就在杀人,看看中国的基尼系数,你还是无动于衷的话,恐怕这个世界已经不可救药了。
    在人类的世界观没有改造好之前,人工智能就是毁灭人类的吹化剂!
    2017/4/14 9:35:15
  • 只要在军工技术上,加强安全管理。
    人工智能再如何发展,也是安全的。
    你家里的智能,能攻打坦克吗?不要空想了,大家想多了。
    2017/4/14 8:17:00
  • 第一次看到智能机器要杀主人,是在美国电影《太空漫游2001年》。
    由于太空船要进行极长途的旅程,人类需要冬眠,由智能机器照顾人类的生活,但智能机器一个一个杀死船上的人。最后一个人发觉不对,就到电脑室把电路板一片一片拔出,智能机器不断哀求,但最后死亡了。
    如果现在遍及全球的互联网信息空间产生具有自我意识的智能体,人类根本不会知道它们在那里?
    它们能够通过互联网控制人类为它们服务。
    2017/4/13 17:56:08
  • 失业问题困扰着世界各国.失业产生贫困,贫困是社会不稳定因素.恐怖主义,其中一个因素就是贫困,被迫造反.在人类还未基本解决失业问题,便恩考大量制造机器人,用机噐人代替人劳动,无疑是一种不现实的想法.
    2017/4/13 17:45:13
  • 知道什么叫机器学习吗?现在的人工智能技术已经不受控于人类了,它自我学习,越来越不需要人工干预,围棋事件中机器发明的棋谱让九段高手们匪夷所思,闻所未闻。不远的将来,人工智能的知识库全面超过人类,你觉得一个三岁小孩能够长期控制成年人吗?
    目前机器人技术还有缺陷,机器人还不会自我修复,自我组装,人工智能还依赖于传统电脑,我们还能拉闸断电。将来云计算以后人工智能的主机遍布全世界,你想拉闸断电是不可能的。
    2017/4/13 17:01:06
  • 未来若局部人工智能失控,就象人类某种病毒流行,计算机系统也有计算机“病毒”。
    2017/4/13 16:27:29
  • 病毒,就是一种介于生物与非生物之间的物种。
    2017/4/13 16:20:05
  • 既然叫“人工智能”自然受制于“人工”。这个不担心。较之担心的是“生物基因”。
    2017/4/13 16:15:35
  • 从哲学上讲,人工智能也不能毁灭人类。马克思说过,“批判的武器当然不能代替武器的批判,物质力量只能用物质力量来摧毁。”人工智能能挑战(批判)人类的思维或精神,但不能消灭作为物质力量的人类本身。能毁灭人类的只可能是物质力量,不可能是像人工智能这样的精神力量。当然,精神力量也能转变成物质力量,但这个转变过程恰恰要通过人类对精神力量的接受。而人类只要知道人工智能要消灭人类,就不可能接受这样邪恶的精神力量,因而这样邪恶的精神力量就不可能转换为毁灭人类所必需的物质力量。
    2017/4/13 15:01:53
评分与评论 真差 一般 值得一看 不错 太棒了
姓名 
联系方式
  评论员用户名 密码 注册为评论员
   发贴后,本网站会记录您的IP地址。请注意,根据我国法律,网站会将有关您的发帖内容、发帖时间以及您发帖时的IP地址的记录保留至少60天,并且只要接到合法请求,即会将这类信息提供给有
关机构。详细使用条款>>
草根简介


1968年本科毕业于华中工学院(现华中科技大学),1981年研究生毕业于武汉水利电力大学(现武汉大学电气学院)。长期从事高校教学工作。2007年退休。个人邮箱:nyu46@126.com
最新评论 更多>>

最新文章 更多>>
关于我们  联系我们:QQ513460486 邮箱:icaogen@126.com
CopyRight © 2006-2013 www.caogen.com All Rights Reserved 浙ICP备11047994号