机器人会取代人类吗
答案:6 悬赏:20 手机版
解决时间 2021-03-23 22:13
- 提问者网友:黑米和小志
- 2021-03-23 12:54
机器人会取代人类吗
最佳答案
- 五星知识达人网友:山君与见山
- 2021-03-23 14:29
德国人工智能研究中心首席执行官沃尔夫冈博士认为:“即使是在工业4.0时代,我们的工厂里也不会空无一人”。因为将有越来越多的岗位要求能对联网的机器进行编程和维护,并且在机器发生故障时,能够马上维修使之恢复正常。除了编程还要能解读复杂数据,与管理人员组成团队,协同工作。
因为未来员工的职责将从简单的执行层面转为更加复杂而重要的控制、操作和规划等多个层面。传统的蓝领劳作不再重要,而再加工、维护和系统维修等工作变得重要。
此外,“未来员工”还将使用和处理许多全新的用户界面。现在人们通常用红、绿、黄三色指示灯显示机器的工作状态;而未来,无处不在的传感器将在智能手机或平板电脑的显示器上迅速而详尽地展示出画面信息,或在智能眼镜的镜片上显示出信息。每个人都将参与到解决问题的流程中,整个流程成了一个有机整体:人和人、人和机器、机器和机器,彼此协调,谁也离不开谁,因此,“未来员工”必须能全部通晓这些知识!
因此,这场由“机器人崛起”带来的工业大变革,对“人”的素质提出了更高的要求,雇佣高素质员工将成为未来公司实现成功和盈利的单一决定因素!未来不会再有蓝领,从现在开始,我们每个人就必须有危机感和紧迫感,一定要加紧学习!
在未来,“机器人”虽然会大行其道,但是只要人类不停止自己前进的脚步,把创新和发明当成一种信仰,只那么世界的决策权就依然在我们手里!
如果说“机器人”的使命是取代人类,那么人类的使命就是取代上帝。因为人类已经开始创造“创造者”!“机器人”创造现在,人类则创造未来!没错,工业4.0就是人类在行使上帝的权利!
综上所述:虽然“机器人”不会彻底取代我们。但是“机器人”的出现使我们不得不对自己提出更高的要求!如果你不能掌握更加先进的知识,今后不要说创业,你连打工的机会都没有!
因为未来员工的职责将从简单的执行层面转为更加复杂而重要的控制、操作和规划等多个层面。传统的蓝领劳作不再重要,而再加工、维护和系统维修等工作变得重要。
此外,“未来员工”还将使用和处理许多全新的用户界面。现在人们通常用红、绿、黄三色指示灯显示机器的工作状态;而未来,无处不在的传感器将在智能手机或平板电脑的显示器上迅速而详尽地展示出画面信息,或在智能眼镜的镜片上显示出信息。每个人都将参与到解决问题的流程中,整个流程成了一个有机整体:人和人、人和机器、机器和机器,彼此协调,谁也离不开谁,因此,“未来员工”必须能全部通晓这些知识!
因此,这场由“机器人崛起”带来的工业大变革,对“人”的素质提出了更高的要求,雇佣高素质员工将成为未来公司实现成功和盈利的单一决定因素!未来不会再有蓝领,从现在开始,我们每个人就必须有危机感和紧迫感,一定要加紧学习!
在未来,“机器人”虽然会大行其道,但是只要人类不停止自己前进的脚步,把创新和发明当成一种信仰,只那么世界的决策权就依然在我们手里!
如果说“机器人”的使命是取代人类,那么人类的使命就是取代上帝。因为人类已经开始创造“创造者”!“机器人”创造现在,人类则创造未来!没错,工业4.0就是人类在行使上帝的权利!
综上所述:虽然“机器人”不会彻底取代我们。但是“机器人”的出现使我们不得不对自己提出更高的要求!如果你不能掌握更加先进的知识,今后不要说创业,你连打工的机会都没有!
全部回答
- 1楼网友:北城痞子
- 2021-03-23 19:11
按照目前人类所掌握的编程语言和能力,如果某人会编程,尤其是掌握Python语言,并一直从事撰写代码的工作,只要时间允许,确保能量来源的前提下,他是可以创造出任何事物的。目前,家用CPU(机器人的大脑),处理问题的速度,已经接近于人类。世界各地专家预测,到了2019年,也就是1年以后,家用CPU处理问题的速度将要快于人类,并在很短的时间,将人类大脑处理问题的能力远远甩开。太可怕了,也许,明年(2019年)双11你买了一台新电脑,这台电脑比你聪明!
可能你会说,人类有情感,机器人没有啊,这是机器人取代不了人类的!
大错特错!情感的化学物质是多巴胺,多巴胺在细胞之间传输就是有多巴胺和没有多巴胺两种情况,这不就是计算机最最基本的1和0吗?1是通电,0是不通电。人类引以为傲的情感其实是最容易被机器人所模仿的。 至于已经会自我编程的机器人,将来会取代人类吗?笔者认为会,更准确的说法是,机器身体可取代人类身体,而这些机器人的思维是人类思维的复制与延续。
鱼儿进化为猴子,猴子进化为人类,而人类进化为机器人,多次进化,身体越来越适应生存的需要,承载思维的大脑也一直优化,从鱼儿的7秒记忆,到猴子的短时记忆,到人类的长时记忆,不停地在优化着。同时,思维,随着生物的进化也越来越智能。
也许,我们不应该把已经会自我编程的机器人生硬的叫做机器人,而应该把他们叫做“超人”!希望这些未来“超人”以后上历史课的时候,还能想起我这位祖先……
人类进化为“超人”是大势所趋,不用太过于担心,我们需要考虑的是“超人”肯定也分三六九等,如何区分他们的优劣。如果是一位会编程的“超人”(估计到时候会换一个更高大上的词汇),他能够开发出新的功能,肯定就是“超人”中的人上人吧。
文:CC老师(覃聪)
编玩边学资深教师,北京师范大学教育技术学学士,北京交通大学教育技术学硕士,美国宾夕法尼亚大学教育学院访问学者。
可能你会说,人类有情感,机器人没有啊,这是机器人取代不了人类的!
大错特错!情感的化学物质是多巴胺,多巴胺在细胞之间传输就是有多巴胺和没有多巴胺两种情况,这不就是计算机最最基本的1和0吗?1是通电,0是不通电。人类引以为傲的情感其实是最容易被机器人所模仿的。 至于已经会自我编程的机器人,将来会取代人类吗?笔者认为会,更准确的说法是,机器身体可取代人类身体,而这些机器人的思维是人类思维的复制与延续。
鱼儿进化为猴子,猴子进化为人类,而人类进化为机器人,多次进化,身体越来越适应生存的需要,承载思维的大脑也一直优化,从鱼儿的7秒记忆,到猴子的短时记忆,到人类的长时记忆,不停地在优化着。同时,思维,随着生物的进化也越来越智能。
也许,我们不应该把已经会自我编程的机器人生硬的叫做机器人,而应该把他们叫做“超人”!希望这些未来“超人”以后上历史课的时候,还能想起我这位祖先……
人类进化为“超人”是大势所趋,不用太过于担心,我们需要考虑的是“超人”肯定也分三六九等,如何区分他们的优劣。如果是一位会编程的“超人”(估计到时候会换一个更高大上的词汇),他能够开发出新的功能,肯定就是“超人”中的人上人吧。
文:CC老师(覃聪)
编玩边学资深教师,北京师范大学教育技术学学士,北京交通大学教育技术学硕士,美国宾夕法尼亚大学教育学院访问学者。
- 2楼网友:duile
- 2021-03-23 17:35
当网络发达到智能高级化
当人们对一些领域无法控制的时候
或者出现无法控制的情况
机器人就可能会是一种灾难
可以超出人类想象的方式超越人类的能力
有玩新浪微博关注交流: 三位粉
当人们对一些领域无法控制的时候
或者出现无法控制的情况
机器人就可能会是一种灾难
可以超出人类想象的方式超越人类的能力
有玩新浪微博关注交流: 三位粉
- 3楼网友:杯酒困英雄
- 2021-03-23 16:13
威胁着未来一部分人的工作,这是不可避免的,但是全部取代不会的。
- 4楼网友:慢性怪人
- 2021-03-23 15:40
机器人都是由认了i产生的,不会取代全部人类,有可能取代一部分的人类。
- 5楼网友:过活
- 2021-03-23 15:20
你好,答案首先是不会的。
随着人工智能的不断发展,一些科学家担心:在不久的未来,人工智能技术会超越人类的智慧,甚至会反过来控制或毁灭人类。对这一灾难性的预测来自一群世界上公认“最聪明的人”,包括微软创始人比尔·盖茨、英国科学家史蒂芬·霍金以及美国的“科技狂人”伊隆·马斯克。甚至有学者认为,人工智能超过人类的时间点——“奇点”已经逼近,很可能就在十几年后。
人工智能不是像核武器一样消灭人类,而是会逐步取代人类,真正可怕的是智力。它们将比人类更聪明、更擅长社交、更有工作能力。
比尔·盖茨说:“如果我们能够很好地驾驭机器人,机器能够为人类造福,但如果若干年后机器发展得超过人类的智能,那么它们就将成为人类的心头大患。”
不久前,著名科学家史蒂芬·霍金发出警告——未来100年内,人工智能将比人类更为聪明,机器人将控制人类。霍金曾与特斯拉CEO伊隆·马斯克共同发表公开信,他们认为,人工智能的发展应该受到控制。信中称,如果智能机器无法保障安全,人类可能陷入黑暗的未来。一方面人工智能让人类越来越缺乏思考,另一方面其自身则有可能越来越聪明,从而威胁到人类的生存。
马斯克也提出警告,最少只需5年,智能机器可能就会带来极端危险。他说:“应该保持高度警惕。如果让我猜测人类生存的最大威胁,那可能就是人工智能。”
牛津大学哲学教授尼克·博斯特伦与詹姆斯·巴拉特认为,“现在我们人类就像一群摆弄着一颗危险炸弹的无知孩童。即便是出于好意而创造的人工智能,它仍有犯下种族灭绝罪行的倾向。如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻目标的系统将发展到在我们看来非常荒谬的程度,以完成它的目标”。
不论如何,科学家认为未来对于人工智能的制造,一定要将不得伤害人类设定为其最重要的行事规则。美国科幻小说家艾萨克·阿西莫夫在他的机器人相关小说中为机器人设定了行为准则:
法则一,也是最为重要的一条法则:机器人不得伤害人类,也不得因不作为而使人类受到伤害;
法则二,机器人必须服从人类的命令,除非违背第一法则;
法则三,在不违背第一、二法则的前提下,机器人必须保护自己。
对于马斯克、霍金等人的言论,谷歌董事长施密特率先发起反驳。施密特的身份很特殊,作为谷歌的董事长,他曾亲身参与许多世界上最复杂的人工智能系统的研发,从自动驾驶汽车到谷歌的预测性搜索引擎等。施密特认为,所有对机器将抢走人类工作、占领世界的恐惧都毫无根据,并且希望人们能够意识到:机器人会成为我们的朋友。施密特说:“对于人工智能的担忧,都是正常的。但是回顾历史你会发现,这些绝对是错误的。历史的经验已经证明,过去的经济繁荣时期,大多数是因为采用新技术而引发的。”
科技取得突飞猛进的成果时,总是让人感到害怕,但真正重要的是掌握技术的人。总之,对于新技术的发展,难免会存在争论,但科学的进步总归是为人类带来更美好的未来。但是有一点却不能忽视,随着科学技术的进步,自动化的人工智能会越来越多地出现在我们的工作、生活中,机器代替人类工作很有可能在不远的将来成为现实。
随着人工智能的不断发展,一些科学家担心:在不久的未来,人工智能技术会超越人类的智慧,甚至会反过来控制或毁灭人类。对这一灾难性的预测来自一群世界上公认“最聪明的人”,包括微软创始人比尔·盖茨、英国科学家史蒂芬·霍金以及美国的“科技狂人”伊隆·马斯克。甚至有学者认为,人工智能超过人类的时间点——“奇点”已经逼近,很可能就在十几年后。
人工智能不是像核武器一样消灭人类,而是会逐步取代人类,真正可怕的是智力。它们将比人类更聪明、更擅长社交、更有工作能力。
比尔·盖茨说:“如果我们能够很好地驾驭机器人,机器能够为人类造福,但如果若干年后机器发展得超过人类的智能,那么它们就将成为人类的心头大患。”
不久前,著名科学家史蒂芬·霍金发出警告——未来100年内,人工智能将比人类更为聪明,机器人将控制人类。霍金曾与特斯拉CEO伊隆·马斯克共同发表公开信,他们认为,人工智能的发展应该受到控制。信中称,如果智能机器无法保障安全,人类可能陷入黑暗的未来。一方面人工智能让人类越来越缺乏思考,另一方面其自身则有可能越来越聪明,从而威胁到人类的生存。
马斯克也提出警告,最少只需5年,智能机器可能就会带来极端危险。他说:“应该保持高度警惕。如果让我猜测人类生存的最大威胁,那可能就是人工智能。”
牛津大学哲学教授尼克·博斯特伦与詹姆斯·巴拉特认为,“现在我们人类就像一群摆弄着一颗危险炸弹的无知孩童。即便是出于好意而创造的人工智能,它仍有犯下种族灭绝罪行的倾向。如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻目标的系统将发展到在我们看来非常荒谬的程度,以完成它的目标”。
不论如何,科学家认为未来对于人工智能的制造,一定要将不得伤害人类设定为其最重要的行事规则。美国科幻小说家艾萨克·阿西莫夫在他的机器人相关小说中为机器人设定了行为准则:
法则一,也是最为重要的一条法则:机器人不得伤害人类,也不得因不作为而使人类受到伤害;
法则二,机器人必须服从人类的命令,除非违背第一法则;
法则三,在不违背第一、二法则的前提下,机器人必须保护自己。
对于马斯克、霍金等人的言论,谷歌董事长施密特率先发起反驳。施密特的身份很特殊,作为谷歌的董事长,他曾亲身参与许多世界上最复杂的人工智能系统的研发,从自动驾驶汽车到谷歌的预测性搜索引擎等。施密特认为,所有对机器将抢走人类工作、占领世界的恐惧都毫无根据,并且希望人们能够意识到:机器人会成为我们的朋友。施密特说:“对于人工智能的担忧,都是正常的。但是回顾历史你会发现,这些绝对是错误的。历史的经验已经证明,过去的经济繁荣时期,大多数是因为采用新技术而引发的。”
科技取得突飞猛进的成果时,总是让人感到害怕,但真正重要的是掌握技术的人。总之,对于新技术的发展,难免会存在争论,但科学的进步总归是为人类带来更美好的未来。但是有一点却不能忽视,随着科学技术的进步,自动化的人工智能会越来越多地出现在我们的工作、生活中,机器代替人类工作很有可能在不远的将来成为现实。
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯