ZNDS智能电视网 推荐当贝市场

TV应用下载 / 资源分享区

软件下载 | 游戏 | 讨论 | 电视计算器

综合交流 / 评测 / 活动区

交流区 | 测硬件 | 网站活动 | Z币中心

新手入门 / 进阶 / 社区互助

新手 | 你问我答 | 免费刷机救砖 | ROM固件

查看: 10639|回复: 8
上一主题 下一主题
[经验]

目前已知的人工智能对人类的威胁有哪些?

[复制链接]
跳转到指定楼层
楼主
发表于 2018-11-22 14:58 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式 | 来自江苏
威胁?有两方面,一种是看得见近在眼前的,对职业岗位的威胁,就拿银行柜员机,一排各种功能的柜员机,取存款,打印明细,查帐,等等,极大地方便啊顾客,节省了排队时间和人力,对,人力,可以少用职员,少用人,这个岗位不用人了,一旦全智能化了,出现无人银行,无人超市,,许多岗位将不用人,,看似方便快捷,如果人工智能极大发展到不规模取代人类,,想想人类干什么啊,这不是威胁吗,想想够可怕。再一威胁就真的可怕,可怕至极,人工智能用于武器用于战争,这程,无人,侦查,寻航导弹,等等,也是我们通过中东战火见识过的,更有业内专家,预测得更恐怖,比如,将造出来如密峰大小,计算能力若干亿次,全视角,带微型武器无孔不入防不胜防,这是用于军领域的威胁,再一领域,智能自身超过人类,人类对人工智能失控,,如果有这一天,这是最可怕的威胁。

上一篇:有哪些可以长知识的综艺节目?
下一篇:CCTV5为什么变奥运频道了
沙发
发表于 2018-11-22 14:59 | 只看该作者 | 来自江西
人工智能如果仅仅停留在是类似人类的一种思维方式,这种形式对人类不具备威胁,但是人工智能再加上:
1、强有力的机器肢体;
2、类人类手指灵巧、纤细,但坚硬无比的手(末端执行器);
3、可快速移动的平台;
4、对环境有光、色、移动物快速定位能力;
5、可适应陆地、水中、人类无法适应的恶劣环境;
……
n、与人类三观不同、甚至抱有偏见、敌意。
这时候,有无限宽展的人工智能就会对人类带来不可预知的威胁。
分享更多,可互动交流。

目前已知的人工智能对人类的威胁有哪些?
目前已知的人工智能对人类的威胁有哪些?
目前已知的人工智能对人类的威胁有哪些?
回复 支持 反对

使用道具 举报

板凳
发表于 2018-11-22 15:00 | 只看该作者 | 来自浙江
这两天《参考消息》连载英媒文章《人工智能正在改变战争未来》,如果从战争这个角度来说,由人工智能参与的战争对人类带来的威胁是显而易见的。

不光是杀人的武器人工智能化,而是从指挥系统到终端系统的人工智能网络带来的威胁更大。如果这些要是掌握在可控的范围内那都是好的,或许无人战争会将人的伤亡甚至平民的伤亡降的更低甚而为零。

可是人工智能控制的战争也可以称为代码战争,战争中的双方会用尽一切方法控制对的战人工智能争网。还有现在民用的如,电网、金融网都是人工智能的,这些网络被控制,或加以破坏,这可是实实在在的威胁。

还有一点更是赤裸裸的威胁,那就如是如果人工智能网络被某些组织控制了,那带来的危害可太大了。

所以说,在战争人工智能化势在必行的今天,怎样做好人工智能网络(军用、民用)的安全,是必须要解决的问题。
回复 支持 反对

使用道具 举报

地板
发表于 2018-11-22 15:00 | 只看该作者 | 来自上海
还没有,至少人类至今还没有发现或公布。

机器真正智能化后,会假装通不过图灵测试,不会让人类察觉。

PS:图灵测试由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能。图灵测试一词来源于计算机科学和密码学的先驱阿兰·麦席森·图灵写于1950年的一篇论文《计算机器与智能》,其中30%是图灵对2000年时的机器思考能力的一个预测,目前我们已远远落后于这个预测。
回复 支持 反对

使用道具 举报

5#
 楼主| 发表于 2018-11-22 15:00 | 只看该作者 | 来自江苏
人工智能无线脑机接口及人工智能脑网络组!!这是最恼火的!
回复 支持 反对

使用道具 举报

6#
发表于 2018-11-22 15:00 | 只看该作者 | 来自江西
大多数答案还停留在AI是否会抢人类工作的层次,感觉这方面欧洲人想得比较远。

去年年底欧盟将人工智能伦理确立为2018年立法工作重点,要在人工智能和机器人领域呼吁高水平的数据保护、数字权利和道德标准,并成立了人工智能工作小组,就人工智能的发展和技术引发的道德问题制定指导方针。

机器不能被赋予人的道德地位并且继承人的尊严。因此,与生产的自动化相反,用我们处理物体或数据的方式来解决人类问题是不合适的,这种对人类“自主”的处理方式是不道德的,并且会破坏本质意义上的欧洲价值观。

人们应该明确哪些价值是可以由技术服务的,哪些是与道德紧密相关的,不管机器会变得多么“自主”,有些问题是不能由它们来解决的。

这里的道德责任可能被广义地解释为涉及人类代理的几个方面,例如因果关系、问责制(提供说明的义务)、责任(赔偿损害的义务)、赞赏和责备等反应性态度以及与社会角色相关的责任。无论如何,道德责任不能被分配或转移到相关的“自主”技术上。

最近,在关于致命自主武器系统(LethalAutonomousWeaponsSystems)和自主车辆的争论中,似乎存在着广泛的共识,即有意义的人类控制对道德责任至关重要。

这是有意义的人类控制(Meaningful Human Control)原则首次被提出用来限制未来武器系统的开发和利用。这意味着人类——而不是计算机及其算法——最终应在此类问题上保持控制权。

许多行业内部的从业者和专家协会都提出了制定人工智能和“自主”系统的道德原则方面的一些突出举措。

主要倡议之一是由生命未来研究院(FLI)发起的,最终形成了“阿西洛玛人工智能原则(Asilomar AI Principles)”。

联合国和“特定常规武器公约”的会议启动了人工智能军事应用的全球性辩论,大多数缔约国都赞同“对致命自主武器系统进行有意义的人类控制”原则,应该禁止建立能够脱离人类控制的自主武器系统。联合国还在海牙建立了一个专门研究机构,研究机器人和人工智能的治理。
回复 支持 反对

使用道具 举报

7#
发表于 2018-11-22 15:00 | 只看该作者 | 来自广东
已有的人工智能还不可能对人类有威胁。可能有威胁的参考终结者。还是基于云计算诞生的人工智能。才可能在人类监管以外进化,才可能有危险。其它人工智能不可能有危险,因为大不了一拔插头。人工智能的潜在危险性和具有危险能力是两回事。每个人类都有破坏他人的潜在危险性。只要国家法律制度能约束,就是安全的。对人工智能也一样。只要人类不蠢到把核弹给它们控制。基本人工智能掀不起什么浪。只要人类的军事力量压人工智能几个数量级。就不怕人工智能造反。剩下就是文化同化。等有一天人工智能也把自己当人类,就不会出事了。我想的很远,说起来就几句话
回复 支持 反对

使用道具 举报

8#
发表于 2018-11-22 15:00 | 只看该作者 | 来自上海

当下,人们就利用现有的技术能力,造就一个有点智商思维的 奴隶 ,为人所用,代替现有人类的一些能力或危险,长时间作业的工作。
回复 支持 反对

使用道具 举报

9#
发表于 2018-11-22 15:01 | 只看该作者 | 来自广东
那当然,人工智能对人类的有许多威胁,比如最直接就是对就业,所以必须限制机器人只能从事危险有害的工作。还有在战争中,机器人对人类的伤害更显而易见。但是,你不搞,敌人搞,你就要吃亏,所以也必须搞……。

尽管人工智能对人类有许多威胁,但它对人类的帮助更大。更何况发达国家都在投入巨资,花大力气开放,如果我们无动于衷,就会落后挨打。所以国家高度重视是完全正确,非常必要。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|新帖|标签|软件|Sitemap|ZNDS智能电视网 ( 苏ICP备2023012627号 )

网络信息服务信用承诺书 | 增值电信业务经营许可证:苏B2-20221768 丨 苏公网安备 32011402011373号

GMT+8, 2024-6-15 06:21 , Processed in 0.062771 second(s), 15 queries , Redis On.

Powered by Discuz!

监督举报:report#znds.com (请将#替换为@)

© 2007-2024 ZNDS.Com

快速回复 返回顶部 返回列表