和真克瓦尔 发表于 2019-10-12 04:44

kraxia 发表于 2019-10-12 06:17

现实世界不就是吗?科幻作品只是为了戏剧性强行加上冲突,实际上真的到了社会结构改变的时候大家早就习惯了。等云端技术继续发展下去,人交给ai决策的事会越来越多,机器人的成本也会越来越低,等5g普及后智能城市+万物互联实现,机器人直接往云端一接就有了智能,到时候只要云足够大,可能真的会搞出通用决策ai。我觉得现在的世界线最终会发展成这样,ai会是所有人的老大哥,平时购物,出门开车,公司战略,舆论引导,国家政策,kol,这些ai逐渐都会比人强,所有人开开心心的被ai管理,实现天下大同。ai也可以做成机器人女仆小姐姐跟你玩,它只需要模拟出一个人格让你以为这个机器人有自己的性格就行了。当然攻壳的脑内芯片世界线也是一个方向,就是人类的赛博化

谎称 发表于 2019-10-12 06:26

我觉得最有可能的是ai发展发展就不会和人类玩了…

rentrody 发表于 2019-10-12 06:30

和真克瓦尔 发表于 2019-10-12 06:51

埃奈西德穆 发表于 2019-10-12 07:07

本帖最后由 埃奈西德穆 于 2019-10-12 07:10 编辑

首先,我不认为人类是机器。意识的一些基本特征,比如感质、意识同一性或者人格同一性、意向性、规则遵守都是不能还原的特征。

记得楼主挺喜欢存在主义的,玆举一例。“规则遵守”体现在人能根据规则行动,比如遵守国际象棋的规则。表面看来,AI也可以根据规则行动。其实不然。AI不是根据规则行动,而是规则操纵着行动。而人是根据规则行动,而根据规则,她能对她的行动负责。社会中存在各种规则,作为国际象棋玩家要遵守象棋规则,作为公司职员要遵守公司的规则,在家庭中一个人也需遵守规则(该规则和她的家庭角色有关),等等。一个人要担当多种社会角色,故而要遵守多种规则。因此,便会有了存在主义的区分:一个人要么本真地生存,要么非本真地生存:
(1)非本真的人,她根据外部需要调整自己不同的社会角色的比重,换言之,她只是随波逐流(比如她不加思考地接受社会惯例为了她的家庭角色舍弃她的职场角色)。
(2)本真的人,她能够权衡不同的社会角色,选择最能表达自己的权衡策略(比如她认为她的职场角色,重于她的家庭角色),通过这个决断式的选择中,她表达了自己的同一性,她通过行动“创造”了自己。
一个人能够付双重责任。一个人既对她的多重社会角色负责,她同时又对自己负责。两种负责之间会存在冲突。当冲突发生时,非本真的人是摇摆的不定的人,她不知道自己该贯彻职场的责任或家庭的责任。而本真的人则是能够为自己做出决断的人,同时她也能够承担造成的牺牲:她为了家庭责任可以放弃她的职场身份,或者相反。

假如我们赋予AI多重的身份,比如它既要下棋、又要做运算等等……它能否根据不同的责任,本真地选择自己要强调的社会责任,并放弃其他吗?它可能会冷静地计算得失,根据成功率选择那些社会角色的责任要贯彻,哪些要舍弃。它的选择不是基于“我要成为一个什么样子的人”、“我想要什么生活”、“我想要真正自由地生活,而不是被包裹在社会关系的硬壳里”——一言以蔽之,它没有决断能力。从存在主义的角度,它不是一个真正的行为主体。而自我决断的能力、生存决断的能力(至少部分)定义了什么是人。这也是为什么人不等于机器。

其次,无论AI能否具有我上面表述的“实践性自我意识”,倘若AI是理性存在者,AI就可能具有道德“意识”。倘若AI能有根据道德”行动”,那么自然有合作的余地。一个误解是很多人都认为AI似乎只会根据行为功利主义原则行动,但是道德理论不仅只有这一种模型。暂且排除美德伦理学,义务论和契约论都是可行的理论模型。

绿茶与猫 发表于 2019-10-12 07:23

帕帕盖诺 发表于 2019-10-12 07:27

虽然看不太懂你们在说什么,但总而言之又是推《飞向星空》的时候了!

stmule 发表于 2019-10-12 09:10

我觉得ai要实现估计还是要湿件的,要湿件就需要养人类了

風卷豹 发表于 2019-10-12 09:21

GGG

newise 发表于 2019-10-12 09:39

塑料内存算是最和谐了的吧

命运の审判官 发表于 2019-10-12 09:40

星之梦前传

agion117 发表于 2019-10-12 09:49

海伯利安的某一部分

谁说法海不懂爱 发表于 2019-10-12 10:05

考虑这个问题,还是得看人工智能的自我认知,思考回路是怎么样,倾向又是如何的,这点因为现实还没有参考,只能由人自己构想,有倾向植物性的扩张,拟人思维的作品就很常见了。虽然让人工智能以自身存在接近人,或者以此为目标,有人类万物灵长的傲慢之感。不过从人工智能是人为所造,会去模仿参照物倒也不能说完全不合理。

cyberalogo 发表于 2019-10-12 10:22

只要不发展感性AI技术就行了。

韩子 发表于 2019-10-12 10:27

cowboyblue 发表于 2019-10-12 11:33

baldr sky,人类,有机ai 无机ai三方相互利用以及争斗

和真克瓦尔 发表于 2019-10-12 11:39

和真克瓦尔 发表于 2019-10-12 11:40

和真克瓦尔 发表于 2019-10-12 11:44

和真克瓦尔 发表于 2019-10-12 11:44

和真克瓦尔 发表于 2019-10-12 11:47

和真克瓦尔 发表于 2019-10-12 11:52

和真克瓦尔 发表于 2019-10-12 11:54

❃✽✾✶✻✼ 发表于 2019-10-12 12:00

whzfjk 发表于 2019-10-12 12:01

小吃半条街 发表于 2019-10-12 12:04

哆啦A梦,阿拉蕾

cowboyblue 发表于 2019-10-12 12:05

和真克瓦尔 发表于 2019-10-12 11:54
还有有机AI?亚大伯斯和破碎之神?

额,游戏设定里有机ai指的是具有感觉质的人工智能

有机AI
·与无机AI相对,拥有感觉质(Qualia)的知性体。
·一手承包了虚拟世界的管理,公明正大的观测者。虽然喜爱人类,但是价值观与人类有很大不同。
·只有一小部分人类能和它们完全交流。
·实体是黏菌状的生物芯片的集合体,散布在全世界各处通过量子通信进行数据链接。
·能够形成多种人格,根据讨论会对人格进行消灭或者新增的行为,具有发展的性质。
·原则上自己认为过度干涉人类活动是禁忌行为。
·与之相反亦或例外的情况也存在,可以参考《BALDR SKY》的详细说明。
·隐瞒平行世界的存在这件事成为了人类对其失去信任的**。
·考虑到人类对平行世界的干涉以及可能造成的影响,最终选择了与人类彻底决裂的道路。
·在贾哈南的目送下,长年陪伴人类的友人宣布了永恒的告别。

Sliurus 发表于 2019-10-12 12:32

光晕算不算

-- 来自 有消息提醒的 Stage1官方 iOS客户端

与你肩并肩 发表于 2019-10-12 12:34

孩子深受父母的影响,是父母的倒影;人工智能,也是人类的倒影。
从宠物到助手,还是彼此仇视到开战,将来会怎么样,还是要看人类自身的选择。
人工智能,能做到的事情,也在不断的反馈中逐步提升对于人类自身的要求;放弃不断进步,只是听从安排,那么最终人类的定义也会被重写。进步者不断前进,沉沦者一路向下,时间冲刷下,清浊分离。人类迟早是要远行宇宙,地球最终也只能成为大型养老院。被留下的,在余晖中看日升日落,或者开始新一轮的追赶。

埃奈西德穆 发表于 2019-10-12 12:51

本帖最后由 埃奈西德穆 于 2019-10-12 12:58 编辑

和真克瓦尔 发表于 2019-10-12 11:39
非常有道理,前面的太专业了我不好置喙,只是对后面看懂一部分的“决断能力”,我有时想会不会也和自由意 ...
总结你说的两点:(1)人类的行为不仅仅是基因影响,他还受到文化等社会要素的决定,(2)自由意愿的幻觉问题。第一点我没有异议。第二点比较有意思,我稍微提几句。

我没有说,人的特征在于自由意志的能力,而是说一个人的特征在于他能够协调不同的社会角色然而形成自我的能力。至少在意识层面,AI不具有这个能力,无论这个能力对人类来说是恩赐还是咒诅吧。然后,这个能力不蕴含人有行为者因果力(agent causation),即人能够做不同事情的能力。在当代自由意义的讨论中,学者们一般把这类立场称作兼容论(compatiblism)。

但是,倘若这种决断能力是幻想怎么办?当代有很多学者支持强决定论(hard determinism),有不少有趣的实验去否定自由意志。倘若LZ持有这个立场,那么你看看你能不能接受以下这些结论:
(1)由于一个人没有自由意志,所以她没法为自己的行为负责,因此我们没有理由谴责或惩罚她,也没有理由称赞或者奖励她。
(2)给定(1),则现在的法律制度和道德观需要大幅度修正,因为罪犯没有决定自己行为的能力,她就好比被遥控的木偶一样。同时,资源分配制度也需修正,没人能够为自己的状态负责,多劳者多得这种道理也不再适用了,因为多劳只是被决定的特征。
(3)极端的说,道德秩序也不再有意义。道德秩序指示人应该或必须做什么和不做什么,而“应该”意味着“能够”(休谟、康德都持有此论点),这意味着人能够按照或不按照道德规则行动,如果人不具有这个能力,道德规则也毫无约束力,不如废弃。
(4)人生也没有意义。被控制的机械不会有有生命意义问题,只有能够为自己谋划的存在者才会生发出意义问题。因此,倘若人不过是舞动的人偶,那么也没什么人生意义可言了。
(5)最后,你也不能理解一个人的“行动”。因为行动意味着你能够为自己这个行为负责,这样这个行动才能真正归属于你。所以,倘若自由意志是纯粹幻觉,我们不再能谈论A的行动或者B的行动。
倘若你能接受(1)——(5),那么你确实是个连贯的强决定论者。如果不能,我建议你重新考虑自己的立场。当然,即便你是个连贯的强决定论者,也不意味着这个立场是对的。

关于一些支持强决定论的实验和思想实验的反驳,我这里不打算赘述。你有兴趣,我可以给你一个文献列表。不过,我建议你可以稍微缓和下你对“科学的信阳”或者“科学主义”。(i)我们都认为自然科学有解释力,我们赋予自然科学的解释权威,这个解释权威的赋予是人类的行为。我们比较不同的认知主张,然后最终确定科学解释具有优先性。这个判断的活动是规范性活动,是根据理性规则行动的能力,而人可能正确或者错误地使用这个能力。这意味着,科学的权威依赖于人根据理性规则行动的能力。然而,倘若自然科学得出结论——人的选择和谋划能力全部都是幻觉,那么这无疑意味着人的规范性能力也是幻觉。倘若规范性为科学解释的权威提供奠基,又假定科学真的能得出相应结论(事实上,根本没有…),那么科学自己把自己权威的基础抽空了。(ii)另外,我也质疑科学的解释封闭性,康德的第三组的“二律背反”依然能提供宝贵洞见。(iii)科学史的发展也似乎能提供佐证:19世纪早期,“以太”曾一度出现在各类科学中,而且这个概念具有很强解释力,以至于很多人都认为自然界存在以太,但是这个理论很快被替代了,“以太”也被扔到人类历史的垃圾桶了。倘若最前沿科学能够说明什么存在什么不存在,那么:
(a)19世纪早期,由于应用以太的科学为最前沿科学,以太存在。
(b)21世纪,前言科学不再运用此概念,以太不存在。
一个物质不可能在19世纪存在,而到了21世纪又不存在,所以前沿科学不能保证什么东西存在或者不存在。那么,如果有一种理想物理学呢?任何人都不知道终极物理学的形态。正如亚里士多德和托勒密也不会想到如今的天文学,同理现在的人也无法设想到未来物理学。如果那个理想的终极里有自由的一席之地呢?谁又知道?……

❃✽✾✶✻✼ 发表于 2019-10-12 13:15

rentrody 发表于 2019-10-12 16:10

博丽灵梦的御币 发表于 2019-10-12 16:36

hypnossz86 发表于 2019-10-12 16:57

rentrody 发表于 2019-10-12 17:29

yy19 发表于 2019-10-12 17:44

本帖最后由 yy19 于 2019-10-12 18:03 编辑

hypnossz86 发表于 2019-10-12 16:57
没有自由意志的人确实不用对自己的行为负责,但是仍然要承受自己行为带来的后果
罪犯如果是被操纵的木偶, ...
good,就是这个。

演好你自己(的角色)便是,瞎JB俺琢磨个鬼哦

sacodina 发表于 2019-10-12 18:44

哆啦A梦

埃奈西德穆 发表于 2019-10-12 19:44

本帖最后由 埃奈西德穆 于 2019-10-12 19:50 编辑

rentrody 发表于 2019-10-12 17:29
自由的本质就是随机性,量子力学已经给了自由一席之地。不过还有一个多世界解释,当所有的选择都是等价的 ...
自由的本质不是随机性。极端的例子,随机性就是你要做X,结果却产生Y,你的行为完全受随机的运气支配。这个和自由不相容。所以,自由不是随机性。说一个人是自由的意味着她能多少控制自己的行动,这样她才能为自己行为负责,而控制蕴含着决定论的要素,而不是随机性。然后,已故的David Lewis确实提过一个所谓的“多世界”解释,即用他可能世界框架对自由的必要条件(you could have done otherwise)做语义分析,然而这估计和你谈的不是一回事。

酷乐 发表于 2019-10-12 20:15

都不看武装神姬的?
页: [1] 2 3 4 5
查看完整版本: 一个人工智能和人类相对和平共处的世界观是怎样的?