道德,计算和AI |来自麻省理工学院的观点

介绍
道德哲学的工具 | 卡斯帕野兔和基兰setiya
 


卡斯帕野兔和基兰setiya

“完全是从伦理的角度制定的先进的技术风险的讨论表明,所提出的问题是那些能够而且应该通过个人的行动来解决。事实上,许多由计算机科学提出的挑战将证明难以解决无全身更改。”

- 卡斯帕野兔和基兰setiya,哲学的麻省理工学院教授们


系列: 道德,计算和AI |来自麻省理工学院的观点


卡斯帕野兔是哲学的语言学和哲学的麻省理工学院的系教授。他已经写了伦理道德,形而上学和实践理性了许多文章,并且是两本书的作者: 善良的限制 (牛津大学出版社,2013年)和 对自己和其他不太重要的科目 (普林斯顿大学出版社,2009年)。

基兰setiya是麻省理工学院的哲学教授,他研究的伦理和澳门太阳城人类的机构和人类知识的相关问题。他是作者 原因无理性 (普林斯顿大学出版社,2007年)和 从错误的知情权(牛津大学出版社,2012年) 而最近,一个自助书的, 中年:哲学指南(普林斯顿大学出版社,2017年)。
 

•••


针对“所有的好"
做个人,企业,教育机构和政府有什么义务,以确保先进技术的核心体现人的价值?我们能在麻省理工学院社区做,以确保从我们的研究出现履行总统升的应用程序。拉斐尔赖夫的收费工作,为“所有的好”?如何能在学院的计算机和人工智能研究(AI)符合最高的道德标准?做这样的标准,甚至存在吗?如果不是,我们如何能帮助塑造他们?

因为这样的问题 - 这将是中央对麻省理工学院工作的计算新施瓦茨曼大学 - 几乎没有准备好,或者简单的答案,并且因为“道德”是使用不同的精确度,shass通信与麻省理工学院讲诸子卡斯帕野兔基兰setiya更好地了解术语,因为它是在道德哲学中。下面的评论是在此基础上的对话。

 

问:理念在解决道德问题提供指导什么?


在广义上,道德关注的是“规范”的问题 有关个人,组织和社会应该如何行动。 (这些规范性问题与有关如何描述问题,他们对比 在较窄的使用行为),道德特别侧重于个人行为的问题。本质上,谁在道德哲学家的工作提供系统化的方法来这个问题:“我该怎么办?”

这方面对个人的一种其他的义务奖学金中心 - 道德义务 - 以及自己的义务,自己。我们的目标是建立约则可以应用到具体案件的道德问题的思维方式一般。例如,道德哲学家不太可能先从一个人是否应该采取具体的减税比是否以及何时它的道德欺骗或者为什么要遵守法律,更大的问题的问题。

不仅仅是意见

一些人怀疑,有道德客观的答案,但人们每天都要面对的伦理问题和哲学提供了一个纪律,高效的方式来思考它们,并建立由哪些动作可以指导和判断原则。

虽然它可能是很有诱惑力从道德信仰的多样性推断,决定什么样的一个人应该做的仅仅是一个见仁见智,哲学家指出,分歧的持续性并不意味着没有答案可以吧。毕竟,人类一旦举行澳门太阳城太阳如何以及为什么而落得非常不同的信仰,他们仍然持有矛盾的澳门太阳城人类进化和气候变化的观点 - 但是,有这些事情没有客观真理这将是一个错误的推断。我们不应该太快,得出结论认为,当涉及到道德,任何事情都会发生。

即使你相信,道德是纯主观的,你仍然需要由您将自己生活的原则决定。道德哲学可以帮助你阐明这些原则,使他们更连贯。
 


“我们每天都要面对的伦理问题。理念不为这些问题提供现成的答案,甚至也不是故障安全技术,为解决这些问题。它确实提供是思考道德问题,找出隐藏的道德假定一个有纪律的方式,并建立通过我们的行动可以指导和判断原则“。

- 基兰setiya和卡斯帕野兔,哲学的麻省理工学院教授们



哲学家如何解决道德问题

几乎每一个哲学家同意我们的行动的后果是道德上显著。但后果往往是不确定的。一个由技术进步提出了紧迫的问题是巨灾风险的可能性 - 从核爆炸的超级病毒对所谓的“奇点”的建设(前景任何人工智能将能够在自身完善,超越人类的局限)。

人类冒险所有的时间 - 哪怕只是驾驶汽车或飞机飞行 - 所以可以考虑以系统的方式风险很有帮助。一个工具哲学家和经济学家们这样做是发展决定论,称量参与决策,以确定最佳结果的各种因素的系统。结果往往出人意料。灾难性后果的风险小可以压倒审议。是一个功能或一个错误?

决策理论的应用往往需要成本效益分析的形式,确定该决定预计将带来最大的快乐最多。这种方法从被称为“功利主义”的哲学理论推导的,它也有类似的盲点。因为它看起来在总幸福或幸福,却忽视了公平分配。它漠视了最大的利益是如何引起的,或许是侵犯个人权利。

是道德杀死一个无辜的人,用他或她的器官拯救五条人命?如果我们看什么,但总的幸福,它看起来可能。但一般人可能会判断这个杀人不道德的。在其他情况下,当我们从5名受害人重定向失控的小车之一,许多人认为它是允许将其杀死。如果有这些情况之间的差异,成本效益分析无法解释它。 (这是由MIT哲学家朱贾维斯汤姆森设计了一种著名的思想实验被称为的变化“手推车问题“,这在近年来在考虑如何最好地程序自动驾驶汽车已经使用。)


识别隐藏的道德假设 

你可以看到,哲学并没有提供现成的答案,甚至也不是故障安全解决道德问题的技术。它的作用是提供思考这些问题,并识别隐藏的道德假设的纪律方式。

采取从人工智能的伦理道德的例子:旨在减少目标人群药物滥用的软件程序设计人员的结论是,“最佳”的方法是分别处理高风险青年和低风险的青少年。滥用毒品的平均率最小化,但由于大卫格雷格兰特 - 谁最近收到了他的博士学位麻省理工学院哲学 - 观察到,这是通过有效地牺牲高危青少年为他人着想实现。隐藏的假设是,评估结果的正确方法是在聚合物质滥用的条款,不考虑利益的公平分配或个人的权利。这些道德的复杂性在明显无辜的程序设计丢失。

在道德的假设,可能会错过另一种方式是,当我们过于狭窄专注于问题的具体新的技术 - 如社交媒体或无人驾驶汽车 - 忽视了更广泛的道德和政治问题。如果你想成为一个道德的人,你必须要考虑不仅仅是数据的隐私与滑问题,但有关方法,使企业像亚马逊和谷歌浓缩的财富和权力,并在新技术威胁就业或加剧不平等的方式。道德的做法对新技术必须适当广阔。
 


“展望未来,这将是至关重要的到位,社会和体制结构的支持,鼓励和引导道德行为。一个责任是对我们属于个人是朝着政治条件的工作中,可以给我们的生活和工作更道德“。

- 基兰setiya和卡斯帕野兔,哲学的麻省理工学院教授们



社会和体制结构的力

完全从伦理的角度制定的先进的技术风险的讨论表明,所提出的问题是那些能够而且应该通过个人的行动来解决。事实上,许多由计算机科学提出的挑战将证明难以解决没有系统性变革。例如,社交媒体的用户面临集体行动问题,其中的共享平台的优势使其单独昂贵撤出即使关闭他们这样做都在一起大家会更好。

从孤独的个体拓宽我们的镜头,我们可以看一下社会的理念和商业道德:应该如何组织 - 如谷歌,Facebook,以及麻省理工学院 - 自我调节?和政治理论:什么都要政府做什么?展望未来,这将是至关重要的到位,社会和体制结构的支持,鼓励和引导道德行为。上我们属于个人一个职责是向中,可以给我们的生活和工作更加符合道德的政治条件的工作。

因为我们对发展和利用新技术的积极手段努力,道德理念,将发挥重要的作用。哲学家计算的麻省理工学院的施瓦茨曼学院教学可以帮助我们思考在原则性的方式伦理学和政治学的紧迫问题。道德哲学家可以作为项目团队顾问或咨询或参与跨学科研讨会。我们也应该对人文的同事和社会科学的专门知识,以更好地了解技术变革的可能,但往往产生意想不到的影响。

在未来几年,麻省理工学院将家引人注目的工程和计算机科学不可预知的进步。人文科学,社会科学和哲学是理解一下这些进步意味着我们和关键如何才能成为麻省理工学院的使命工作“为人类的福祉明智地,创造性地,有效。”


 

建议链接

卡斯帕野兔网页

基兰setiya网页

麻省理工学院哲学

故事:气候变化的道德观点

故事:基兰setiya:理念如何应对气候变化问题

MOOC:哲学概论,由卡斯帕野兔教
在美国第一哲学导论MOOC

 


伦理,计算和AI通过制备系列 麻省理工学院shass通信
院长梅利莎贵族的办公室
的人文,澳门太阳城最新网址麻省理工学派
丛书主编和设计师:埃米莉·希斯坦德,通信主任
系列共同主编:凯瑟琳奥尼尔,assoc命令消息经理,shass通信
公布2019年2月18日