广告

数字伦理高等教育:2020

分钟阅读

新技术,尤其是那些依赖人工智能或数据分析的技术,令人兴奋,但也提出了值得我们关注和采取行动的伦理挑战。高等教育能够而且必须起到带头作用。

良好和邪恶的机器人头在平衡秤的每个平台上
信用:尼古拉斯·奥尔蒂加©2020

有些新闻故事是很难忘记的,比如十年前的一个故事,一个十几岁的孩子边走边发短信,掉进了街上一个开着的下水道。许多报纸头条都在取笑这个15岁的小女孩。但大多数新闻报道都聚焦于相关人员,因此没有看到更大的故事,关于人类和技术的冲突,或者,在这种情况下,碰撞。1.

在2020年,我记得这个故事,并认为它可能是对数字伦理挑战的完美比喻。新技术,其中许多依赖于私人数据或新兴的人工智能(AI)应用,正被热情地推出。这些令人眼花缭乱的技术吸引了我们的注意力,激发了我们的想象力。但是,当我们被这些变化所吸引的时候,我们可能很快就会看到我们脚下的地面塌陷了。我们需要找到一种方法,既要关注快速的技术创新,又要关注它对使用者的真正影响——或者像一些人所说的,被使用者。

我相信我们正处于技术发展的关键时刻。我们必须认真对待数字伦理,我把它简单地定义为“在技术创新和公认的社会价值观的交叉点上做正确的事情”;然而,考虑到技术变化的速度和社会价值观的相对性,即使是一个简单的定义也可能比表面上看起来要复杂。例如,在冲突点上,对最新数据驱动应用程序的渴望和对严格保护隐私的渴望暴露出重大的道德缺陷。哪种欲望占上风?在我们思考这个问题的同时,新应用程序的开发仍在继续。

一个世纪深刻的技术变革

当我们谈论技术创新时,我们倾向于向前看,想象我们的当代环境是完全前所未有的。然而,我们并不是第一个应对由技术驱动的“颠覆性”变革的国家。我们也不是第一个必须应对这些发展的伦理影响的人。我们可以从上个世纪的模拟技术创新中学到很多东西,2.再没有比1851年的伦敦世界博览会更好的时机了。

描绘了1851年工业博览会的开幕仪式
1851年的大工业展览馆的落成典礼
信贷:埃弗雷特历史

The Great Exhibition was so popular that its profit funded several public museums still operating today in Britain . The奇观是如此引人注目,以至于相当于英国三分之一的人口来到伦敦观看这场展览。3.可以说是技术乐观的开始,我们仍然看到今天,没有问题的信念是如此宏伟,这是一个新的,奇妙的发明无法呈现解决方案。代表奖牌被授予望远镜,早期的Daguerreotypes,甚至是传真机的前兆。随着这些可识别的创新,展示中还有真正奇怪的产品,如“暴风雨预测者”:一个进取的发明家,发现水蛭以追逐触发器的方式响应了气压的快速变化,这是一个音响贝尔,从而警告即将发生的风暴。4.威廉·巴利(William Bally)的半身像也在“大展览”上展出,用来说明当时大肆炒作的伪科学的概念膈宫,骷髅尺寸和形状的信念是某人的性格和心理能力的指标。

惠特比博物馆,惠特比,英国惠特比博物馆的复制品推迟
英国惠特比市惠特比博物馆的风暴预测复制品。
信贷:Badobadop

这是本发明的世纪,也是各种古怪的世纪。从磁性束胸到电动腰带,产品向神经障碍,消化不良,风湿病,失眠和“疲惫不堪”的令人惊叹的疗效。基于电磁学性质的新兴技术正在创造几乎没有规则和无数空的承诺 - 即使科学仍然被弄清楚。我们可以认为技术炒作的概念在21世纪,但19世纪揭示了基于对科学的不完全理解部署创新的早期大师。的钋和氯化镭的发现又由波放射性骗术,包括镭注入牙膏,“寿-的Radia”化妆品产品看好年轻的光泽,甚至(现在奇怪冗余)镭香烟随访。Vita镭栓剂承诺“弱气馁的男人”,他们很快就会“充满欢乐的活力”。5.

一位参加这次大型展览的人对此印象不深。卡尔·马克思(Karl Marx)将该展览视为技术自动化所造成损害的证据,并得出结论认为,该展览揭示了一个本质上是剥削性的议程,其中不乏暴力影响。6.同时出现的是原始的勒德派- 这不是指人们不愿意使用技术的人,因为今天的理解得以理解。相反,Luddites正在响应(猛烈)在羊毛行业中引入新的机械织机,非常真正地推回事造成人工工作,破坏其生计和规避标准劳动实践的技术。7.

框架破碎机或狼人,粉碎织机
破框者,或勒德分子,打碎织机
信贷:维基媒体共享

在玛丽谢尔利的卓越小说中可以找到19世纪技术创新的黑暗面的强大文物弗兰肯斯坦,1818年在勒德暴动的阴影下出版。虽然这本书的特点是一具缝合在一起的复活尸体,但实际上它是一个关于伦理和技术的高度复杂的讨论。弗兰肯斯坦博士鲁莽地使用了他并不完全理解的技术,并且没有深入思考其深层含义。他创造了生命,当事情变得困难时,他放弃了自己的创造。小说的悲剧在于他的道德失败和由此带来的痛苦。也许这本书最有意义的总结也是最简单的:仅仅因为你可以用技术做一些事情并不意味着你应该这样做。

兴奋

让我们回到我用来开始这篇文章的比喻。同时走路和发短信是一个糟糕的选择。每当我们过于关注技术而忽略了其他一切时,事情往往不会有好的结局。然而,认为我们可以简单地停止技术创新,采取相当于音乐大暂停的方式,同时找出所有道德含义是不可行的。在这种情况下,我们需要以一种累加的方式进行多重任务,不是为了减少我们的兴奋或谨慎,而是为了兼顾两者。我们可以深切关注数字伦理与此同时对高等教育中明确进行的数字转型真正兴奋。我们可以通过新技术充满活力,同时我们完全了解隐私和道德考虑因素。关键是平衡。

认为我们可以简单地停止技术创新,同等为音乐大暂停,这是不可行的,我们弄清楚所有道德含义。

我们在高等教育信息技术中工作的人经常发现很容易令人兴奋的技术创新先进的方式,并将继续推进学术界。我们认识到技术专业人员在战略性和协作工作时发挥的重要作用,在解决一些最棘手的制度挑战方面提供牵引力。8.EDUCAUSE 2020年十大IT问题反映了这种希望和兴奋,院校优先考虑的问题,如学生保留/完成、以学生为中心的高等教育、提高入学人数和高等教育负担能力,加入了更多传统的IT问题。技术的进步不会单凭一蹴而就,但在数字转型的大背景下,新技术可能是充满挑战的环境中最有希望的希望。哪怕只是匆匆瞥一眼培养地平线报告反映了人们对分析、混合现实、人工智能和虚拟助理、自适应学习等方面的兴奋。9

数据驱动的预测分析——包括适应性学习和学生成功建议技术——是最有前途的技术。此外,许多新的应用程序依赖于人工智能或机器学习创新,以帮助学生取得成功,帮助机构更有效地工作,节省资金,可以重新用于他们的使命。分析和人工智能以学生为中心的方式结合在一起的一个例子是聊天机器人应用程序的新兴类别,来自佐治亚理工学院的“吉尔沃森”教学助理2016年10.到最近的像迪肯大学的例子精灵应用程序或格鲁吉亚州立大学突袭Chatbox,两者都帮助学生获得快速答案并通过流程导航的方式,并在“夏季融化”这样的烦恼地区产生具体的机构导致。姓名仅仅是GSU如何使用预测分析的最新篇章,作为更广泛方案的一部分,以增加保留和毕业率并消除成就/机会差距。

最后,许多技术承诺加强学生参与学习。关于游戏,模拟和互动问题解决的对话已经发生了很长时间,但商业增强和虚拟现实技术的增长表明,戏剧性的变化可能会在拐角处。教育研究表明,预计增强和虚拟现实技术将以2023年以40%的机构部署到40%的机构(见图1)。

图表说明了机构增强和虚拟现实技术部署的广度
图1.用于教学和学习的增强和虚拟现实
来源:教育分析和研究中心(Ecar),《2018战略技术:数据表》

小心

既激动又谨慎并不是矛盾;事实上,这似乎是技术专业人士的现状。我甚至认为,那些没有同时持有这两种想法的技术创新者很可能没有注意到这一点——或者是让大肆宣传的鼓点淹没了警告的声音。是时候倾听这些更安静的声音,并仔细考虑数字伦理问题了。

在关注高等教育之前,让我们先退一步,理解对数字道德的关注远远超出任何单一的背景、企业或行业。雪莱的读者弗兰肯斯坦会发现许多今天的新闻故事非常熟悉。在2018年,中国科学家制造出世界上第一个转基因人类:双胞胎“露露和娜娜。”虽然科学家已被判入狱和罚款为自己的行为,至少一个俄罗斯科学家计划继续工作。11.与此同时,耶鲁科学家一直在进行哺乳动物脑的实验。据报道,科学家们据据报道,由于苗条的可能性,在一个角度下,在一个角度下,在一个角度下闭上了实验。但正如杜克大学的法律学者和伦理主义者所指出的那样:“这是一个总灰色区域。”斯坦福大学的法律教授和伦理学家汉克很琐碎,这是一个具有较少道德指南针的科学家将不可避免地试验人类脑。12.无论我们考虑的技术允许科学家延长大脑或技术的使用寿命,使人们能够用3D打印的枪来缩短生命,但在伦理学家和非伦理学家中都有很多值得关注的问题。

转基因婴儿和复活大脑的后果似乎还不清楚,而且还很遥远,但武器化的人工智能已经出现,并且正在迅速发展。2019年,OpenAI创建了一个AI语言模型,该模型在生成可信文本方面非常有效,以至于OpenAI研究人员最初认为它是危险的,只能分阶段共享;2019年11月,看到“没有明显的滥用证据”,他们发布了完整的系统:TalkToTransformer.com13.在它发布后不久,我输入了“我担心数字道德,因为。”人工智能语言模型是这样完成我的想法的:“我担心数字伦理,因为技术发展的影响,特别是数字媒体的快速发展,在网络社区。我特别担心网络上言论自由的滥用。”接着是一段措辞得体的段落,介绍了英国的具体法规及其影响。让人印象深刻。在这次成功的鼓舞下,我又输入了“数字伦理令我担忧”。这个非常相似的提示的结果却截然不同。这次,人工智能模型写道:“数字伦理让我担心,我不能在丈夫倒下时跪下拥抱他。”14.

在任何情况下,下一代群众,个性化,AI生成的网络钓鱼尝试都将更加困难。2019年8月的假设有一个可怕的信号,这是一个假电话的故事,欺骗了一家公司243,000美元,并对其首席执行官造成了巨大的公司要求银行转账。15.Deepfakes已经引起了国际规模的问题。随着Deepfake-Obama观察到病毒视频,新的人工智能技术可以制作伪造的视频,在视频中“任何人在任何时间点都在说什么,即使他们永远不会说那些话。”关于深度造假可能造成的潜在地缘政治灾难,已经有很多猜测(想象一下1938年的情形世界大战广播恐慌,但具有更令人信服的演讲和核武器)。选举操纵,骚乱和区域不稳定都是非常真实的可能性。16.名人目前是Deep演员最大的目标,但任何大学或大学专业阅读Noelle Martin的寒冷故事将意识到赌注的速度有多高。当她还是学生时,马丁很好奇谁可能上传她的照片,所以她使用了反向的Google图像搜索来查明。而不是发现朋友在社交媒体上上传了她的照片,而是在色情网站上发现了她个人照片的数百张帖子,以及她脸上的照片添加到色情女演员的尸体上。17.学生的DeepFake视频可能对机构产生重大后果,特别是考虑到犯罪者很可能成为同一校园里的学生。

尽管高等教育机构正在使用各种机器人,并取得了积极成果,但它们在其他地方的使用方式却存在道德问题。

聊天机器人已经收到了很多的关注,尤其是最近。尽管高等教育机构正在使用各种机器人,并取得了积极成果,但它们在其他地方的使用方式却存在道德问题。在2015年美泰推出芭比您好,互动,互联网连接的娃娃。一个与孩子紧抓互联网连接的玩具是提出探索性的个人问题(和储存的答案)的想法“玩具的互联网”,是由一些非常持怀疑态度,例如那些谁发动#HellNoBarbie运动。在2017年十二月,德国联邦网络局标记芭比的欧洲同行,凯拉,“非法的间谍设备”,并呼吁家长破坏玩具。尽管反弹,你好芭比仍然存在(和听力),而连接的智能玩具市场的不断壮大,没有减缓。有趣的是,该公司的技术被纳入你好芭比公司更名为拉线,并在2019年据报道,这被苹果收购是他们的AI战略的一部分。18.

2016年3月,在芭比娃娃的引入后不久,Chatbot Tay被微软在Twitter上发布。Tay是“旨在通过随意和俏皮的谈话在线连接和娱乐他们在线连接的人。”Tay开始宣布“人类是超级脱钱”,但在24小时内,塔伊鹦鹉鹦鹉,同性恋和纳粹宣传。在暂停近一周后,Chatbot再次暂时回来,只是为了混淆和冒犯更多的人在陷入致命的循环之前,无休止地重复什么,回想起来,是预言:“你太快了,请休息一下。”Tay被赋予了永久休息,许多专家们划伤了他们的头,就要在更准确地预测可能之前微软发布了机器人。19.

Tay关于人工智能的故事发布得太快,超过了所有的故事,因为它太戏剧化了,太公开了。但在竞争激烈的科技产品领域,晚一点请求原谅可能比花时间预测可能出现的所有问题要容易得多,尤其是考虑到首先上市的压力。随着聊天机器人和人工智能产品的发布,更令人担忧的问题是,一些远不那么明显的例子,比如微妙的歧视、种族歧视和算法中存在的有缺陷的数据,这些数据对使用它们的人来说仍然不透明。

例如,随着智能扬声器和数字助理继续变得更加普遍,道德问题越来越受到全球关注。一个教科文组织的研究,标题为“我可以脸红,如果可以,”专注于数字助理的性别分裂,加剧了数字助理。为了回应“你是一个婊子,”苹果的Siri回答道:“如果我能脸红,我会脸红。”亚马逊的Alexa回答说:“嗯,谢谢你的反馈。”微软的Cortana说:“好吧,那不让我们在任何地方。”和谷歌首页(也是谷歌助手)回答:“我的道歉,我不明白。”该报告观察到这些AI响应来自“绝大多老的男性工程团队”的申请,原因是他们的女性化的数字助理,以追随捕获者 - you-u-can-can-com-com-can调情的言语虐待。“由于批评,Siri的回应已经发展出来,“她”现在以不同的方式对滥用陈述答复(尽管报告表明,即使是新的回复也继续顺从)。20.

我们创造的技术和虚拟人格往往会放大我们人类的缺点,而不是消除它们。

被动地对暗示或虐待评论进行了回应,增强了妇女的居民职责,并证明了不适当的评论是可接受的。史蒂夫Worswick,屡获殊荣的Mitsuku Chatbot的开发者,聊天聊天的含义与个人经验,报告称“辱骂消息,咒骂和性谈话”占三井收到的30%。也许没有理性的理由相信我们发明的技术可能解决人类本身所涉及的缺点。正如肯塔罗诺富山所说极客异端:“卓越的技术不足以拯救我们自己。”我们创造的技术和虚拟人格往往会放大我们人类的缺点,而不是消除它们。21.

对于许多人来说,如果不是所有新兴的技术,以及互联网本身的所有技术都存在伦理的影响 - 包括所确定的数字分裂,有些人会说,很长一段时间都被忽略了。22.然而,可以理解的是,属于人工智能一般范畴的技术集群得到了最多的关注。2017年5月,福布斯报告称,数字助理的使用呈上升趋势,尤其是在企业高管和千禧一代中,近三分之一的消费者不能确定他们的上一次客户服务互动是真人还是机器人。2018年4月,Gartner提出,到2020年,普通人与机器人的对话将超过与配偶的对话。23.

面对这种不可阻挡的游行,一些强有力的声音站出来呼吁要谨慎。数学毁灭武器:数据如何增加不平等并威胁民主,由凯茜·奥尼尔(Cathy O’neil)于2016年初撰写,这本书仍然具有相关性和启发性。奥尼尔的书围绕着她的见解展开,她认为“算法是嵌入代码的观点”,这与她认为算法是基于——并产生——无可争议的事实的观点形成了鲜明的对比。嵌入算法中的主观输入解释了我们在输出中经常看到的偏见和歧视——这些算法是不透明的,如果某人的生活受到基于算法的决定的负面影响,则不允许上诉,这一事实让人感到复杂和沮丧。O’neil坚持认为代码中固有的观点更加具有腐蚀性,因为它们被炫目的技术所掩盖——这非常具有讽刺意味,因为她在书中批评的许多应用程序都是作为工具来使用的减少人类偏见并做出更公平的决定。定义A.数学毁灭武器作为一个带有“不透明度、缩放和损害”的有害应用程序,她继续强调了其中的一些细节(包括美国新闻高等教育排名)。最近,在她的书出版之前,一家原本支持算法风险评估的非营利组织改变了立场。24.奥尼尔认为,如果大数据在20世纪60年代被用作大学申请过程的一部分,那么女性在高等教育中的代表性仍然不足,因为算法将通过观察当时代表性过高的男性进行训练。

2018年,萨菲娅·乌莫贾·诺布尔的书压迫的算法:搜索引擎如何加强种族主义在这种情况下,加强了支付给算法偏差的注意力,在这种情况下,看着搜索引擎,这越来越多的导管,我们通过它到达我们周围世界的世界的理解。她专注于“技术红线”专注于搜索引擎如何建议我们完成搜索(以及我们的句子)。贵族提供了看似无穷无尽的谷歌搜索引擎如何加强刻板印象的例子,特别是在寻找“黑人女孩”的“拉丁语”和“亚洲女孩”中搜索。她还展示了互联网搜索在指向DylanN屋顶到达尔农屋顶的关键作用,使他在南卡罗来纳州崇拜时谋杀九个非洲裔美国人。最后,高贵还指的是一个华盛顿邮报》报道称谷歌关于2016年总统大选“最终选举结果”的最高搜索结果指向一个“新闻”网站错误地宣布唐纳德·特朗普赢得了选举和普选。25.尽管谷歌无疑致力于解决这些问题,但在2019年,至少有一位研究人员表示,问题仍然存在,减少自动完成功能并不能解决根本问题。26.

四个不同的女人和谷歌搜索结果
联合国女性的广告系列
信贷:迪拜,为联合国妇女制定(2013年)

接下来,2019年,Shoshana Zuboff的书监视资本主义时代:在权力的新前沿为人类的未来而战对话继续进行,深入而令人不寒而栗地探索了信息的不道德使用已经扩展到何种程度,超越了算法和搜索引擎,一直成为资本主义的“流氓突变”。这本内容庞杂的书很难作任何简单的概括(例如,定义监测资本主义实际上是八个定义)。Zuboff从她认为是我们必须解决的关键问题的角度,坚持不懈地探索监控以及数据的使用和滥用:“谁知道?谁来决定?谁决定谁做决定?”除了询问正在发生的事情以及谁有权做决定,她还指出,正如工业革命蹂躏了自然世界一样,这种新形式的资本主义威胁着人类,声称“人类经验是隐藏的商业开采行为的免费原材料,她认为,这一过程目前正在进行中,几乎没有监管或控制。

在O'Neil的书和Zuboff的书之间的时间里,新技术的3月加快了,其中包括隐生和荒谬的例子。从哪儿开始?该名单每周生长。

应用程序的进军

红气球用手机和机器人气泵
信贷:尼古拉•奥尔特加

虽然不专注于高等教育,但一些人工智能应用声称,人工智能的力量掌握在人的手中。例如,Mei Mobile Messaging应用程序用“以帮助用户通过将人工智能,数据,甚至是其他人很容易用智能手机的人的范围内成为自己最好的版本。”该应用程序取代了手机的短信功能,并提供了有关发送和接收文本分析。销售作为一个“关系助理,”梅提供关于人们是否你的文字可能会或可能不会对你“有好感”的百分比评估。使用文本分析,应用走得更远,让对如何提高你的美眉商的建议(例如,“托马斯更多的是做儿的,所以少说,多做”)。27.与此同时,现已停用的Predictim应用程序允许个人扫描未来保姆的网络足迹和社交媒体,并根据扫描欺凌/骚扰、无礼态度、明确内容和吸毒迹象的算法,确定这个人的选择可能有多大的风险。28.这些例子可能看起来无关紧要——除非,当然,你的数据被扫描,你是被判断和发现不合格的那个人。

这很容易从这里漂到类似,但更为显着问题的例子,如争议的“同志探测器”人工智能高等教育研究人员开发,声称他们可以决定一个人是否是直的还是同性恋只是在扫描面为主。29.然后有呼叫的深刻有问题的面扫描应用Faception,这款“首个技术、首个上市”的应用程序“拥有专有的计算机视觉和机器学习技术,可以仅根据面部图像分析人们并揭示他们的个性。”该公司直截了当地表示,他们的宣传是为了盈利,这是一个“数十亿美元的机会”。它承诺通过简单的面部扫描识别恐怖分子和恋童癖,以及学术研究人员和扑克玩家。Faception在YouTube上发布的一段视频显示,一款人工智能应用程序的开发者似乎并没有停下来考虑伦理问题。事实上,该公司的“首席剖析官”似乎对道德担忧不屑一顾,他说:“我们只是建议——不管当局会怎么做,那是他们自己的事。”30.对于那些生活在专制国家的人来说,这并不能让他们安心,也不能让那20%的人被错误地贴上恐怖分子或恋童癖的标签(如果你相信该公司宣称的80%的准确率)。

一些人工智能应用声称将人工智能的力量掌握在人类手中。

另一家公司是去年Clearview的人工智能.Hoan Ton-That开发了一款可以让人们把唐纳德·特朗普的头发放到别人照片上的iPhone应用程序,随后他开发了“一种可以让你无法匿名在街上行走的工具,并将其提供给了数百家执法机构。”斯坦福大学法学院(Stanford Law School)隐私教授阿尔•吉达里(Al Gidari)认为,这是一种令人不安的趋势的开始:“他们正在做的事情令人毛骨悚然,但这样的公司还会更多。数学没有垄断. . . .没有一个非常严格的联邦隐私法,我们都完蛋了。”31.希瑟·墨菲(Heather Murphy)在写关于面部识别的文章时总结了盈利的压力:“在硅谷各地。企业家们谈论的面孔就像是等待开采的黄金。”32.面部识别应用程序继续激增,尽管该技术的准确性在不断发展。在美国,国家标准与技术研究所(National Institute of Standards and Technology) 2019年12月的一项研究发现,面部识别存在缺陷,证实“流行的商业系统存在种族和性别偏见”。33.虽然美国和英国的这类研究引起了轰动,但数百万人观看的病毒性视频,如“种族主义肥皂分发器”视频,给故事添加了一个感叹号,并将道德问题人性化地传播给了更广泛的受众。34.

凯特·克劳福德(Kate Crawford)和特雷弗·佩格伦(Trevor Paglen)的一篇引人注目的文章《挖掘人工智能》(digging AI),突显了算法的不透明性对人类的影响。35.两位作者深入研究了人工智能系统如何训练的实际问题,研究了名为ImageNet的“经典训练集”图像,该图像由1400多万张标签图像组成。克劳福德和佩格伦发现,标签和分类的过程不仅是有缺陷的,有时还“有问题的,冒犯的,奇怪的。”这些都不是微妙的例子。照片中有美国总统巴拉克·奥巴马(“反犹分子”),一个看似随意的男人(“好人”),一个看似随意的女人(“盗窃狂”),还有女演员西格妮·韦弗(“雌雄同体”)。作者甚至让公众可以使用ImageNet数据库,以便自己了解标签是如何工作的。在网站下线之前,我上传了我那张简单的EDUCAUSE头像照片,并被分配给它的标签震惊了:巴隆,大商人,商业领袖,国王,弥漫,大亨。听到我的喘息声,我的配偶越过我的肩膀,看是什么让我如此愤怒,我们忍不住上传了她非常相似的头像,看看有什么侮辱性的称号给她。当我的标签令人困惑而又详细时,她的一个标签却令人困惑而又简洁:姐姐。当我给一个高等教育主席协会的女主席拍照时,她既不是女王也不是男爵夫人,她的标签也只有一个词:社会学家。想象像这样的标签可以参与确定谁获得贷款,谁适合保姆,或者可能是恐怖主义的人很讨论。这项重要的工作为非AI专家提供了人工智能偏见的实际维度,同时强调了图像歪曲的社会和人为维度。毕竟,作者指出,“对正义的斗争一直是挣扎在图像和陈述的含义上。”我们创建的算法系统应该帮助我们做出更好的决定,预测我们的需求,并增强我们的生活,但是当系统建立在我们无法审查的缺陷假设的基础上时,这一结果似乎不太可能。

我们创建的算法系统应该帮助我们做出更好的决定,预测我们的需求,并增强我们的生活,但是当系统建立在我们无法审查的缺陷假设的基础上时,这一结果似乎不太可能。

与此同时,人们也在考虑更新的、同样有问题的技术,其中包括情感识别应用。有人估计,这一市场规模将达到200亿美元,而且还在不断增长。人工智能现在研究所2019年的报告坚称:“人工智能支持的影响识别继续在从教室到工作面试的各个环境中大规模部署,提供关于谁是‘有生产力’或谁是‘好员工’的敏感决定,往往在人们不知情的情况下。”尽管我们“对它是否能确保准确甚至有效的结果缺乏科学共识”——这一事实将这项技术与不受信任的19世纪科学(如颅相学)联系起来。36.

如果我们相信历史教导,我们可能会暂停在这里再次感谢赤裸裸的相似之处骨相在19世纪。在其他的目的,骨相被用来为白人男性的假想的种族和性别优越感科学论证。头部的形状也声称确定一个人是否是一个可靠的,“真正”的丈夫。37.这些例子似乎更明显的比声称的比例确定一些恐怖分子或学术研究者仅仅基于面孔,但至少caliper-wielding颅相测量,得出了这些结论是透明的,而不是从观点嵌入代码,既不简单也不顺眼。

手持机器人头的木制人偶
信贷:尼古拉•奥尔特加

与此同时,AI应用程序今天不断增长,特别是在人力资源和面试领域。对于有众多候选人的人选择,使用算法缩短列表的欲望是可以理解的,但对于候选人来说,面试很难不知道算法默默地判断和解释他们的每一个移动。例如,在Hirevue之后,在候选人在视频平台内记录其答案后,算法分析了所使用的介词的数量以及候选人是否均匀地笑了。首席技术官Loren Larsen表示,该工具可以检查“每台视频的大约25,000个不同的数据点,打破你的话,你的声音和你的脸。”38.为什么?那些经常微笑或经常使用手势的人是否被认为比那些不微笑的人更适合雇佣?39.在任何情况下,这些数据点都是对意见和代码中潜在偏见的明确邀请。

更重要的是,人工智能决策也可能涉及到生死攸关的情况。考虑著名的“电车问题”,假设一辆失控的电车朝着一群人驶去。如果电车是你控制的,你应该按下开关改变电车方向,让电车只撞死一个人吗?哪种选择更道德?如今,问题不再是假设:自动驾驶汽车的软件被设计成能在几毫秒内做出这类决定。如果有人把车停在自动驾驶汽车前面会发生什么?一个决定将会被做出——而且这个决定将会太快,以至于车里的人无法讨论、反对或上诉。2018年的一项研究显示,关于自动驾驶汽车在类似有轨电车的问题上应如何表现的伦理观点因文化而异;因此,一些汽车会根据道德原则做出与驾驶员相悖的决定。根据2020年2月的一篇文章,只有一个国家对自动驾驶汽车的行为采取了立场。 In its official guidelines, Germany states: "In the event of unavoidable accident situations, any distinction based on personal features (age, gender, physical or mental constitution) is strictly prohibited. It is also prohibited to offset victims against one another. General programming to reduce the number of personal injuries may be justifiable."40

更接近家庭的数字伦理

据全球教育市场智能公司HolonIQ称,人工智能在教育创新和投资方面产生了“爆炸”,预计到2025年,全球教育技术市场的增长将翻一番。显然,人工智能应用以及其中一些应用带来的伦理缺陷将越来越需要关注。信贷:查尔斯泰勒/羽毛房有机器人然而,对于其他非AI技术也存在强大的道德含义,正在积极推动和部署在高等教育中。一个例子是增强/虚拟/混合现实周围的创新星座。Emory Craig和Maya Georgieva有效地绘制了沉浸式技术邀请各种道德挑战的程度,作者认为是与沉浸式经验有关的一些令人不安的问题。Craig和Georgieva指出了一系列道德问题:学生数据,隐私和同意;骚扰;和可访问性问题。41.

考虑到更普遍的道德问题,EDUCAUSE发出了警告。2019年,EDUCAUSE十大IT问题聚焦于数据和分析,这是进入教育技术市场的预测技术和人工智能应用的核心。事实上,2019年十大榜单中有一半都与数据有关。信息安全策略是#1在列表上,有隐私在列表中首次出现在#3上。这反映了人们越来越认识几年前强调了新美国基金会的2016报告“无极和预测分析高等教育的危险中”,其中讲述了一所大学的困扰的故事,计划使用的数据来自学生的调查,敦促AT-风险学生辍学。42.

机器人行走
信贷:查尔斯泰勒/羽毛房

今年,2020年前十大IT问题列表仍在继续信息安全策略(再次#1)和隐私(移动到#2),但它还返回到其他区域中数据的重要性,包括数字集成(#4)。该报告提交人正如数据,人工智能和道德一起:“可持续性也有一个新的维度。数据通常被描述为一种新的货币,这意味着高等教育现在有两种货币管理:资金和数据。数据存储可能是廉价,但在管理和保护数据的过程中,别的别的廉价是便宜的,并使用AI和分析对道德支持学生和制度运作的过程。“43.

在2019年的另一份声明中,机构研究协会(AIR)、EDUCAUSE和国家学院和大学商务官员协会(nacbo)故意提出了具有挑衅性的标题“分析可以拯救高等教育——真的”,指出尽管有这么多的讨论,校园分析工作已经停滞。在这个夸张的标题下,分析声明清楚无误地表达了关注数字伦理的重要性。我们认为,为了实现机构目标,是时候利用分析“做大”了,但我们也坚持认为,我们需要谨慎行事。其中一个章节——“分析对真实的人有真实的影响”——阐述了“负责任地使用数据是一个不容商量的优先事项。”航空公司随后发表了自己的“道德原则声明”;2019年EDUCAUSE年会有几场关于道德的会议;NACUBO在其封面上写了“伦理为核心”业务总监杂志,其中包括推动供应商社区提高透明度的建议。这三个协会将在2020年继续进行讨论。44.

我们认为随着分析的时候,它是时候“走大”,以实现体制目标,但我们需要仔细。

这种关注是值得欢迎的,因为在2019年的最后六个月,主流媒体和高等教育媒体发表了一系列文章,指出高等教育有其自身潜在的“令人毛骨悚然的界线”问题。事实上,许多新闻报道都持怀疑态度,或者带有深刻的批判性。例如高等教育编年史“学生们在监视?"文章用副标题回答了自己的问题“数据跟踪进入挑衅新阶段”。一种福布斯一篇关于高等教育的年终预测文章直言不讳地总结道:“校园科技将变得更加令人毛骨悚然。”与此同时,华盛顿邮报》发表了一篇题为《高校正在把学生的手机变成监控机器,追踪数十万人的位置》的文章。45.

几个月前几个月,华盛顿邮报》审查了一系列公共和私立学院和大学的记录,并报告说,至少44家正在与外部咨询公司收集和分析潜在学生的数据,“跟踪他们的网络活动或制定预测分数以衡量每个学生的入学可能性."文章断言“绝大多数大学”不要告知学生他们正在收集学生的信息。作者表示,当他们在线审查他们发现的33个机构的隐私政策时,只有3次披露了跟踪的目的。另外30个省略了任何解释或未解释其跟踪的全部范围或目的。机器人头信贷:尼古拉•奥尔特加这篇文章还声称,“许多”学校没有给学生选择不收集数据的能力。这些故事如何转变的一个明显例子是纽约时报杂志他批评了大学招生办公室使用预测模型的做法。保罗·托夫(Paul Tough)宣称,这种模式不是为了促进多样性和卓越性,而是受到“对学费收入的渴望”的驱动。针对精英院校,Tough断言:“大学的预测模型和投入的具体性质可能会因院校而异,但产出总是一样的:承认更多富人的孩子。"46.简而言之,新闻标题并不支持,主流媒体对预测模型的有效和恰当使用也没有那么感兴趣。

我们2019年学生调查的EDUCAUSE调查结果强化了一个明显的担忧(见图2)。大多数学生(70%)同意他们有信心他们的学院或大学正在保护他们的个人数据,但不到一半(45%)同意他们从个人数据的收集和使用中受益。更少的人(44%)同意他们了解他们的学院或大学如何使用收集的个人数据。与此同时,EDUCAUSE 2019年教职员工调查的结果显示,教职员工对学校保护学生/教职员工/研究数据的能力以及对自身相关政策理解的信心明显下降。47.

图表说明学生对机构数据政策,集合和使用的观点的观点

图2.学生对机构数据政策,收集和使用的观点
来源:约瑟夫·d·加拉内克和本·舒尔曼,“不确定他们是在侵犯我的隐私,还是真的对我感兴趣,”数据字节(博客)教育事业回顾2019年12月11日

狂野西部的调控与抵抗

直立木槌嵌入分子模型状结构
信贷:尼古拉•奥尔特加

至少可以说,目前的形势是动态的。尽管新产品层出不穷,但仍有各种各样的强有力的声音和力量在努力回应数字道德方面的担忧。从很多方面来看,当前的情况有点像蛮荒的美国西部,一方面是教育科技产品率先上市的热潮,另一方面是相对不均衡的监管和立法方式。尽管如此,在世界各国领导人、有影响力的亿万富翁、活动团体、名人以及大多数持怀疑态度的普通民众的一致要求下,监管和立法仍在各地发生。奇怪的是,一些科技公司也加入了这个行列,大公司的首席执行官们呼吁监管。自然,有些人对那些将被监管的人要求监管的呼吁持怀疑态度,认为这要么是一种减缓竞争对手步伐的策略,要么是一种采取某种控制并限制不可避免的监管范围的努力。48.

与此同时,欧洲继续积极努力进一步保护隐私,同时也在推进相关技术。与此同时,它正在将人工智能的资金增加70%信贷:尼古拉•奥尔特加红色气球欧盟支持“人工智能随需应变平台”,以聚集一个围绕人工智能开发的社区,它显然打算围绕人工智能处理数字道德问题,并确保建立健全的法律和道德框架。例如,欧盟委员会的文件“可信人工智能(AI)道德准则”强调人工智能必须“为人类和公共利益服务”,并强调可信度。这些关键要求就像一本关于数字道德的书中的章节标题一样,包括“透明度”、“多样性、非歧视性和公平性”以及“问责制”49.

另一份关于责任的报告明确指出了欧盟各国继续监管的路径。2020年1月,欧盟委员会(European Commission)宣布,它正在考虑在三到五年内禁止在公共场所进行面部识别。除了英国退欧之外,英国也加入了欧洲对监管的呼吁,这一点从公布的要求人工智能公司承担责任的新建议就可以看出,其中包括加强审查,并提议成立一个新的监管机构,以应对“网络危害”。事实上,在英国,事情可能涉及个人,2019年的一份政府立场文件建议,科技公司的高管应该因破坏和非法活动面临“巨额罚款和刑事处罚”。50.

虽然欧盟在人工智能的监管以及数据和算法的使用方面走在了前列,但美国却落后了,或者至少缺乏统一的国家行动。由于联邦一级的问责机制不明确,一些独立的州正在采取更大胆的行动。例如,越来越多的州颁布了与自动驾驶汽车相关的某种形式的立法。许多新法律都是此类法律的首批法律,比如2020年1月伊利诺伊州的一项法律,要求雇主向求职者解释人工智能将如何使用,并获得他们的同意。在加州,几个城市已经禁止了面部识别,该州还通过了法律,禁止政治和色情深度造假,还通过了《支持在线透明度法案》(B.O.T. Act),规定某些机器人冒充人类销售产品或影响选民的行为是非法的。另一个“史无前例”的例子是,加州通过了《加州消费者隐私法案》(CCPA),该法案被认为是全面的,但其影响尚不完全清楚。51.

有一个在工作中炒作周期的一些立法,以及对技术,立法活动密切关注触目惊心的头条飘雪的飘雪。

单个州的法规不能代替联邦法律,州与州之间的不一致导致了“西部蛮荒”状态,不同州的治安官在不同的领域划定了不同的界限。与此同时,联邦政府可能会在2020年采取行动,因为有几项法案将提交给国会,由数据创新中心的人工智能立法跟踪系统在线跟踪。《2019年算法问责法》(Algorithmic Accountability Act of 2019)受到了极大关注,因为它增加了对人工智能和数据隐私的联邦人工智能监管国家法律评论该机构将这一立法提案与GDPR进行了比较。在某些情况下,大公司将被迫进行偏见和歧视审计,并解决发现的任何问题。作为一篇文章麻省理工学院技术评论总结:“只有一些立法者真正知道他们在谈论什么,但这是一个开始。”52.有一个在工作中炒作周期的一些立法,以及对技术,立法活动密切关注触目惊心的头条飘雪的飘雪。实事求是地讲,立法行动的第一波和规则制定可简单地等同于提高认识或影响以后的辩论时,更大的立法势头的基础之上。写作Bloomberg Law,Jaclyn Diaz的结论是,雇主和科技公司在不久的将来不担心新票据,因为立法者的重点是试图了解人工智能的影响。53.

最终,特别的世界各地的城市、州/省和国家各级都在努力,但它们极不一致,而且这些努力将永远落后于动态技术的发展。在全球层面,我们看到的是“全球分裂”的迹象,欧洲和日本与美国和中国走向不同的方向,而不是围绕道德和人工智能采取统一行动的共识。尽管如此,人们越来越认识到,最好的监管方式是全球性的,而这也是最难实现的。图灵奖(Turing Award)得主、Montréal宣言的倡导者约书亚•本吉奥(joshua Bengio)认为,如果没有强制性的全球方法,企业不会为了更加道德而自愿放弃竞争优势。54.

监管和立法正在产生并将继续产生显著的变化,但其他声音是重要的,也是前所未有的,比如科技公司员工在应对道德问题方面发挥着越来越积极的作用。员工罢工抗议公司行为,还有谷歌的梅雷迪斯·惠塔克(Meredith Whittaker)等引人注目的案例,他引发了科技公司的工人骚乱,并在离开谷歌后与凯特·克劳福德(Kate Crawford)共同创建了人工智能现在研究所(AI Now Institute),它关注人工智能的社会和道德含义。55.这些行动产生了结果。例如,在与员工交谈之后,Salesforce成立了一个道德和人道使用技术办公室(Office of Ethical and Humane Use of Technology),并聘请了一名首席道德和人道使用官来制定指导方针,评估技术的道德使用。然而,并不是所有的回应都是积极的。谷歌成立了一个顾问委员会,以应对公司在人脸识别和人工智能/机器学习公平性方面的挑战,并推进总体上的多元化视角。谷歌的道德委员会成立不到一周,就因被任命者之间的争议而以非常公开的方式解体了。这一结果引发了一场更大的讨论,即道德委员会是否可能起到作用。56.

在这个世界努力应对数字伦理的同时,主流娱乐已经让许多相关主题变得流行起来。毕竟,虽然我们大多数人可能都能说出一两本与数字伦理有关的书,但我们可以一口气说出一长串主流电影,这些电影戏剧化地展现了与技术相关的伦理过失的后果。1931年的电影版弗兰肯斯坦已经淡出人们的记忆,但取而代之的是许多大片和电视剧吗《少数派报告》《侏罗纪公园》《机械姬,星际迷航,西方世界.这些例子和其他许多例子都以令人信服的、平易近人的方式解决了数字伦理问题。

少数派报告(2002年)特别有前提,包括着名商场的场景这通常被认为是未来的一瞥。轰炸汤姆克鲁斯的角色与个性化的信息和邀请购买产品的邀请被突出显示为先进的新技术的一个例子(从不介陷该电影实际上是这种监视资本主义的诅咒批评)。克鲁斯的角色轻快地穿过商场,因为当局正在监视,追踪和跟踪,并通过当局 - 绘制与中国爆炸性的扩散和使用监控摄像机的比较(现在,从现在的7000万计划)或俄罗斯使用面部承认来执行Covid-19隔离。更重要的是,少数派报告关于“犯罪预犯罪”技术,在他们发生之前识别犯罪和罪犯,直接指出了当代努力,以利用人工智能预测犯罪。中国最近使用这些技术已经在头条新闻中,但美国和意大利已经雇用了类似的技术多年。57.

创造性表达的影响,尤其是以数千万观众观看的电影形式出现的影响,是不可低估的。一些学院和大学使用科幻小说向计算机科学家传授伦理学,这并不奇怪。58.前瞻性学术中心亚利桑那州立大学的科学中心和想象力以这种方式制定故意贡献。

带路

木制铅笔顶部的离子柱
信贷:尼古拉•奥尔特加

我不断惊讶和灵感来自弥补我们高等教育界的人们侧重于产生差异的频率。一部分维持我们的社区是什么,简单地放置了大学和大学所做的好处。高等教育的增长和增加的教育机会加强了民主,提高工资,减少贫困,为当地经济促进了促进了国家经济,改善了研究,普遍受益的社会。简而言之,鉴于高等教育导致了所有这些社会变革的方式,将高等教育视为迎接与数字伦理有关的挑战,完全自然。立法行动和监管可以惩罚和奖励行为,但不断变化的文化更加困难,更重要。

凭借其冰川的速度,高等教育从未被敏捷过。但是为了持久改变,当它找到一条路时,很难用冰川争论。

凭借其冰川的速度,高等教育从未被敏捷过。但为了持久改变,在找到它的道路时,很难用冰川争论。高等教育有潜力能够促进全面变革,并为下一代计算机和数据科学家,开发商和建筑师带来新的价值,我们目前正在高校教学 - 以及较大的社会。

我相信,高等教育能够并且将在以下四个领域发挥带头作用:大胆的做法;政策和道德框架;嵌入式伦理;以及学生对数字伦理的需求。

大胆的方法

一些高等教育机构参与了强大的嵌入式道德主题的决定性变化。例如,乔治亚州科技计划2040年刻意创新,终身教育- is对高等教育的深刻富裕的愿景,专注于通过部署在线学习,区块链,小额信贷,分析丰富的咨询,“规模的个性化”和高级AI系统(Georgia Tech是家园的新的学习者吉尔沃森,AI教学助理一名学生希望提名教学奖。由于其所有标题在部署技术方面表明,刻意创新的方法,并且在有意地强调具有强大的道德主题的内在伦理主题的创新性:“在大挑战中的总体主题和服务 - 学习 - 维持计划为全人教育提供道德和社会背景。“即使在课堂项目的水平,这种重点也是不可能错过,需要学生“在判断项目范围或持续时间之前探索社会或道德问题。”59.

东北大学(Northeastern University)是另一所正在进行彻底变革的大学,它在转型中有意引入了伦理意识。该校校长约瑟夫·奥恩(Joseph Aoun)在书中阐述了他对高等教育的愿景手机证明:人工智能时代高等教育(2017),他承认人工智能将产生戏剧性甚至令人不安的变化。他的回应是建议大学课程改革,为下一代学生在人工智能和机器人正在改变劳动力定义的世界中茁壮成长做好准备。伦理学家会对Auon的计划表示赞同,因为这是基于人文学科的——事实上,他主张一门学科叫做“人文学科”。Auon写道:“机器将帮助我们探索宇宙,但人类将面临发现的后果。人类仍然会阅读人类作家写的书,被人类想象中诞生的歌曲和艺术作品所感动。人类仍将采取无私或勇敢的道德行为,并选择为改善我们的世界和我们的种族而行动。”在他对人工智能和机器人时代的新大学的愿景中,他为人类机构开辟了一个中心角色——不是反对,而是伴随技术变革。

南方新罕布什尔大学在利用新兴技术方面采取了另一种道德观点。桑胡的全球教育运动(GEM)正在努力为非洲和中东五个国家的难民营和城市地区的难民提供获得完全认可的SNHU学位的机会。很难想象还有什么比这更有道德激励的举措了,它让只有3%的人接受大学教育成为可能。要想实现这种全球性变化,关键是要找到降低学位提供成本的方法。为了做到这一点,GEM领导者正在探索使用人工智能,与人类评估者一起工作,使他们的努力更可持续。

政策和框架

我并不是唯一一个指望高等教育担负起重塑数字道德的责任的人。高等教育媒体的头条新闻——诸如“高等教育能让硅谷更道德吗?”或“大学必须在道德和技术的桥梁上扮演一个角色”或“高等教育会抑制人工智能吗?”——也呼吁学术界。牛津大学人工智能治理中心(University of Oxford Centre for the Governance of AI)表示,人们对人工智能的发展有好有坏,而且显然到处都缺乏信任。尽管如此,公众最信任的还是校园研究人员。60.高等教育是上升到这一挑战的方法之一是通过政策和框架,以推进事业的发展。在美国院校承认,他们已经开发和维护的政策和做法,以保障学生的成功分析数据,包括规范的访问权限和“道德2017年和2018年节目之间EDUCAUSE核心数据服务数据的显着增加(从70%到76%)数据使用。”

政策发展的关键是有人在员工上专注于校园隐私等道德考虑因素。一个日益增长的领导指标是首席隐私官员(CPO)的崛起,这是一个相对较新的立场,反映并将隐私和道德作为优先关注的关注。高等教育信息安全理事会(HEISC)发表于与CEMANAUSE合作,aCPO欢迎套件也是一个CPO路线图。欢迎套件使得这一立场的挑战清楚:“大学和大学有多种隐私义务:他们必须促进道德和尊重的社区和工作场所,在那里学术和智力自由茁壮成长;他们必须与民事和个人自由平衡安全需求,机会对于使用大数据分析和新技术,所有这些都直接影响个人;他们必须是他们持有的个人信息的套管的好管家,其中一些高度敏感;最后,他们也必须遵守众多和某个时间重叠或隐私法不一致。“自创建和妥善资助CPO职位是一个关键步骤,令人鼓舞的是,宾夕法尼亚州蒙哥马利县社区学院的信息技术副总裁兼首席数字人员令人鼓舞,指出了CPOS正在上升高等教育。“我认为大多数大学将在未来五到七年内拥有隐私官员,”她说,实际上,这将是法律要求的。61.

高等教育通过政策来表达其价值,政策是带来变革的重要工具——不一定是快速的,但却是全面的。根据“道德政策”的定义有多宽泛或多狭窄,可能有几十种政策在起作用。许多高等教育机构列出了数百所。这些庞大的个人政策集合显然是必要的,但在道德和数字道德方面发挥领导作用的关键是一项将所有这些政策或声明联系起来的总体制度政策或声明。加州大学就是一个例子《私隐价值声明》从机构镜头定义隐私,并将其识别为必须与大学的其他价值和承诺相当平衡的重要价值和优先权。英国的公开大学有一个《诚信使用学生数据进行学习分析的政策》这提供了这种广泛的道德理解,以及致力于将学生数据的使用与核心大学价值观调整的部分,强调了机构范围的视角。像锡耶纳学院一样,一些机构拥有特定的IT员工政策,这些政策解决了技术专业人员独有的道德问题。根据锡耶纳学院前首席信息官Mark Berman的说法,所有IT人员都必须每年签署伦理声明准则,而不仅仅是雇用。62.

如果高等教育机构使数码道德,但这些建设edtech产品不认同我们的价值观的进步,我们不可能做出更全面进步。

最后,除了具体大学和大学使用政策和陈述加强承诺和期望的方式,国家和国际组织正在努力确保高等教育在这方面提供领导。计算机械协会为所有计算专业人员提供了全面的道德规范和专业行为,以及照明特定的案例研究和额外资源。Air的“道德原则的声明”类似地图涉及使用数据的总体伦理优先事项“以指导我们,因为我们宣传使用数据,分析,信息和证据来提高高等教育。”组织也在开发或采用重要的框架,提供可以采取的更具体,具体的道德行动。例子是高等教育和国际伦理预测分析的新美国五分框架蒙特利尔宣言人工智能的一个负责任的发展这旨图为公平,包容性和生态上可持续的AI发展(近2,000人和100多个组织签署了宣言)的国际对话制定道德框架和开放渠道。63.

政策是确保高等教育将数字道德问题放在首位的明确方法之一,但有许多相关方法可以实现这一目标。Kathy Baxter关于道德框架、工具包、原则和誓言的文章提供了许多例子。为了达到最有效的效果,这些高层政策或誓言也应得到具体努力的支持。例如,DJ Patil、Hilary Mason和Mike Loukides提出了一个强有力的例子,即使用清单是“将原则与实践联系起来”的关键方式。他们在下面提供了一个简短的道德清单,并指出了一个10页的版本。64.

数据项目工作人员检查表

  • 我们是否列出了如何攻击或滥用这项技术?
  • 难道我们测试了我们的训练数据,以确保它是公平和代表性?
  • 我们是否研究并理解了数据中可能的偏见来源?
  • 我们的团队是否反映了观点、背景和想法的多样性?
  • 我们需要收集什么样的用户同意才能使用这些数据?
  • 我们是否有一个来自用户的同意的机制?
  • 我们是否清楚地解释了用户同意什么?
  • 如果结果对人们造成伤害,我们是否有补救机制?
  • 如果这个软件在生产中表现不好,我们可以关闭它吗?
  • 我们是否测试了不同用户群体的公平性?
  • 我们是否测试了不同用户组之间的不同错误率?
  • 我们是否测试和监控模型漂移,以确保我们的软件随着时间的推移仍然公平?
  • 我们是否有保护和保护用户数据的计划?

来源:DJ Patil,Hilary Mason和Mike Loukides,宣誓书和清单奥莱利(网站),2018年7月17日。

很明显,对于学院、大学和更大的高等教育社区来说,制定道德政策、总体政策和框架是很有用的,以规划数字道德的领导力应该是什么样的。然而,如果高等教育机构取得了进步,但那些教育科技产品的制造者不认同我们的价值观,我们不太可能取得更全面的进步。EDUCAUSE核心数据服务2019年的数据显示,74%的机构同意/强烈同意,它们“有一个审查第三方或供应商(如云服务、连接应用程序)的数据安全和隐私的程序。”尽管这是一个很高的比例,但对于三分之一没有这些程序的机构来说,这令人担忧。考虑到这一点,EDUCAUSE和我们的合作伙伴正在努力寻找富有成效的方法,敦促供应商社区考虑我们的价值观,并以行动证明他们的承诺。高等教育社区供应商评估工具包(HECVAT)由HEISC和来自EDUCAUSE、Internet2和研究和教育网络信息共享和分析中心(rene - isac)的成员开发,是一个有用的工具,用于编制审查和标准化的提示,供采购过程中使用。虽然HECVAT不是专门为人工智能应用设计的,也没有一系列公开关注数字道德的提示,但EDUCAUSE HECVAT社区小组和EDUCAUSE首席隐私官社区小组都在讨论将隐私相关问题纳入HECVAT的方法。与此同时,该工具的当前版本不仅要求供应商确认他们是否有数据隐私政策,如果有,还要求证明该政策是否符合机构的道德原则。此外,HECVAT要求供应商和服务提供商证明他们愿意遵守与用户隐私和数据保护相关的政策。65.

嵌入式伦理

政策和其他承诺是促进和标志数字道德社会势头取得进展的重要途径,但个别机构的具体努力也代表着重要和具体的进展。2018年初纽约时报报道了康奈尔大学、哈佛大学、麻省理工学院、斯坦福大学和德克萨斯大学奥斯汀分校等机构的情况,这些机构都在发展,并在不同程度上要求学生开设伦理学课程。事实上,为了获得工程与技术认证委员会(ABET)的认证,计算机科学课程必须确保学生理解与计算相关的道德问题。哈佛大学的模式得到了全国的认可,旨在向学生灌输道德思维。根据哈佛大学自然科学教授芭芭拉•格罗茨的说法,独立课程是解决方案的一部分,但她指出,这种方法可能发出错误的信号,即伦理更像是“真正的工作”完成后才完成的顶点。哈佛是广泛共享模型,希望这种方法将着火,因为大学的设想一种文化转变,将导致“新一代的道德意识的计算机科学实践者”,这将激励新“消息灵通的决策者和企业组织伦理构建到模型的各个阶段design and corporate leadership." Bowdoin College is representative of other institutions that are working with faculty to bring about a similar shift: "So instead of just teaching one course in the subject, the aim is to help students develop what we are calling an 'ethics sensibility,' so developers will be aware of the implications of their work from the outset. We also want to help computer science faculty feel more comfortable teaching this type of content within their technical courses by providing the pedagogical framework and instructional resources to do so."66.

学术中心在这方面发挥着重要的引领作用。例如,成立于1986年的圣克拉拉大学(Santa Clara University)马库拉应用伦理学中心(Markkula Center For Applied Ethics)致力于用跨学科方法研究数字伦理学。在努力确保圣克拉拉大学的毕业生具有道德意识的同时,该中心还特别致力于与其他学院和大学共享免费资源,包括案例研究、简报、视频以及数百篇关于多个学科和领域的应用伦理的文章和其他材料。最近,中心增加了专门的资源《技术实践中的伦理》专为专业设置而设计,而不是在学术上使用。在没有收费的资源中,任何其他大学或大学都是由教练使用的技术伦理vallor(数据伦理,网络安全和软件工程伦理)的三种完整的模块,这些模块超过世界各地的一百名机构。中心道德决策框架配有智能手机应用程序,旨在通过更周到和道德决策过程来散步用户。

木图拄着一根木制铅笔
信贷:Fotoevents /伤风

机构行动的另一个例子是计算的雄心勃勃的新麻省理工学院施瓦茨曼,这表明高等教育重塑自身以应对构造变化人工智能推出的显著早期的例子。MIT的新闻稿和视频伴随这个数十亿美元的投资公布其描述为“自20世纪50年代初最显著结构性变化麻省理工学院。”新的大学都非常重视对道德和一个真正的跨学科的方法。五十新教师岗位中有一半将共同跨越MIT部门任命,寻求从其他学科的见解中受益。捐助苏世民董事长,CEO,以及黑石是全球领先的投资联合创始人公司总结的独特贡献高等教育可以使:“由于能够把最优秀的人才一起在人工智能的研究,开发和伦理,高等教育独特的优势,是孵化器的方式对私营和公共部门无法应对面临的挑战“。麻省理工学院校长L·拉斐尔·赖夫还强调大学的伦理焦点:“技术的进步必须齐头并进与那些预计这种非常强大的创新风险的道德准则的发展这就是为什么我们必须确保领导我们研究生提供世界不仅是技术巫术也是人类智慧,文化,伦理和历史意识,以利用技术的共同利益“。67.

从阴沉的公开声明,如当伊隆·马斯克称为人工智能“人类的生存威胁”,比喻的增长速度将穿插了一段新出现的“召唤恶魔,”斯坦福大学推出了自己的数十亿美元的项目:学院为以人为本的人工智能(HAI),还故意多学科组“放人和道德在AI的蓬勃发展领域的中心。”和价值陈述该研究所的新闻稿称,该研究所高度关注诚信、人性和跨学科性,“将成为斯坦福现有跨学科研究所的最新成员,利用斯坦福大学的合作文化解决学科边界的问题。”68.

当加州州立大学(California State University)和长滩大学(Long Beach)等学院和大学发展时,高等教育伦理中心的跨学科重点将充分实现“道德跨课程”在过去几十年的“贯穿课程的写作”工作的基础上提出的倡议。犹他谷大学(Utah Valley University)从事这项工作已有几十年,为道德教育开发最佳实践,如学生研讨会、教师夏季研讨会、奖学金等。毫不奇怪,该大学最近的伦理学工作有一个强烈的数字伦理学重点。它的“道德意识周”例如,在2019年,他们聚焦于“伦理、技术和社会”,并邀请了关于监控伦理、生物医学伦理、数字扫盲伦理、人工智能和学术技术的发言者。

学生对数字伦理的需求

最终的指标,高等教育的有效领导方式,因为没有人可以,当周围数码道德意识和决心是显而易见的最重要的位置:学生。毕竟,人们可能认为的公司,监管机构,并已被打开后管理潘多拉的盒子中的内容等大量的无功工作的混乱。但是,在高等教育中,我们有机会改造的方法来数字道德规范,为下一代的学生,谁就会反过来,弥补了下一代编码器,建筑师,科学家的数据,计算机科学家,软件开发商,开始 - 的起来的企业家,CEO们,以及各种决策者。这无疑是为什么马库拉中心的愿景陈述包括致力于“双下来形成下一代道德特征”的承诺。已经有一些证据表明学生正在回应机会。根据这一点纽约时报,许多有“羞辱大型技术”的学生和以前在高调技术公司工作前景的前景现在正在寻求“原则和高薪”的工作。对于这些学生来说,“宇宙谷最有利可图的职位不值得伦理的乐园,”有着越来越多的情绪。“69.

关于数字伦理的七个问题

  1. 是否存在与校园中的数字伦理有关的关注点?你应该发起一个吗?
  2. 您的校园是否有与隐私和数字伦理有关的书面政策或指导方针?你能找到它们吗?
  3. 你知道谁的全职工作是担心道德问题吗?你和她或他吃过午饭吗?
  4. 当校园里有人开发一个使用学生数据的应用程序时,在工作开始之前是否使用了任何道德框架?需要吗?
  5. 如果校园里有人购买了一份申请是否需要进行道德审查?
  6. 你知道你的校园正在做什么,以确保下一代开发人员和技术专业人员(我们的学生)有一个强大的数字道德思维模式吗?
  7. 今年你是否比去年更了解数字道德?明年你的消息会更灵通吗?在这么多事发生的情况下你要怎么做到这一点?

下一代的道德

不能由有志于推动数字道德人忽视的一个现实是,变化很可能只是逐步发生。另一种令人生畏的现实是简单的事实,在大约时间,我们完全包裹围绕当前设定的后顾之忧,陷阱,暴行和解决方案的我们的脑海中,将有一组新的数字伦理困惑摆在我们面前。例如,已经有大约需要一个新的学科一些初步的考虑重点放在“机器行为,”基于这样的想法,“我们无法证明的AI剂是由它的源代码看,任何超过道德的我们可以证明,人类是通过扫描他们的大脑好。”取而代之的是,确定一个给定的人工智能是否是​​道德取决于我们的行为细节的学术研究,就像人类。而在对的时间,我们解决,我们将开始搏斗人工实体是否应该有道德的保护,或者至少被给予动物伦理的保护。东北大学的John BASL认为:“在对动物,甚至对人体进行研究的情况下,适当的保护措施,建立后,才严重的道德越轨行为曝光后(例如,在不必要的活体解剖,纳粹医学战争罪和塔斯基吉梅毒研究),随着AI,我们有机会做的更好。”70

木铅笔
信贷:尼古拉•奥尔特加

这一次,我们有机会做得更好,从道义上讲,我们有必要做得更好。我们每个人——以及高等教育集体——都可以而且必须引领这条道路。在监控资本主义时代,Zuboff引起了我们对监视资本主义转变为人类经验的想法,如通过数据所表达的新商品,进入了剥削和滥用的新商品,就像“自然曾经的草地和森林一样,他们跌倒了市场动态。”这是一个强大的镜头,以欣赏受到威胁的美丽和无所作为的后果。爱尔兰曾经是一个茂密的森林岛,森林80%。随着对木材的需求,建立海军并燃料的工业革命火灾,到19世纪末,森林覆盖率下降到1%。通过拨款和增量进步,爱尔兰政府希望在2046年之前达到20%的森林覆盖。

技术创新的世界给我们带来惊奇和机遇,激励和激励我们。我们相信这些即将到来的创新将使世界变得更好,这是乐观的源泉。与此同时,不断前进的动力可能会使我们看不到关注至关重要但远没有那么光鲜的伦理和道德义务的必要性。如果我们不能在创建新的数字生态系统的早期阶段严肃对待我们的道德责任,后果将是巨大的,就像森林消失一样难以逆转。现在就在我们各自的学院和大学校园里采取行动,可以帮助我们避免以后补救的需要。现在就采取行动,我们可以继续向前迈进,享受创新的新技术的发展,同时也有信心在道德的基础上向前迈进。

约翰O ' brien的签名

笔记

  1. John Del Signore,“omgggggg!发短信的青少年女孩落入开放的人孔,”Gothamist,2009年7月10日;查理•酢浆草属“少女落入沙井虽然短信,家长苏”《连线》杂志,2009年7月13日。
  2. 奥黛丽·沃特斯写道:“我认为,我们的想象力和我们对教育技术的讨论引发了某种健忘症。我们忘记了所有的历史——所有的技术历史,所有的教育历史。一切都是新的。每个问题都是新的。每个产品都是新的。我们是第一个以这种方式体验世界的人;我们是第一个尝试设计解决方案的。”继续萎缩,《教育科技与学校商业化》黑客教育(博客)年,2016年6月14日。
  3. “大展览”克利夫兰艺术博物馆(网站),[n.d.]。
  4. Whitby Museum的Tempest Pupposticator也通过其更精确的名称:“由动物本能进行的”大气电磁电报。“
  5. Vincze米,“20世纪的放射性产品非常可怕,”Gizmodo,2013年5月9日。另见“放射性庸医疗法”,橡木岭相关大学,卫生理理历史仪器博物馆收藏(网站),1998年5月28日。
  6. 保罗·杨,“烹饪动物:伟大展览的经济人,”维多利亚时代的文化文化36(2008)。
  7. “勒德分子是谁?他们想要什么?”权力,政治和抗议,[N.D.]。
  8. 约翰•奥布莱恩“战略IT:让我们走到这里的东西不会让我们走到那里,”教育事业回顾53,不。6(2018年11月/ 12月)。
  9. Susan Grajek和2019-2020年EDUCAUSE IT问题小组,“十大IT问题,2020:数字转型的驱动开始,”教育事业回顾特别报告,2020年1月27日;马尔科姆布朗等人,2020 EDUCAUSE Horizo​​n报告:教学版(路易斯维尔,CO:教育,2020年)。
  10. 想要对助教吉尔·沃森早期的“喧闹”和最近的版本有一个好的回顾,请参阅玛格丽特·塔特,“吉尔·沃森的二人组很棒,”佐治亚理工学院(网站),2018年7月30日。
  11. 安东尼Regalado,“何建奎面临三年的克里斯特婴儿的监狱,”麻省理工学院技术评论,2019年12月30日;大卫·希拉诺斯基“俄罗斯'Crisp-Baby的科学家已经开始在人类卵中编辑基因,目标是改变聋基因的目标,”自然,2019年10月18日。
  12. 马修·沙“科学家们正在赋予死去的大脑新的生命:可能会出什么问题?”纽约时报杂志,2019年7月2日。
  13. 詹姆斯•文森特“OpenAI已出版的文本生成AI它说太危险了分享,”边缘,2019年11月7日。
  14. 再看看《哈利·波特》的人工智能叙事,它会产生这样的句子哈利穿过场地朝城堡走去,皮革般的雨幕拍打着他的鬼魂。罗恩站在那里,疯狂地跳着踢踏舞。他看见了哈利,立刻开始吃赫敏一家。”罗西考尔,“AI试图写《哈利·波特》,结果搞错了,”Iflscience,2017年12月14日。
  15. 凯瑟琳·斯多普,“欺诈者使用AI在不寻常的网络犯罪案中模仿首席执行官的声音,”华尔街日报》二○一九年八月三十○日。
  16. 许多场景都涉及一个国家或世界领导人在视频中做或说一些挑衅性的事情。具有讽刺意味的是,一个与加蓬可疑视频有关的非常真实的政变实际上是一个真实的视频,人们认为是深度伪造的。看到凯伦郝,“深度造假最大的威胁不是深度造假本身,”麻省理工学院技术评论,2019年10月10日。
  17. Kirsti梅尔维尔,“Deepfake色情视频的阴险崛起 - 以及一个不会沉默的女人,”ABC Radio National,2019年8月29日。
  18. 梅丽莎·布雷耶,《恐怖娃娃卷土重来:不买Hello芭比的8个理由》环境保护狂,2015年的11月9日;弗仑克尔Sheera,“一个可爱的玩具把黑客带进了你家,”纽约时报,2017年12月21日;Sara H. Jodka,“玩具互联网:连接玩具的法律和隐私问题,”迪金森赖特(网站),2017年12月;Brian raftery,苹果收购《Hello Barbie》背后的语音技术公司财富,2019年2月15日。
  19. 亚莎Barbaschow,《微软及其失败的Tay人工智能机器人的教训》ZDNet,2019年7月24日;乔恩·拉塞尔,“微软人工智能机器人Tay重返Twitter,发表垃圾邮件长篇大论,然后又睡着了,”TechCrunch,2016年3月30日;戴维阿尔巴,“这是你的错,微软的青少年啊变成了这样的混蛋,”《连线》杂志,2016年3月25日。
  20. 《如果可以我会脸红:通过教育缩小数字技能的性别差距》(平等与教科文组织,2019)。
  21. 史蒂夫·韦托威克,《聊天机器人用户的诅咒》介质,2018年8月17日;肯塔罗罗富山,极客异端:从科技狂热中拯救社会变革(纽约:2015年公共事务)。
  22. 布莱恩·亚历山大,“高等教育、数字鸿沟和巴尔干化的互联网”教育审查52岁的没有。(2017年11月/ 12月6日)。由于在COVID-19大流行期间过渡到紧急远程学习,这些差距变得更大。
  23. 吉尔出版社,《人工智能:关于聊天机器人和语音助手的33个事实和预测》福布斯, 2017年5月15日;丽贝卡•汉德斯“到2020年,你更有可能与之交谈而不是与你的配偶,”公司,2018年4月2日。
  24. 涉足,“算法应该修复保释系统。他们没有,”《连线》杂志2月19日,2020参见凯德梅斯和亚当Satariano,《一种给予或剥夺自由的算法》纽约时报,2020年2月6日(2012年2月7日更新)。
  25. 菲利普凹凸,“谷歌的‘最终选举结果’头条新闻链接指向了一个假数字的假新闻网站,”华盛顿邮报》,2016年11月14日。
  26. 乔纳森•科恩“谷歌的广告歧视着妇女和颜色的人民”BRIGHT杂志2019年5月16日。
  27. 阿豹,“轻浮的还是Friendzone ?新的人工智能扫描你的短信寻找真爱《连线》杂志,2019年9月16日。
  28. 布莱恩商人,“Predictim声称它的AI可以标记'冒险的保姆,”Gizmodo,2018年12月6日。
  29. 特里斯坦格林,“斯坦福同志雷达人工智能是一派胡言,”TNW(网站),2018年2月20日。
  30. Faception,“我们的脸反映了我们的个性,”Youtube,2016年6月9日。“数十亿美元的机会”引用来自他们视频。
  31. 喀什米尔希尔,《神秘的公司可能终结我们所知的隐私》纽约时报2020年1月18日(2020年2月10日更新)。
  32. 希瑟·墨菲,“为什么斯坦福大学的研究人员试图建立一个‘同志探测器’机”纽约时报,2017年10月9日。
  33. 凯伦浩,“美国政府研究确认大多数人面部识别系统是种族主义者”麻省理工学院技术评论2919年12月20日
  34. 汤姆•黑尔“这段广为流传的种族主义洗手液视频揭示了一个更大的问题,”2017年8月18日。关于英国,请看罗伯特·布斯,“警察面临呼吁结束面部识别软件,”《卫报》,2019年7月30日。
  35. 凯特克劳福德和特雷弗Paglen,“挖掘ai:机器学习训练套装中的图像政治,“AI现在研究所,2019年9月19日。
  36. 夏洛特Jee,“情感识别技术应该被禁止,一家人工智能研究所说,”麻省理工学院技术评论2919年12月13日;凯特·克劳福德等人,AI Now 2019报告(纽约:AI Now Institute,2019)。
  37. 萨希尔·奇力,《面部识别背后的种族主义历史》纽约时报,2019年7月10日。
  38. Terena Bell,“这个机器人判断你在求职期间微笑的微笑,”快速公司,2019年1月15日。
  39. 这对内向的人来说意味着什么,他们可能没有那么多的微笑或手势?在EDUCAUSE 2016年年度会议上,苏珊·凯恩敦促与会者庆祝内向型工作和领导风格,避免在外向型风格中产生偏见。见罗杰·里德尔,“2016年EDUCAUSE周三:内向者的力量,最重要的IT问题,”教育潜水,2016年10月26日。
  40. 艾米Maxmen,“自动驾驶汽车的困境表明,道德选择不是普遍的,”自然2018年10月24日;马克•布坎南“如何建造一辆道德规范的自动驾驶汽车,”彭博,2020年2月6日。
  41. HolonIQ,“到2025年,全球教育技术市场将达到3410亿美元,”新闻稿,2019年1月24日;埃默里·克雷格和玛雅·乔治耶娃,“vr和ar:未来的道德挑战,”转变高等教育(博客)教育事业回顾,2018年4月10日。
  42. Susan Grajek和2018-2019教育事业IT问题小组,《2019年十大IT问题:学生基因组计划》教育事业回顾特别报道,2019年1月28日;Manuela Ekowo和Iris Palmer,预测分析在高等教育中的前景与危险:一种景观分析(华盛顿特区:新美国,2016年10月)。
  43. Grajek,“2020年十大IT问题。”
  44. AIR、EDUCAUSE和NACUBO,“分析可以节省高等教育,真是”(2019 8月);约翰•奥布莱恩“我们打算这么做——真的,”教育事业回顾55岁,没有。1 (2020);机构研究协会,AIR道德原则声明,2019年9月;丽贝卡柯尼希,“在Educause,监控学生数据的推动遇到了隐私和公平方面的担忧,”EdSurge,2019年10月17日;霍莉德雷克和玛西娅火腿,“隐私事项:道德和监管方法,”教育年会,芝加哥,伊利诺伊州,2019年10月17日;Carrie Klein和Michael Brown,《道德的核心》业务总监, 2019年4月。
  45. 李·加德纳“学生们在监视?数据跟踪进入了一个令人激动的新阶段。”专题报告,高等教育编年史, 2019年10月13日;德里克。牛顿,“不要感到惊讶,如果这五件事教育在2020年发生,”福布斯,2019年12月31日;德鲁哈韦尔,“大学正在把学生的手机变成监控机器,追踪数十万人的位置,”华盛顿邮报》2019年12月24日。
  46. Douglas Macmillan和Nick Anderson,“学生追踪,秘密分数:大学招生办公室在申请者申请前如何排名,”华盛顿邮报》, 2019年10月14日;保罗艰难,“大学招生办公室真正想要的是什么?”纽约时报杂志2019年9月10日。
  47. 约瑟夫·加拉内克和本·舒尔曼,“不确定他们是在侵犯我的隐私,还是真的对我感兴趣,”数据字节(博客)教育事业回顾,2019年12月11日。
  48. 法里德·本·阿莫尔,“83%的美国人希望加强数据隐私监管,”世界经济论坛,2018年4月27日;商业与人权资源中心,“科技公司呼吁政府。监管人工智能,”[N.D.];“Zuckerberg的呼吁更多规定”愤世嫉俗“,但有些事情会发生,”福克斯业务(网站),2019年4月1日。
  49. 欧洲委员会(欧共体),“人工智能”,更新了2020年3月11日;欧洲委员会,“Turnworthy Ai的伦理指南”[https://ec.europa.eu/futurium/en/ai-allanics-consultation/guidelines#top],2019年4月。
  50. 责任和新技术专家组 - 欧盟委员会的新技术形成,人工智能和其他新兴技术的责任,欧盟,2019;Foo Yun Chee,“欧盟挑挑捡捡五禁止在面部识别技术在公共场所”路透社报道,2020年1月16日。另见Zach Campbell和Chris Jones,“泄露的报告显示欧盟警方计划泛欧识别数据库网络,”拦截,2月21日2020年;查理奥斯本,“英国AI顾问呼吁在线平台对用户内容定位负责,”0天(博客)ZDNet,2020年2月4日;哈达黄金,“英国至技术执行:清理平台或面对”实质性“罚款”CNN的业务,2019年4月8日。
  51. 蕾切尔Myrow,“当美国犹豫不决时,欧洲却忙于制定人工智能法规。”kqed,2019年4月9日;克劳福德等人。,AI现在2019年报告;《自动驾驶汽车,自动驾驶汽车立法》全国州议会会议(网站),2020年2月18日;詹妮弗•贝茨“密切关注人工智能监管和立法,”国家法律评论,2019年6月14日;雷切尔梅斯,“超越旧金山,更多的城市对面部认可说不,”CNN的业务,7月17日,2019;Rob萨布伦“加利福尼亚州新法律处理政治和色情假货,”TechSpot,2019年10月7日;泰勒athmaker,“在加州,现在一些机器人假扮人类是违法的,”每日野兽,2019年7月5日。
  52. 数据创新中心,“AI立法追踪者 - 美国,”2019年12月2日更新;S.1108算法2019年算法法案;贝茨“关注AI”;凯伦浩,“国会想要保护你不受偏见算法、深度造假和其他糟糕人工智能的影响,”麻省理工学院技术评论,2019年4月15日。
  53. 贾克琳·迪亚兹,“国会在工作中追赶人工智能,”Bloomberg Law,2019年8月27日。
  54. 大卫马修斯,“新的研究联盟巩固了人工智能伦理的分歧,”高等教育内部,2019年8月23日;戴维德·卡斯特尔维奇,“AI先锋:虐待的危险是非常真实的,”自然2019年4月4日。
  55. 马克·伯根和约书亚·布鲁斯坦,“谷歌抗议领袖离开,警告公司不受控制的权力,”彭博,2019年7月16日更新。
  56. 美联社,“大型科技公司的员工前所未有地畅所欲言,”美国新闻与世界报道,2019年8月25日;Kelsey Piper,“谷歌全新的人工智能道德委员会已经分崩离析,”vox.2019年4月3日;詹姆斯•文森特“AI伦理的问题,”边缘2019年4月3日。
  57. 布莱恩克拉克,“看这个BBC记者试图逃避中国大规模的闭路电视网络,”下一个网页,2017年12月13日;易舒ng,“中国正在用人工智能来预测谁将是下一个犯罪嫌疑人,”哑,2017年7月24日;罗宾·迪克森“在俄罗斯,面部监测和监狱的威胁被用来制作冠状病毒检疫,”华盛顿邮报》2020年3月25日;Randy Rieland“人工智能现在被用来预测犯罪,但它有偏见吗?”史密森尼杂志,2018年3月5日。
  58. 格雷戈里·巴伯,《科幻小说能教会计算机科学什么是道德规范》《连线》杂志2019年8月26日。
  59. 佐治亚理工大学教育创新委员会,刻意创新,终身教育:最终报告(亚特兰大:佐治亚理工学院,2018年4月)。
  60. 八宝张和艾伦大法,人工智能:美国态度和趋势,执行摘要(牛津:AI的治理中心,牛津大学人类研究所的未来,2019年1月)。
  61. 高等教育资讯保安委员会高等教育CPO引物,第1部分(路易斯维尔,CO:教育,2016年8月);Lindsay McKenzie,“优先考虑隐私”,在高等教育内部,2019年10月18日。参见西德尼·约翰逊,“首席隐私官员:高等教育中的一个小但不断增长的舰队,”EdSurge2019年3月25日;和瓦莱丽•沃格尔“高等教育首席隐私官员”教育事业回顾, 2015年5月11日。
  62. 马克·伯曼的个人电子邮件,2020年2月12日。
  63. 计算机机械协会,ACM道德和职业行为准则:肯定我们的义务使用我们的技能造福社会(纽约:ACM,2018年);机构研究协会,“航空公司道德原则”(2019年9月);Manuela Ekowo和Iris Palmer,高等教育中的预测分析:道德使用的五个指导实践(华盛顿特区:新美国,2016年3月6日);加拿大 - 东盟商业理事会,“蒙特利尔宣言人工智能的负责任的发展”(2019年11月)。
  64. 凯西贝克特,“道德框架、工具包、原则和誓言——我的天!”,"Salesforce博客,2020年3月3日;DJ Patil,Hilary Mason和Mike Loukides,宣誓书和清单奥莱利(网站),2018年7月17日。
  65. 教育,“高等教育社区供应商评估工具包” 2019年11月21日。
  66. 娜塔莎的歌手,“科技的道德”黑暗面“:哈佛,斯坦福等人想解决它,”纽约时报2018年2月12日;保罗•Karoff“嵌入计算机科学课程,科学技术的伦理,”哈佛大瞪羚, 2019年1月25日;汤姆•波特“鲍登被选为计算机科学伦理先锋挑战赛”鲍登的消息,2019年4月30日。
  67. 麻省理工学院新闻办公室,“麻省理工学院重塑自己以塑造未来,”麻省理工学院的新闻2018年10月15日。
  68. 伊丽莎白dwoskin,“斯坦福帮助开拓人工智能。现在大学想在其中央,为人类”华盛顿邮报》, 2019年3月18日;艾米亚当斯,斯坦福大学成立以人为中心的人工智能研究所斯坦福大学新闻2019年3月18日。
  69. 艾玛戈德伯格,“”Techlash“命中学院校园,”纽约时报, 2020年1月15日更新。此外,Crawford等人,AI现在2019年报告,详细列举了许多学生组织反对道德缺失的例子。
  70. Iyad Rahwan和Manuel Cebrian,“机器行为需要成为一门学术学科,”鹦鹉螺, 2018年3月29日;John Basl和Eric Schwitzgebel, ed. Nigel Warburton,“AIS应该具有与动物相同的道德保护”永旺,2019年4月26日。索菲亚的故事是在沙特阿拉伯获得公民身份的机器人是有效的(Yvette Tan,“人们愤怒的是,索菲亚机器人的权利比沙特阿拉伯大多数女性更多,”哑,2017年10月27日)。

约翰·奥布莱恩是教育总裁兼首席执行官。

教育事业回顾第55号,第2号(2020年)

©2020约翰·奥布莱恩。本文的文本是根据知识共享署名非商业性无衍生品4.0国际许可