趋势:在授权生效的情况下,CLEAR应用作为疫苗验证方法在西雅图地区获得官方批准
华盛顿大学的Rachael Tatman和Emily M. Bender教授。(华盛顿大学的照片)

编者按:这是一篇由华盛顿大学教授撰写的客座文章艾米丽·m·本德蕾切尔Tatman她是华盛顿大学的毕业生,在监狱环境中使用人工智能。

汤森路透基金会报道8月9日,美国众议院的一个小组要求司法部探索使用所谓的“人工智能”(AI)技术来监控囚犯的电话交流,表面上的目的是防止暴力犯罪和自杀。

这不是一个假想的练习:“由警察为警察创建的”LEO Technologies公司已经提供了对囚犯与他们所爱的人通话的自动监控服务。

作为研究语音识别和其他语言技术的发展和应用的语言学家,包括这些技术对不同语言的作用(或不作用)的方式,我们想要清楚而强烈地声明,无论从技术上还是伦理上来说,这都是一个糟糕的想法。

我们反对以任何方式进行大规模监测,特别是在未征得弱势群体同意或无法选择退出的情况下对他们进行监测。即使这种监视可以被证明符合被监禁者和他们所属的社区的最大利益——我们不认为这是可能的——试图将这一过程自动化也会增加潜在的危害。

该技术对被监禁者的主要好处是防止自杀,但使用“基于关键词和短语”的方法(如低成本技术)是不可行的描述其产品).甚至Facebook的自杀预防项目也面临同样的问题来自法律和伦理学者的审视,发现关键词是一种无效的方法不考虑环境因素.此外,人类经常把计算机程序的输出看作是“客观的”,因此根据错误的信息做出决定,而不知道它是错误的。

即使预防自杀的能力是具体的和可证明的,但事实并非如此,它也有巨大的潜在危害。

自动转录是这些产品的关键部分。语音识别系统的有效性取决于其训练数据和在部署环境中接收到的输入之间的紧密匹配,对于大多数现代语音识别系统来说,这意味着一个人的语音距离新闻播音员标准的距离越远,这个系统在正确抄写他们的话方面的效率就越低。

这样的系统不仅毫无疑问会输出不可靠的信息(虽然看起来非常客观),系统也会更频繁地对人们失败,美国司法系统最经常失败。

2020年的一项研究其中包括LEO Technologies用于语音转录的亚马逊服务,这证实了早期的发现,即使用非裔美国英语的人的单词错误率大约是白人的两倍。考虑到非裔美国人被囚禁的比率大五倍这些工具非常不适合他们的应用,并有可能加剧本已不可接受的种族差异。

这种监视不仅包括被监禁者,也包括与他们交谈的人,是对隐私不必要的侵犯。加上所谓的“人工智能”只会让情况变得更糟:这些机器甚至无法准确地转录家庭温暖舒适的语言,同时也会给不准确的转录带来“客观性”的虚假光环。那些有被监禁的亲人的人,是否应该承担基于错误的谈话记录进行辩护的责任?这种侵犯隐私的行为尤其令人恼火,因为被监禁的人及其家人经常不得不这样做首先要支付高昂的电话费

我们敦促国会和司法部放弃这条道路,避免将自动预测纳入我们的法律体系。低轨道技术公司声称要“将执法模式从反应式转变为预测式”,这种模式似乎与必须证明有罪的司法系统不一致。

最后,我们敦促所有相关人士对“人工智能”应用保持高度怀疑。尤其是当它对人们的生活产生实际影响时,尤其是当这些人,比如被监禁的人,特别脆弱时,更是如此。

就像你正在读的一样?订阅GeekWire的免费时事通讯,抓住每一个标题

GeekWork上的工作列表

在网上找到更多工作yabo10 .雇主,在这里发布工作