我们将满足于希伯来誓言的数据科学中更多的数据知识

“我向Hypatia,Lovelace,Turing,Fisher(和/或Bayes)以及所有统计学家和数据科学家发誓,使他们成为我的见证人,我将根据自己的能力和判断,进行这项宣誓。还有这个契约。”

这是数学家和数据科学家的“希波克拉底誓言”的第一行吗?伦敦大学学院城市数学系副教授汉娜·弗莱(Hannah Fry)认为,数学家和数据科学家需要这样的誓言,就像医生发誓只为患者的最大利益行事一样。

“在医学上,您从第一天开始就学习伦理学。在数学上,它充其量是必不可少的。从第一步开始,就必须在您迈出的每一步中始终走在头脑前,”弗莱指出。

但是,真的需要希波克拉底誓言的技术版本吗?在医学上,这些誓言在不同的机构之间有所不同,并且在其近2500年的历史中已经发生了很大的变化。的确,围绕宣誓是否仍然与执业医生有关存在一些争论,尤其是因为这是法律,而不是最终必须遵守的一组古希腊原则。

数据科学如何达到需要道德承诺的地步?当然,有很多有害算法的例子-例如,刑事量刑算法被证明不成比例地建议将低收入人群和少数民族送入监狱。

类似的危机导致以前提出了道德承诺的提议。在2008年全球金融危机之后,金融工程师伊曼纽尔·德曼(Emanuel Derman)和保罗·威尔莫特(Paul Wilmott)的宣言宣告经济建模者发誓不要“给使用我模型的人以错误的态度安慰其准确性,相反,我将明确提出其假设并疏忽。”

就像可以从小就了解偏见一样,这些算法的偏见也是他们受过训练的结果。这些算法的一个共同特征是使用了黑盒算法(通常是专有算法),其中许多算法是使用统计偏差数据进行训练的。

就刑事司法而言,该算法的不公正结果源于以下事实:从历史上看,少数派在监狱人口中所占比例过高(很可能是长期以来人类的偏见所致)。因此,该偏差会被算法复制并可能加剧。

机器学习算法是根据数据进行训练的,只能预期产生限于这些数据的预测。偏见,偏见。

承诺,诺言

遵循道德承诺会对这些算法的设计者有所帮助吗?也许可以,但是对统计偏差的更多了解可能就足够了。长期以来,抽样中无偏见的问题一直是统计的基石,对这些主题的培训可能使设计者退后一步并质疑其预测的有效性。

弗莱(Fry)自己过去曾对此问题发表过评论,称人们有必要“注意数据中的偏见最终会如何传播到您正在做的分析中”。

但是,尽管无偏表示的问题在统计中并不新鲜,但在有争议的领域中越来越多地使用高性能算法,使得“数据素养”比以往任何时候都更加重要。

问题的一部分是可以轻松地应用机器学习算法,这使得数据素养不再仅对数学和计算机科学家特别重要,而对整个公众来说尤其如此。广泛的基本统计和数据素养将有助于提高对具有统计偏差的问题的认识,并且是防范不当使用算法的第一步。

没有人是完美的,虽然提高数据素养会有所帮助,但仍然可以忽略意外的偏见。算法也可能有错误。防止此类问题的一种简便(描述)方法是使其公开可用。这样的开源代码可以共同负责偏差和错误检查。

诸如此类的努力开始出现,例如普林斯顿大学的Web透明度和责任制项目。当然,许多专有算法都是出于商业目的,这会使透明度变得困难。因此,监管框架很可能在这一领域变得重要和必要。但是前提是从业人员,政治家,律师和其他人员必须了解有关模型广泛适用性及其固有的统计偏差的问题。

道德无疑是重要的,在一个完美的世界中,道德将构成任何教育的一部分。但是大学学位是有限的。我们认为,数据和统计素养是一个更加紧迫的问题,并且可能有助于防止将来出现更多“不道德的算法”。

声明:本站所有作品图文均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系我们!