偏见:数据如何危险

偏见:数据如何危险

毫无疑问,数据是今天的不可替代部分’科技世界。只是通过阅读这个,你’re生成数据流’LL分析营销,销售等,但在某种程度上,数据可能会变得偏见并产生问题。偏见数据是每个行业最大的忽视危险之一。数据是理论中立的,因为它没有’T持有意见,只是细节。但是,处理数据的任何人都可以轻松地将其转换为具有不同的含义。从数据收集到解释的一切都在人类偏见的手中。有时候,它’数据本身是这样的’危险。当然,像人工智能和机器学习一样的技术已经取得了很大的进步,但偏见的数据是破坏性的,可能有灾难性的后果。

灾害:人类偏见或缺少数据?

偏置数据是偏斜或故意专注于计算结果的数据。人工和机器学习使我们能够创建自主软件。所有AI需求都是正确的算法集。但是,无论数据和AI如何独立, 我们 仍然有缺陷。放入程序或软件的算法和数据可能无意地携带强大的偏见。算法偏置通常来自我们写的代码。您选择包含或排除的内容可以大大改变结果。微软之前推出过 AI社交媒体帐户名为Tay 旨在表现为年轻的千禧年,并从互动中学习。这很快变成了一个 种族主义,性别灾难 社交媒体用户们利用泰铢之后’模仿。是否有一种避免炎症演讲的算法?猜猜没有,但应该有。数据肯定是“missing”在设计泰铢时,将它留在互联网巨魔和偏执狂的怜悯中。

104189209证明偏差数据有多强,麻省理工学院’s Media Lab created 诺曼,第一个AI精神病患者。团队向诺曼喂养非常黑暗和令人毛骨悚然的内容,从非常不恰当的削弱,从而创造一个精神病患者。用墨水印迹试验测试所得到的个性。虽然墨水污染测试是主观的,但诺曼只传达了令人毛骨悚然的内容,没有别的,因为 that’他喂了他的数据。泰铢和诺曼都从偏见的数据学到了,它没有’要么要么变得替换。 AI Personas包含在他们的数字世界中,但现实世界中的歧视数据具有更危险的影响。

督导

潜在的偏见产生 缺陷的算法 创造强烈的偏见。所有可怕的’S如此深入地根深蒂固’重新重新转换为数据。来自临床病例和研究的大多数医学数据 only focus on men。当然的数据是准确的,但公然的性别歧视被忽视。 好吧,为什么不’他们只是与女性进行更多的研究? 性别偏见 是如此强烈,妇女简单地严重被认真对待 耐心。今天的研究仍然吸引了较少的女性科目,一些临床信息是过去的男性受试者。妇女继续被忽视 误诊 因为原始偏见,这可能导致死亡。医疗领域的女性有 在工作场所推进的机会较少。克服偏见的偏见不仅仅是分析数据,而且可以是一个有效的开始。

种族主义如此强大(如刑事司法系统)技术腐败。佛罗里达州的一些法庭使用风险评估,以考虑某人犯下另一个犯罪的可能性。 Northpointe.’s COMPAS software 使用算法来计算被告重新核准的可能性,以低风险的低规模标记它们。

20160525 Prater Borden.
Vernon Prater计算出低风险(3),Brisha Borden计算为高风险(8)。

该算法应逻辑地考虑诸如过去的定罪等因素,并援助释放或判决的决定。但结果表明相反。 Propublica. 分析案例和软件’据发现,只有20%的人预测被预测的人。为什么它不准确?人类偏见采取了法庭软件的形式。 Propublica发现,即使没有逻辑证据,黑人被告被标记为危险的可能性是危险的两倍。谁认为会有更高的风险评估?有多种武装抢劫信念的人抓住了偷窃或带孩子的人’S滑板车。 Compas软件预测Borden,一名年轻的黑18岁的女孩,在未来两年内犯下另一个犯罪的风险很高。另一方面,普拉特,一个42岁的白人风险很低。 Prater最终在另一个抢劫费用上服务了时间,就像他过去的定罪一样。这似乎相当明显谁’虽然高风险,所以Compas是如何错误的?简单,创造者这样做。 Compas,就像其他人一样“intelligent”软件,只是模仿它被教导的东西 (Northpointe拒绝泄露算法).

你如何避免偏见?

你不’T必须创建AI以查看偏置数据的后果。它可以在网站,应用程序和依赖数据的其他任何内容发生。无论你如何深入研究数据,那么’总是要留意。走得太远了解细节,你可能会忽略大局。看看它一目了然,你’LL错过了创造叙述的所有可能的情景和环境。无论意图如何,忽略某些细节也可以创建偏见。

那里’没有真正的答案是客观的,你只能小心。数据分析仍然是您拥有的最大工具之一。测试和实验可以解除对性能(以及避免灾难性偏见)至关重要的洞察。所以,即使它意味着重叠,也要花时间理解数据。

 

最近贴文

在脸书上分享
分享到Twitter
分享LinkedIn.