算法仍然是错误的

算法仍然是错误的

It’差不多是2018年底’是时候回顾一切 新能力 ai。 AI肯定会扩大和改善今年,但仍有改进的领域,即 我们。 理想的算法产生了功能性AI系统,可以自行准确行动。不幸的是,那个’并不总是如此,比你想象的灾难更多。 你可以’如果你不建立有效的算法’你自己了解数据。当我们想到复杂的AI算法时,我们知道数据科学家花费无数小时映射,计算和分析数据,以便直接AI软件。关于数据的任何近视假设只会导致灾难。我们’在如何之前指出 AI偏见有灾难性的后果。我们’甚至谈到了更多 侵入意图 人们拥有AI,导致梦魇情景。记住, AI在这里提供帮助流程,不要取代我们的分析功能来提取洞察力。这意味着无论我们构建什么样的算法, 我们需要自己理解数据.

糟糕的算法?

算法仍然可以是功能性的,但如果它错过了目标,它就会绝对没有。让’S考虑Tumblr,一个内容共享社交媒体平台,最近宣布它将禁止所有明确的内容 “主要包括显示现实生活人体生殖器或女性呈乳头的照片,视频或GIF,以及任何内容 - 包括描绘性行为的照片,视频,GIF和插图。” 有意义,该网站希望防止具有可能危险的强大图形内容的进一步问题。 但是什么’是不应该的线’t be crossed? 想象一下,即使是针对这种算法的想法,也需要多少数据分析。人们必须分析所有可能类型的内容,并找到一种测量视觉语义的客观方式 没有偏见.

所有裸体都被认为是明确的吗?艺术品怎么样?谁判断这一点“explicitness” or “danger”所有内容?算法中的哪个地方专门寻找儿童色情和人口贩运模式?它实际上会减轻问题或推动其他地方的问题吗?  为什么禁止标签喜欢“LGBTQ” and “trans” but let tags like “necrophilia” and “white power”继续发布内容

算法 从技术上讲 自从它确实禁止内容但它有效 开始禁止任何和一切。但是,而不是追求问题的根源,而不是追求问题,而是tumblr’禁令作为一种短视的方法 针对错误的博主 在表面级别。禁令没有’地址中的任何一个 真正的问题 周围禁止少数民族群体, 虽然其他用户可以自由 没有后果公开支持大规模枪击和杀人犯。它提出了问题,Tumblr如何在不同数据的海洋中分析自己的算法能力?

了解您的数据

任何良好的数据科学家都知道数据分析为AI算法构建了基础。像问题一样 种族主义和性别歧视 因为他们是alizied’在收集的数据中呈现。因为人类产生的数据反映了我们的偏见,数据科学家需要确保识别和消除它们。即使具有更多定义的数据,算法仍然可以失败。一些善意的警察在寻找儿童色情分销商曾经结束了 由于AI算法,沙丘的照片。您唯一可以做的是继续分析更深层次洞察力的数据。

” description=”false”]

最近贴文

在脸书上分享
分享到Twitter
分享LinkedIn.