Twitter开始分析其算法的有害影响
378
[ 互联网 ]
Twitter正在启动一项新计划“负责任的机器学习”,以评估其算法所造成的任何“意外伤害”。公司内的工程师,研究人员和数据科学家团队将研究Twitter对机器学习的使用如何导致算法偏差,从而对用户产生负面影响。
首要任务之一是评估Twitter图像裁剪算法中的种族和性别偏见。Twitter用户指出,其自动裁剪的照片预览似乎更喜欢白色面孔而不是黑色面孔。上个月,该公司开始测试显示完整图像而不是裁剪预览。
该团队还将研究时间表建议在各个种族子群体之间的差异,并分析不同国家在不同政治意识形态下的内容建议。Twitter表示将与第三方学术研究人员“紧密合作”,并将分享其分析结果并征询公众的反馈。
尚不清楚结果会产生多大的影响。Twitter说,他们“可能不会总是转化为可见的产品变更”,而只是导致有关公司如何使用机器学习的“意识增强和重要讨论”。
Twitter决定分析自己的偏见算法的决定是在Facebook等其他社交网络之后做出的,Facebook在2020年成立了类似的团队。立法者也不断施加压力,要求控制公司的算法偏差。
Twitter还处于探索“算法选择”的早期阶段,这将可能使人们对提供给他们的内容有更多的投入。首席执行官杰克·多尔西(Jack Dorsey)在2月份表示,他设想了一种“类似于应用商店的算法排名视图”,人们可以从中选择哪些算法控制其供稿。
-
283 互联网
-
292 互联网
-
324 互联网
-
177 互联网
-
313 中研科技网
-
301 互联网