要闻
您现在的位置:首页 > 要闻 > 如何实施AI伦理
  • 营销与经营深度一体,巨量引擎助力品牌撬动全渠道增长

    营销与经营深度一体,巨量引擎助力品牌撬动全渠道增长

    发布时间:2024/01/30

    过去十年,中国企业在数字营销上的投入快速增长。根据eMarketer的数据,2023年国内数字广告的投入将达到1361亿美元,增长14.8%。数字营销已经成为品牌方最大的经营成本之一。面对如此巨大的投入,品牌方的管理层...

  • 门窗行业复刻定制家居高光时刻,森鹰窗业上市成起点?

    门窗行业复刻定制家居高光时刻,森鹰窗业上市成起点?

    发布时间:2022/09/25

    据悉,9月26日,森鹰窗业股份有限公司(以下简称森鹰窗业)将举办上市敲钟仪式,正式登陆深交所。 森鹰窗业是目前沪深两市第一家细分行业为“C2032木门窗制造”的上市公司。 这让笔者不禁想起2011年定制家居行业首...

  • 2022年最热高端盘天坛府·九阙成首个“国脉典藏豪宅样本”

    2022年最热高端盘天坛府·九阙成首个“国脉典藏豪宅样本”

    发布时间:2022/07/25

    2022年7月15日“九阙央座,盛赋天坛”《国脉典藏豪宅样本》发布会现场,北京房协秘书长/高品质住宅综合测评中心创始人陈志先生、中国建筑北京设计研究院原副院长/总建筑师董少宇先生、攸克地产/豪宅一号出品人殷苏峰...

  • 杰尼亚集团将成为纽约证券交易所上市公司

    杰尼亚集团将成为纽约证券交易所上市公司

    发布时间:2021/07/20

      2021年7月19日,意大利米兰——享誉全球的意大利奢侈品企业杰尼亚集团(下简称“杰尼亚”“该集团”或者“该公司”)与意威基金Investindustrial七期基金旗下的特殊目的收购公司InvestindustrialAcquisitionCorp.(...

  • 浑水协助Wolfpack做空爱奇艺(IQ.US) 看空报告全文来了

    浑水协助Wolfpack做空爱奇艺(IQ.US) 看空报告全文来了

    发布时间:2020/04/08

    本文来源“腾讯网”。 划重点:1.两家中国广告公司向我们提供了爱奇艺(IQ.US)后端系统的数据,这些数据显示,从2019年9月开始,爱奇艺的实际移动DAU比该公司在2019年10月宣称的1.75亿平均移动DAU低了60.3%。2.大约3...

  • 华尔街大佬巴鲁克:特斯拉(TSLA.US)目标股价达600美元,仍有18%上行空间

    华尔街大佬巴鲁克:特斯拉(TSLA.US)目标股价达600美元,仍有18%上行空间

    发布时间:2020/04/08

    本文来自“腾讯证券”。 在券商杰富瑞(Jefferies)将特斯拉评级从“持有”上调到“买入”后,特斯拉(TSLA.US)在周一收盘上涨逾7.5%。上周五,特斯拉也因公司第一季度业绩强劲而迎来上涨。数据显示,该公司第一季度共...

  • 不满足于流媒体业务,亚马逊也要开始做游戏了

    不满足于流媒体业务,亚马逊也要开始做游戏了

    发布时间:2020/04/08

    本文来源“36氪”。为了在统治数字娱乐的战役中开辟新战线,Amazon(AMZN.US)正在投入数亿美元以成为视频游戏的领先制作商和发行商。由于卫生事件的影响数度推迟之后,这家互联网巨头表示,打算在5月发布其首款原创...

  • 刘强东“熔断”,徐雷成为京东的新“保险丝”

    刘强东“熔断”,徐雷成为京东的新“保险丝”

    发布时间:2020/04/08

    本文来自“盒饭财经”。公共卫生事件笼罩世界,全球经济遭遇重创,金融市场难以幸免,“熔断”一词频繁走入人们视野中。 作为在美股上市的企业,京东(JD.US)最近的日子也不太好过。瑞幸造假事件曝出后,京东“二号人...

如何实施AI伦理

发布时间:2019/10/09 要闻 浏览次数:712

 
上周,我主持了TWIMLcon上的一个小组,讨论了团队和组织如何操作负责任的AI,并结合了来自技术和AI社区不同角度的三个人的观点。
雷切尔·托马斯(Rachel Thomas)是Fast.ai(快速流行的免费在线深度学习课程)的共同创始人。最近几个月,托马斯被任命为一个新机构的主任,该机构融合了研究,政策和教育,这个机构名为旧金山大学应用数据伦理学中心。
纪尧姆·圣·雅克(Guillaume Saint-Jacques)是LinkedIn的Fairness Project的一名高级软件工程师,该项目是一个应用研究团队,负责评估该公司AI系统的性能。
Parinaz Sobhani是佐治亚合伙人公司(Georgian Partners)的机器学习总监,该公司是SaaS初创公司的投资者,拥有自己的应用研究实验室,可帮助投资组合公司应用机器学习。
在长达30分钟的讨论中,冒险探索了AI伦理学中的动力动力学与AI时代硅谷的“快速行动并打破事物”精神如何演变。
如何开始
Saint-Jacques说,要摆好桌子并帮助团队或组织将更多的AI道德规范融入运营,这首先要建立一种将用户放在首位的公司文化。
他说:“在领英,“我们发现实际上不能只有一个中央团队来编写一件代码并为整个公司解决公平问题,因此这实际上是每个人的问题,” “每个人都参与其中,因此,这意味着您真的必须在价值观和文化上保持正确的统一。
“当然,要开始实践,您还拥有正确的工具,测量方式和正确的流程,但是如果没有文化和价值观,考虑到每个人都应该付出巨大的努力,实际上很难做任何事情。的所有权。”
Sobhani认为,企业必须首先定义要成为的公司的愿景,检查公司文化,并质疑您是否拥有合适的团队-但是AI道德也涉及多样性。
多样性是AI伦理对话中经常出现的一个词,可能是一个明显的答案,但是Sobhani谈论的是最能为您的用户服务的多样性。可以超越种族或性别多样性。
“也许您需要一位社会学家,也许您需要一个具有法律和合规背景的人,所以这不仅仅是关于。 ‘好吧,男女人数相同或来自不同种族的男性’,同时也要考虑团队背景的多样性。最后,问题是要建立什么样的流程才能使团队能够生产出负责任的道德AI产品,”她说。
Sobhani的敦促呼声要求OpenAI等组织今年对AI团队进行更广泛的定义,OpenAI的研究人员在今年早些时候撰写了一篇题为“ AI安全需要社会科学家”的论文。
Sobhani提供的一个AI道德成功故事的例子是,当她与一家AI识别文字抄袭的企业合作时。由于她的母语为非英语,因此她能够识别出系统中倾向于将ESL作家标记为窃者的偏见。
Thomas引用了Medium Trust and Safety团队负责人Alex Feerst的想法,认为某些组织可以将其Trust and Safety团队与工程和产品设计团队结合在一起。
“信任和安全是在看到可能出问题的地方以及在发生问题时会发生什么,然后工程,产品和设计往往生活在一个更加乐观的世界中,并让这些沟通渠道在各组之间开放,并且让所有人必要的利益相关者,每个人都会受到下游参与者的影响。”她说。
工具,框架和新颖方法
托马斯最喜欢的AI伦理资源之一来自圣塔克拉拉大学Markkula应用伦理学中心:这是一个工具包,推荐了许多实施流程。
“关键之一是道德风险扫描,定期安排时间以真正度过可能出问题的地方以及道德风险是什么。因为我认为道德操守的很大一部分是在思考可能发生的问题之前,先行思考,并根据可能出现的错误或错误制定适当的流程,”她说。
为了消除偏见,Sobhani建议使用Google的People + AI Research(PAIR)计划中的假设分析可视化工具以及FairTest(一种用于在EPFL和哥伦比亚大学等学术机构中“发现数据驱动的应用程序中不必要的关联”的工具)的工具。她还赞同诸如联合学习之类的保护隐私的AI技术,以确保更好的用户隐私。
除了小组成员推荐的资源外,Algorithm Watch还维护着一份AI伦理准则的运行清单。上周,该组织发现全球最大的专业工程师协会IEEE在2018年3月发布的准则在Facebook和Google上鲜为人知。
考虑潜在的危害,而不仅仅是偏见
近年来,面部识别软件针对女性和有色人种的算法偏见引起了广泛关注,但圣雅克认为人们应该更多地关注伤害而不是偏见。
他说:“我认为有时我们会专注于算法以及是否存在偏见,并且我认为每种算法都有一定程度的偏见,但您可能会看到非常不同的伤害类型。”
托马斯(Thomas)同意,偏见是一个重要问题,但它是整体危害中众多因素中的一个因素,尤其是考虑到已经发生的事情,例如算法如何错误地切断医疗补助或解雇教师。
概率问题
随着越来越多的企业将AI规模化地融入其运营中,它可能会改变员工从确定性思维到概率性思维的方式。
尽管大规模的AI可能会开始改变企业的运作方式,但普遍缺乏对AI并非魔术的理解-仅仅是统计,数学和预测-会妨碍合理的期望。
在上周发布的VentureBeat文章中,来自芬兰Solita公司的AI从业者AnnaMetsäranta表示担心,对可能的理解不足可能会误导投资者的观点,并驱使哪些公司获得资金。
Sobhani说,完美不存在,关于AI系统今天可以实际完成什么的构想应该基于事实,以面向最终用户,产品潜在客户和整个生态系统。
“到目前为止,我面临的问题之一是一些人认为这些系统是完美的,或者在将来可以做到完美,但是我个人认为,因为它们是概率系统,我们正在使用它们进行确定性决策,所以我们可能永远无法达到100%的性能。因此,拥有护栏非常重要。”她说。
圣雅克同意机器智能可以完美的看法提出了一个问题。
“似乎教学也是过程的一部分,或者至少在那里有公共教育的东西。这样人们就可以知道它们是概率系统,并且他们正在基于数据进行预测。”他说。
在某些情况下,托马斯(Thomas)认为科技公司有责任过度推销所售产品,从而给人们带来不切实际的期望。
“通常,购买这些产品的人不了解他们需要的可能性,或者对AI的准确性是100%的误解,但我认为我们还有责任不过度承诺或超额出售我们所拥有的功能。她说。
工程团队的道德规范清单
清单清单的概念(如Microsoft今年春季推出的那种清单)引起了AI道德社区中一些人的批评,他们认为循序渐进的文档可能会导致缺乏针对特定用例的思考或分析。
Sobhani在小组成员的回应中说,清单适用于您要生产的产品,并且定义了受保护的类别时,清单是有效的。
托马斯说,清单可能是一个更大的,正在进行的过程的一部分,并指出了白宫前首席数据科学家DJ Patil和Cloudera机器学习总经理希拉里·梅森(Hilary Mason)今年早些时候发布的数据伦理清单。该列表包含诸如“我们是否清楚解释了用户同意的内容?”和“我们列出了如何攻击或滥用此技术的问题”之类的问题。
“我理解道德永远不能被简化为清单的担忧-我同意道德必须在一个周到且更全面的框架内实施-但我认为这可以作为一个有用的提醒。但是,重要的是,每个人都必须意识到,即使选中了每个复选框,我们也不会反复考虑工作的道德影响。”托马斯说。
圣雅克(Saint-Jacques)相信,建立价值比回答一系列必要问题更为重要,他宣称,没有人应该对自己的技术解决方案能够解决公平问题感到过分自信。
“清单可能会使您产生虚假的自信,这实际上就是为什么我们也强调监视部署后的原因。因此,即使我们已经做了所有事情,我们仍会进行监控和试验,因为正如我提到的那样,您可能会认为自己很公平,而用户可能会认为相反,所以您想知道。”
长期利益
“快速行动并打破事物”的精神曾经是硅谷的标准。当我问到曾经拥护这种精神的初创企业在AI时代如何发展时,Sobhani意识到初创企业仍面临短期需求以证明其快速发展。
Saint-Jacques说,将AI道德规范作为长期战略的一部分可能是一个有利可图的决定,因为对某些人群而言,以较低速度运行的系统可能会错失商机。
“如果您有很大的偏见,那么您可能只能满足一个人群的需求,最终会限制用户群的增长,因此,从业务角度而言,您实际上希望让所有人参与进来,因此,这实际上是一个很好的业务决策。从长远来看,”他说。

姓 名:
邮箱
留 言: