当前位置:首页 >理财 >

马德里Teradata宇宙2019:Teradata同意少即是多

来源:   2022-05-14 08:00:12

Teradata宇宙2019

格雷厄姆·巴克(Graham Buck)报告说,去年,圣地亚哥分公司宣布银行和企业的大量分析投资被浪费了,并且正在整合其产品,以便他们可以从数据中获得答案。

Teradata去年10月在拉斯维加斯举行的年度活动上引起轰动,当时它敦促金融机构和企业“停止购买分析软件”。考虑到用于分析的数据管理解决方案(DMSA)一直是该公司40年来的核心业务,并且自从2007年从NCR Corporation获得独立以来一直是该公司的核心业务。

但是,该公司的实际(也是更长远的)信息是“停止购买分析软件,这是投资答案的时候了”,当本周在马德里举行的Teradata Universe EMEA会议吸引了400位代表36位客户的客户时国家。

“技术正在融合在一起,以帮助我们过上更好的生活。现在,它可以了解我们在每个接触点上的身份,同时又尊重我们的隐私。”自今年年初起,Teradata首席运营官(COO)兼总裁兼首席执行官奥利弗·拉兹伯格(Oliver Ratzesberger)说。

“数据和分析可以使我们的生活更轻松-例如,甚至可以为我们编制纳税申报单。但是存在这样的危险,即功能的复杂性会阻碍其功能。

“技术如此之多,以至于我们都是个体和企业。对于拥有数百万条技术和开源项目的公司而言,这带来了挑战,从而创建了越来越多的数据孤岛。这有助于为价值2000亿美元的分析行业提供动力。”

然而,正如Ratzesberger指出的那样,最近对公司进行的一项调查发现,有74%的受访者同意分析技术变得过于复杂,而79%的员工则抱怨说他们无法轻松访问他们真正需要的数据。

直到几年前,这才阻止了许多公司为采用技术而进行的争夺,而这种争夺已经造成了一定程度的“技术债务”或过于复杂。支出并没有产生银行和企业所寻找的答案,而且很多钱都在浪费。他建议说:“讨论已经转变为彻底简化和卓越运营。”

“预测性数据智能(PDI)是我们行业的新标准。它跨越了整个企业,为业务主管,CIO / IT和业务分析师带来了有价值的答案。”

Teradata去年的回应是通过将其许多产品组合到一个名为Vantage的新数据平台中来简化其客户的分析投资。

Ratzesberger说:“ Vantage已经开发出来,可以通过PDI将数据转换为答案。”“这是公司历史上增长最快的产品,并且是简化生态系统的结缔组织。它消除了企业决策的风险,实现了大规模和集成。”

消除偏见

马德里会议与许多金融科技活动截然不同,它专注于预测分析和人工智能(AI),很少提及区块链。

商业信息提供商IHS Markit的最新报告预测,在金融服务中部署的AI的全球商业价值(根据2018年的估算为411亿美元),根据目前正在进行的AI项目数量,到2030年将达到3000亿美元在银行部门。

因此,Teradata技术官员Stephen Brobst的演讲对消除机器学习(ML)部署中的偏见非常感兴趣。尽管正如他本人所承认的那样,该称号具有误导性,但有可能减少固有的偏见,消除它是一个更加艰巨的挑战。

Brobst说:“深度学习和AI被普遍认为是某种魔术。”“但是深度学习是一种数学方法,而不是魔术-一种统计方法,通过这种方法,我们可以'学习'使用多层神经网络对模式进行分类。

“我们将事物置于“黑匣子”中,并使用数学而非人类来制定决策,我们认为偏差将被消除。但是,当AI解决方案反映出人类设计师的价值时,就会产生不希望的偏差。

这是美国数学家凯西·奥尼尔(Cathy O’Neil)在她的2016年《数学毁灭性武器》一书中提出的主题。O’Neil认为,将算法及其创建者与公众监督隔离开来,意味着它们可能包含内在偏见,而AI算法也有遭受类似偏见的风险。

的确,布罗布斯特(Brobst)建议,人工智能算法并没有一个,但有几个潜在的“致命弱点”。“解决方案仅与您输入的解决方案一样好,并且可能被破坏。”

选择偏倚取决于对数据集获取源的人为决定,也取决于使用和丢弃该数据的观察结果。稳定性偏倚意味着输入的数据未能包含最新和有价值的发现,并且可能因监管的严格性而进一步受到损害。

社会知识,消费者行为和文化价值的变化或生物特征数据的偏差也可能导致出现突发偏差,例如与某些民族口音高度相关的语音识别准确性。

Brobst指出:“ Bias并非起源于AI算法,而是源自人类。”他指出,即使到了今天,有一定薪水申请抵押的单身男性很可能会比银行更看重女性。评估他们的还款能力时获得相同的收入。

他还指出,由于神经网络算法的黑盒特性,与传统的ML相比,深度学习中的偏见是一个更大的问题。根据欧盟《通用数据保护条例》(GDPR)制定的政策,人工智能解决方案中的偏见已经是非法的,《加利福尼亚消费者隐私法》(CCPA),纽约市的《算法责任法案》和印度的《个人数据保护》中也包含类似的立法。法案。

他告诉听众:“因此,找出可能在您的AI解决方案中引入偏见的地方。”可以理解和管理偏见。主动管理偏差对于成功部署AI至关重要。

Brobst针对此目标的主要建议包括:

创建用于开发和部署机器学习的基于标准的方法;确定用于收集和处理数据的过程中存在的偏见;测试可能嵌入在算法中的有害偏见;投资于可解释性;监控算法的性能;具有挑战性的假设

TOP