10位科技企业女性高管对AI威胁论的探讨

GPLP 2019-11-01

原标题:10位科技企业女性高管对AI威胁论的探讨

编译:李珠江

编辑:琼凉

审校:周鹤翔

来源:GPLP犀牛财经(ID:gplpcn)

女性从事科技行业的机会越来越多,但仍有很大的提升空间。目前,约有四分之一的科技工作是由女性担任的。为了突出该领域那些有成就的女性,《权威杂志》(Authority Magazine)采访了多位AI领域的女性领导人。

每个人都被问到了以下问题:“众所周知,科学家们一直在争论,先进的AI在未来是否会对人类构成威胁。这场辩论已经逐渐演化为埃隆·马斯克(Elon Musk)和马克·扎克伯格(Mark Zuckerberg)之间的辩论。那么,您的立场是什么?怎样才能防止这种担忧发生?我们该怎么做才能让公众相信,AI没有什么可担心的呢?”

下面是10位AI领域女性领导人的回答。

AI具有双面性

Anna Bethke(英特尔AI负责人)

我认为,人们使用AI的方式比AI本身对人类的危害要更大。

AI的使用具有双面性性,就像锤子或者其他任何工具一样,既可以用来做善事,比如做鸟笼;也可以用来做坏事,比如打碎花瓶。虽然AI有可能学习提高到具有自我意识和甚至产生恶意,但这其实极难做到。

有些人已经能够通过制造带有恶意的AI,进行服务类攻击、在社交媒体的骚扰等等。虽然我们不能简单地排除具有自我意识的恶意AI存在的可能性,甚至被忽视,但是我们应该更多的就创建恶意AI进行讨论。

随着技术的发展和应用,披露该技术发展的透明度越高,每个人就能越了解情况,就能更多的提出质疑。从系统的设计,测试和实现,到立即纠正任何不利行为,或根据需要进行批量升级,在一定程度上都要保持人类的判断力,这一点很重要。

科技是我们的合作伙伴

Carolina Barcenas(Visa高级副总裁)

我认为,科技是我们的合作伙伴。

科技的确会带来一些变化,但是我相信社会的适应能力。尽管一些工作岗位可能会消失,但新的工作岗位将会被创造出来。当前是技术创新的时代。我相信,正确地使用AI将使我们的生活受益无穷,而我们现在正处于这一重大变革的开端。但是,我也认识到,技术一旦落入心怀不轨的人手中,可能是毁灭性的,这就是为什么要围绕AI的道德使用去进行有效监管,这是极其重要的一点。目前,数据的使用和隐私保护在欧洲已经受到了重视,其他国家也紧随其后,但我们仍处于起步的萌芽阶段。我认为最重要的是,我们要让人们知道什么是真正的AI,以及我们需要面对的挑战是什么。

AI只是我们开发的一种工具

Tatiana Mejia(Adobe的AI主管)

AI只是我们开发的一种工具,作为一个社区,我们有责任告诉大众,AI是如何创建的,以及我们该如何使用。技术本身并无好坏。

在Adobe,我们谈论AI服务于创作者并尊重消费者。我们正在仔细研究相关问题,并制定和实施有关数据隐私、数据治理、数据多样性等方面的流程和准则等。

继续推进 同时落实安全措施

Marie Hagman(Zillow的人工智能总监)

纵观历史,人们一直在使用新技术来完成一些令人惊讶的事情,并且给他人带来痛苦。例如,核能和原子弹。我是一个乐观主义者,我认为AI利大于弊。我们需要继续推进,同时落实安全措施,更快地制定和更新公共政策以帮助减轻风险。我觉得我们不能也不应该向人们保证AI没有什么可担心的。人们应该了解到它的风险并提高警觉。我们已经建立了保护社会免受不良行为影响的系统,包括执法,司法体系和公共政策。除此之外,我们应该让这些领域的领导人了解情况,并优先考虑防范AI可能造成的威胁。

当今AI发展还不成熟

Madelaine Daianu, Ph.D.(Intuit数据科学高级经理)

我认为,随着AI技术的进步,这些辩论只会越来越激烈。

有人认为这些争论为时过早,主要是因为当今的AI发展还不成熟。我们尚未发现创建超级智能的必要条件,因此,我们尚未掌握正确的信息,来确定如何更好地减轻可能存在的危害。

机器人不会明天就来占领这个世界

Doris Yang (BlackBerry Cylance高级总监)

AI的好坏,取决于人类如何定义问题和答案的边界,以及处理这些问题所需的数据。也就是说,不管制造出一个有意识的机器人需要花费多长时间,谈论AI使用的边界以及人工智能的应用才是至关重要的。即使到了今天,我们身边仍然存在着隐私和透明性的问题。

以AI驱动的解决方案有很多好处,我们应该积极地考虑问题,以便我们可以继续从中受益,而不会放弃更多的自由。我们现在需要为我们的底层设施打下基础,并保持警惕,以防技术和其他实体侵犯它们。

探索如何更好的利用AI

Marina Arnaout(Microsoft经理)

历史表明,每当一项伟大的发明落入心怀不轨之人手中时,邪恶就会占上风。当前,我们正处于AI发展的早期阶段,正在探索如何更好的利用AI,激发潜能,这可以帮助我们预防自然灾害,或者为盲人提供更多帮助,当然,还有更多形式的商业智能。

AI具有赋予社区和企业权力的潜力,并具有许多好处。但是,毫无疑问,先进的AI技术同时也会带来各种不利影响。它可能会以人类无法跟上的速度大幅度改变劳动力结构,从而产生重大的经济影响,并带来许多道德挑战。更直接地说,AI可以被设定为破坏程序,也可以做一些有益的事情,这是一个全球性的问题。

为AI设定条件和界限

Elena Fersman(爱立信AI研究负责人)

每一项新技术都会带来威胁。尽管AI是特殊的,但由于它是自我发展的,我们仍为其发展设定条件或界限。这些条件需要掌握在人类手中。我们需要承担责任,规定“游戏规则”,并规定这些算法永远不能打破规则。这些规则与人类必须遵守的法律,法规,道德框架和社会规范没有什么不同。为避免此类担忧发生,我们应该以AI系统所理解的语言来实施“生存规则”。也就是说,我们需要将这些规则数字化,确保框架和软件架构具有灵活性并允许修改,并且算法可以保证它们遵守这些框架。

成立一个组织:规范AI产业和研究

韩超(Lucidworks副总裁)

AI可以应用于许多造福社会的领域,例如医疗保健和自动驾驶汽车。然而,在武器开发或基因编辑领域,危险团体对于AI的滥用是令人担忧的。当前,AI不具备自我学习的能力,无法故意伤害他人,也无法通过互联网相互连接进行大规模的破坏。但是,如果未来控制不当,这些行为都是可能发生的。当前没有任何集中化的组织来规范AI产业和研究。我们高度依赖大型IT公司的良好愿景,并遵循标准的模型构建流程,以防止AI的偏见或滥用。我希望这样的组织能尽快成立,以获得更多公众的信任。

不应该试图去阻止人们的担忧

Trisala Chandaria(Temboo首席执行官)

所有新的技术给人类带来机遇的同时,也带来了危机,这就是科技的本质。

想想在汽车刚出现的时候,我们必须建立基础设施,采取安全措施和其他技术来适应他们。诸如道路,驾照,安全带和安全气囊等东西,都是为了确保公众能够安全有效地使用汽车。同样,在构建AI技术时,我们需要考虑安全性,基础设施,法律等。只要考虑到这些因素,我们就可以永远使用AI。

然而,这些措施仍在制定过程中,目前需要优先考虑。我们不应该试图去阻止人们对AI的担忧。人们应该问问他们的数据是如何被使用的,哪些技术影响了他们的生活,以及AI是如何影响社会。担忧和恐惧是有区别的。我们不想吓唬人们,让他们远离新技术,但我们希望确保人们在影响他们日常生活的技术上有所选择。这取决于这个领域的领导者,确保公众有足够的能力和信息来做出选择。

(免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com)

标签AI威胁论 AI
  • GPLP
    邮箱:caoceng@fromgeek.com
    GPLP是专注于创业、投资的专业的咨询平台,旨在为创业者以及投资人,其中包括上市公司、企业、银行等提供专业的内容、最新的行业形势及最客观的解读,同时还包括组织线下交流活动,为行业发展贡献力量。
    分享本文到