首页>>人工智能->人工智能怎么突破黑箱(人工智能 黑箱)

人工智能怎么突破黑箱(人工智能 黑箱)

时间:2023-12-01 本站 点击:0

导读:今天首席CTO笔记来给各位分享关于人工智能怎么突破黑箱的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

算法黑箱为何难治理

算法黑箱半月谈。随着大数据、人工智能等信息技术的快速发展,我们正在进入算法经济时代,以深度学习为代表的人工智能算法在互联网信息传播,数字经济发展。

信息产业服务等诸多方面发挥了重要作用,产生了溢出性极强的经济效益监管信任危机的根源在于企业在数据和算法上的非对称优势,当前,基础数据的所有权和控制权主要集中在互联网平台企业。

简介:

这些企业全程操纵算法设计,运行,测试和分析,由此占据着优势地位,监管部门在算法社会中已经呈现出被边缘化的趋势,极易失去对关键数据和关键算法的监督权和控制权,这意味着,算法黑箱的存在势必导致私人利益主观上俘获公共利益。

以及资本主观上规避公权力约束等风险的产生,同时,算法黑箱客观上隐藏了算法自身存在的缺陷,并可能触发安全风险,让监管机构难以审查算法信息,监管机构规制算法的内容与手段均受到限制,难以及时针对算法问题进行问责和纠偏。

可解释AI,如何打开算法的黑箱?

随着以机器学习为代表的新一代人工智能技术不断朝着更加先进、复杂、自主的方向发展,我们的经济和 社会 发展都纷纷迎来了变革性的机遇。但与此同时,AI算法的透明度、可解释性问题也为公众信任、公共安全等诸多领域带来了前所未有的挑战。

1月11日 14日,“腾讯 科技 向善创新周”在线上举办。“透明可解释AI——打开黑箱的理念与实践”专题论坛即聚焦于此。论坛发布了《可解释AI发展报告2022》,随后由专家学者(见文末)共同参与了圆桌讨论。以下为整理文章:

可解释AI的概念共识

姚新:

大家在讨论AI算法的透明性和可解释性的时候,首先应该考虑三个W的问题——Who,What和Why的问题。

首先,到底是对谁讲透明和可解释?因为从科学研究来说,任何一个研究都必须透明,都必须可解释,否则这个论文是发不出来的。所以我猜过去讲透明性和可解释性,可能不是对科学家来说的可解释性或者透明性,因为对科学家的透明性和可解释性,不一定对大众透明和可解释。第二是解释什么?解释模型做出来的结果还是解释这个模型的工作原理。第三,解释总是有一个目的,目的是要追责还是理解这个模型的科学原理。

根据对这三个W不同的答案,会得出非常不一样的透明性和可解释性,相应的解决办法可能也完全不一样。不管怎样,考虑透明性和可解释性的时候,首先大家要有一个概念上的共识,使得我们知道我们是讲同样一件事情,而不是用了同样一个名词,大家在不同的抽象层次讲不同的问题。

吴保元:

可解释是可信AI的重要组成部分,是可信的前提条件之一,但是相比于鲁棒性、公平性等可信特性,我觉得可解释不是独立存在的概念。就是姚老师刚才提到的,我们到底在解释什么?其他的特性都是有自己明确的数学定义,比如鲁棒性、公平性等,但是可解释性是没有的,因为我们单独提到它的时候,背后默认的更可能是对模型准确度的可解释性。或许这也可以解释为什么当前的可解释研究思路这么多,但是好像没有一个明确的框架,我觉得最主要的原因是它的解释对象不一样,没有办法统一到一起。

基于这种理解,我个人有一点小的想法,不应该把它称为可解释性,把它称为可解释力或许更准确。可解释性,大家可能误认为它是一种独立存在的性质;可解释力是一种可解释的能力,就像我们说的理解力、领导力等等,它是一种手段,一种行为,一种操作存在,需要跟别的绑在一起。我觉得以后提到它的时候,应该准确地描述它是针对什么特性的可解释力,而不是笼统地说可解释性如何。

可解释AI的价值何在?

朱菁:

人们对于人工智能系统可解释性、透明性的要求,大致有四个层次:

第一个针对的是直接用户,用户需要了解人工智能产品、服务背后的原理是什么,这是建立可信任AI的重要基础。可解释AI,实际上支撑了可信任AI。

第二个层次,对于政策和监管部门,他们希望通过解释原理来了解人工智能产品的公平性、可问责性,归因的过程是我们进一步问责、追究责任的基础。所以,可解释AI也与负责任的AI、可问责的AI是联系在一起的。

第三个层次就是技术工程与科学层次,我们希望了解为什么某些算法能够成功,它成功背后的奥秘是什么,它的应用范围是什么,它能否在更大的范围内使用这样一些算法或者是一些技术。

第四个是公众理解AI,如果 社会 大众大多数关心的话,他也能够在这方面了解相应的技术、系统大体的工作原理方式是什么。

何凤翔:

在现在的AI系统中,其实很多算法背后运作机制是未知的,是不清楚的,这种未知带来了未知的、难以管理的风险,包括安全性、鲁棒性、隐私保护、公平性等等。

这些点关系到了 社会 运转中非常关键、人命关天的领域,比如医疗、自动驾驶。这会带来很大的应用方面的困难,以及 社会 对AI的不信任。因为当AI算法运作机制是未知的时候,它的风险机制、风险大小、风险尺度就是未知的,我们就难以去管理风险,进而去控制风险。

可解释AI的挑战何在?

姚新:

原来我一个学生跟我做了一点关于公平性的工作,跟其他的文献发现的点非常一致,就是说模型的准确性和公平性之间是相互矛盾的。性能最好的模型从公平性的角度来说,按指标来测量不见得最好,你要把模型做得都是最公平,用指标来衡量的话,它的性能就会受到损失。实际上可解释性非常类似现在有各版的可解释性指标,但是要真正考虑这些指标的话,模型的性能总是会掉下来,要考虑在实际过程中怎么来找一个折中的方案。

吴保元:

针对可解释性本身的不可行、不可取,这也是值得我们思考的问题。比如说我们在研究犯罪率或者说疾病的传播率、发病率等,如果我们就拿现成的统计数据,比如在不同种族、不同地域采集的数据,很有可能会得出来某些种族或者某些地域犯罪率很高,这是因为数据采集的时候就是这样的。这样一来,如果可解释给出的类似结论被公开,可能会造成种族或者地域歧视。但实际上数据背后是我们在采集的时候没有采集其他特性,比如说为什么这个地域的传播率很高呢?很有可能是政府投入不足,或者说其他的因素。

所以这也启发我们可解释性本身它的可信性是什么,它的准确性,它的公平性,它是否忽略了某些特征,或者夸大了某些特征,它的鲁棒性,是不是把样本变化一点,它的可解释性截然相反,这些需要我们进一步思考。

另外,我跟很多研究可解释的专家聊过,他们的困惑在于现在的可解释性方法是不可印证的,甚至是矛盾的,这就引出了可解释性方法本身的可信度的问题。

何凤翔:

在我看来,理解深度学习算法的运作机制,大致有理论和实践两条路径。在理论方面,当前的研究无法完全解释理论上泛化性较差的深度模型为何能在多领域取得如此的成功。这种理论与实践的矛盾,就像曾经物理学中的乌云一样,反映出来了人们对于机器学习理解的缺失,而这是现在在理论上提升算法可解释性的一个难点。

而在实验角度上,很多实验学科中的做法可以作为对于机器学习研究的启发,比如说物理学、化学,以及刚才提到的医疗。比如说药物研发流程中的合格检验,要做双盲实验;在物理学、化学的研究中,对控制变量实验有严格要求。类似的机制是否能在AI研究中严格执行呢?我觉得这可能是另外一条路径。在我看来,现有的很多对于AI算法的解释是启发式的,而在关键领域中我们需要的是证据,这需要在理论和实验两方面做很多工作。

可解释AI如何实现?

朱菁:

前面很多专家都指出对于解释有不同的目标,不同的对象,不同的要求,所以实际上关于人工智能的可解释性问题可能是属于多元性的,就是要允许有多种不同层次不同方式的解释在这里面起作用,针对不同的领域、不同的对象,使用不同解释的方式。

当可解释性有它的局限或者和其他的目标、要求,需要做出权衡取舍的时候,我们想也可以从多个层面来进行替代性的,或者说是补偿性、补充性的策略。比方说针对监管部门,它对于可解释性的要求,和面向公众或者专家层面的,会有所不同,所以这个可以通过若干个层次,比如说监管部门的,行业的,市场的,以及传播普及层面的,对于安全性、鲁棒性要求更高一些,或者在专家层面上有更好的沟通理解,而对于 社会 公众而言,这里面就需要有一些转换,同时有需要一些权威部门,有公信力的部门,向 社会 做一些说明和认定。

姚新:

深度神经网络可以解决特别复杂的问题,我觉得现在大家用深度网络有一个原因,即所针对的问题本身可能就比较复杂。这是一个假设。假如这个假设是对的话,那么相应的可解释性不会特别好理解。因为需要对付这些复杂性,相应的模型就必然是要复杂。

所以我总觉得透明性、可解释性和性能之间是有一个固有的矛盾,如果现在把从技术上讨论的方向,是怎么找一个折中方案,根据不同的场景、可解释的目的,找不同折中方案,这样导致有可能会出来一些比较具体的技术,或者可以促进这些技术往落地的方向走。

吴保元:

我们尝试过一些从技术上可行的方案去量化各种可信特性,但是,要实现统一量化很困难,比如说公平性和鲁棒性都有不同的量化准则和指标。当把不同的特性简单组合到一起的时候很难优化,因为它们的准则是高度不对齐的,差异非常大,这就涉及怎么去对齐这些特性坐标。我认为想要找到一个全局坐标系是非常困难的。我们可以从局部出发,针对某种场景,比如医疗场景,首先把隐私性当做前提,在金融或者自动驾驶,我们把鲁棒性当做前提,然后再去研究其他特性,或许一步一步能够找到这种坐标系。

可解释AI的技术现状?

郑冶枫:

总体来说,因为我们现在还缺乏非常好的理论框架,所以可能针对问题,我们创造性地想一些算法,试图提高本身这个系统的可解释性,给大家举两个例子来说明一下我们天衍实验室在这方面的 探索 。

深度学习可能有千亿、万亿的参数,这对于医生来说太复杂了,他很难理解这个算法的底层原理,算法本身可能缺乏一个全局的可解释性。但是深度学习框架准确率非常高,所以我们不可能不用。而可解释性非常好的模型就是回归模型,这类模型主要的问题就是准确率太低。所以我们做了一个 探索 ,我们希望把这两个模型结合起来,它具有非常高的准确率,还有一定的可解释性,不是完全可解释性。

我们把这个混合模型用于疾病风险预测,就是根据病人历次的就诊记录,我们预测病人在未来6个月之内得某个重大疾病的概率,比如他得卒中的概率。病人每一次的就诊记录包含大量信息,这里面我们需要提取一些跟预测目标相关的重要信息,我们知道生物学习网络最擅长的就是自动特征学习。所以我们利用深度学习网络把一次就诊记录压缩成一个特征的向量,接着我们利用回归模型,把病人多次就诊记录综合起来预测未来6个月之内这个病人得脑卒中的风险。

杨强:

我们在审视各个算法和它对应的可解释性的关联问题上,发现一个有趣的现象,比方说在机器学习里面,深度学习就是属于效率非常高的,但是它却对应的可解释性很差。同样,线性模型没有那么高,但是它的可解释性相对强一些,树状模型也是,因果模型更是这样。所以往往我们确实得做一个取舍,就是我们在可解释这个维度和高效率这个维度,在这个空间里面选择哪一个点,现在并没有在两个维度都高的这样一个算法。

可解释AI的行业实践

郑冶枫:

各行业对可解释性和透明性的要求不同,我结合医疗AI这个场景给大家分享一下我的体会和理解。大家知道医疗在全世界范围内都是被强监管的领域,一款医疗产品要上市必须拿到医疗器械注册证,辅助诊断算法AI产品属于三类医疗医疗,也就是监管最严格的级别,所以我们要披露的信息很多,大致包括数据集和临床算法验证两方面。前者主要强调数据集的公平多样性和广泛覆盖性,后者则重视披露我们的算法真正在临床试验中、真正临床应用的时候它的性能。

此外,我们的测试样本也需要有很好的多样性,覆盖不同医院,不同区域,不同病人群体、厂商、扫描参数等等。临床实验更加严格,首先我们要固化算法的代码,在临床试验期间是不能改代码的,因为你不能一边做实验一边改代码,这就失去了临床试验的意义。

所以医疗AI的监管是非常强的,药监局需要我们披露很多信息,提高医疗AI产品的透明性,它有非常严格甚至苛刻的书面要求。因为我们知道智能学习网络天然不具有很好的解释性,虽然你可以做一些中间增强,可以一定程度上改善这些事情,监管也可以理解这个解释性差一点,正因为解释性差,要求的透明性就越高。

何凤翔:

我觉得提供AI系统的说明书有两个路径:第一个路径从生成AI系统的过程出发。这一点现在有一些实践,比如开源代码,说明使用了什么数据,数据是如何使用的、如何预处理的。这会提升人们对AI的信任和理解,这也像刚才郑老师提到,申请医疗相关的资质的时候,我们需要把生产细节汇报给相关机构。

第二种方式就是从生成的AI系统所做出的预测以及决策的指标来入手做算法的说明书。比方对AI系统做一些测评。对于刚才我们提到的指标,包括可解释性、鲁棒性、准确性、隐私保护、公平性,找到一些比较好的量化指标、找到一些评测算法,把这些指标作为AI系统的使用说明书。

可解释AI的未来发展

杨强:我期待在未来人工智能的治理,在人工智能,人和机器这种和谐共存,共同解决我们要解决问题的前提下,会越来越成熟。我是非常看好这个领域的。

朱菁:我期待这个领域进一步的探讨,不同领域的学者都能够参与进来。比如说像我自己做的主要是哲学, 科技 哲学。在 科技 哲学,实际上对于解释有将近一百年的积累和 探索 ,这里面应该有很多可以发掘借鉴的资源,参与到目前这样一个很有意思很有挑战性的话题里面。

何凤翔:AI本身是一个跨学科领域,它可能会用到很多数学、统计、物理、计算机等各个知识的领域,今天提到的很多点,包括隐私保护、公平性,很多也是来源于人文学科、法律、 社会 学这些方面。所以这就意味着研究可信AI以及可解释性等等方面会需要各个学科领域的人合作起来一起去做的一件事情,会非常需要大家的通力合作,共同推进这个领域的发展。

姚新:对于做研究来说,我希望将来可以有一点聚焦的讨论。我刚才讲的3W,到底我们要解决透明性、可解释性的哪一部分,对谁而言。假如对医疗而言,是对法规的制定者来说还是对医生来说,还是对病人来说,还是对这个系统的开发者来说?我觉得在这里面有非常多可以发挥自己的想象力和能力的地方。

郑冶枫:对算法人员来说,当然我们希望将来科学家们找到非常好的,具有良好可解释性,同时准确性非常高的算法,真正做到鱼和熊掌兼得。

魔鬼人工智能诺曼,能反向驯化成天使人工智能吗?

去年年中,麻省理工学院媒体实验室(The MIT Media Lab)的一个三人团队,联手创造了世界上第一个恶魔人工智能——诺曼(Norman)。

诺曼本身是一个简单的人工智能,把图像输入给他,他就会输出一段自己对这个图像的描述文字。跟普通人工智能一样,诺曼需要训练,而诺曼的整个训练过程,使用的都是来源于网络上充满消极情绪的图片和文字描述,最终导致诺曼在对图像进行判断的时候,所输出的描述文字,都是消极的。

“诺曼”这个名字本身,就来源于希区柯克的经典电影《惊魂记》中的变态旅馆老板诺曼贝兹。

诺曼起初是为了研究精神病疗演算法,通过这种疗法研究精神病的治愈方式。但是但是进一步的 研究已经超越了这个范畴。更多的人开始思考人工智能的偏见。

现实生活中的AI若受到有缺陷数据的训练,它们可能产生类似负面状况,也就是产生偏见。

去年5月,美国法院用于评估囚犯风险的AI,被指出对黑人囚犯有偏见。微软2016年发布的聊天AI,很快就被种族主义者带坏,开始捍卫某些人种至上主义,呼吁种族灭绝并表达出对希特勒的热爱。

从偏见产生的根源看,其实只要是经过人筛选的数据本身就带有人的主观性,同时也很难把一个范畴内所有客观情况都输入给人工智能,所以进入到人工智能的数据,本身就是主观的。事实上也很难把两个人为的观念完全区分开来。所以偏见其实是客观存在的,很难根除,假设我们接受人工智能的偏见,那我们怎么解决人工智能的偏见?

诺曼的研究人员给出了一个想法:希望更多的人,对诺曼的积极训练改变它的魔鬼思想,驯化为天使的思想。

从人工智能可以训练的角度来看,人工智能是肯定可以被训练的,但是它的魔鬼的部分,还是有可能会重新显现出来。原因,就是它经过了1万次的魔鬼训练,再经过一千万次天使训练之后,它可能还是有残留魔鬼的思想。

由于训练本身是一个黑箱,我们其实没法直接判断这个黑箱里面全部信息到底还有没有魔鬼的部分。

阻断疗法:

最简单,最直接的方法,就是放弃这个人工智能,不再使用这个人工智能,就好像判了一个人工智能死刑。彻底清空并重新训练人工智能。

为什么是放弃整个人工智能?我们知道,由于人工智能是一个黑箱,人工智能其实是一个独立的智能,一个完整的人工智能,我们没法分隔它所知道的知识。

但是当这个人工智能本身,存在一些有价值的判断的时候呢?直接清除掉,就把有价值的部分也清除掉了,可能不是最好的办法。

反观我们人类世界,人类面对一个恶魔,法律的最高惩罚,其实就是清除他。而这个法律的依据,就是人类自古就有的一报还一报思想。

疏通疗法:

指尖科技说编者这个时候,想起两个人:裘千仞和弗兰克

《神雕侠侣》中的裘千仞心机算尽,被认为是小人和险恶的代表,但是在他抱着宿敌的婴儿小郭襄的时候,本来可以一掌报仇,却在被黄蓉设计偷走小郭襄后,一刻顿悟,从此皈依佛门。如果觉得这个例子,只是小说,那我们看看真实的案例。

弗兰克·阿巴内尔就是真实案例,他16岁就开始伪造银行支票,骗取多国银行的250万美元并被多国通缉,他假扮老师给学生上课,假扮医生给病人开药、假扮飞行员与空姐谈恋爱。入狱后在狱中协助破案,最终出狱后和美国政府机关合作,成就了一个著名的安全顾问公司。

裘千仞的顿悟,滔天局骗的改过自新,都说明人类意识的改变,可以让人刷新整个意识体系。

这其中有一个非常关键的因素:人类的大脑,可以同时存在两种相互矛盾的思想,而无碍于其处世行事。

这正是心理学家托利得提出的托利得定理。

于是我们可以尝试思考:人工智能可以同时存在两种完全矛盾的思想,并仍然无碍于其处世行事吗?

指尖科技说我现在只能想到一种实现方案:就是给人工智能一个高级的控制机制。

在人工智能的高一个层次,进行控制。我也认为只有这种方法,才能彻底解决人工智能倾向性问题。

而现阶段,人工智能技术并非不能做到, 就是在人工智能基础上多做一层人工智能道德筛选 。

例如诺曼得到了恶魔的思想,我们却在后面一层进一步分析诺曼得到的结果,是否合适人类意志,如果具有明显的倾向性,我们就排除掉。

但指尖科技说我也承认,这并非最好的解决方案。最好的解决方案肯定是在人工智能黑箱里直接进行高一级的控制,这样是最高效的。

假设人工智能偏见这个问题解决了,我们就不用再害怕我们给到人工智能的是有偏见的数据。甚至可以把这个技术运用到人类身上,使用脑机接口判断人类思想,然后进行进一步控制。从而让一些罪犯,从大脑思想上改变自身,而不仅是肉体上的清除。

如何看待ai技术在航天事业中的应用?

探月工程首任首席科学家欧阳自远就AI技术在中国航天的应用发表观点。他在对谈中表示,人工智能以后必然会越来越多的渗透到、利用在航天技术方面,使航天技术拥有更精确的感知能力和更简便的控制能力。而且快速的能够实现目的。我认为中国的深空探索已经取得巨大的成就,未来AI一定会与航天事业深度融合,发挥巨大的作用。

一、AI在航空事业的应用

1、AI技术帮助实现智能航空

自动化系统在商用航空已应用多年,机器学习和人工智能技术承担了部分飞行员的职责。目前,已有多项技术应用与实践中。

例如,跑道超限保护(ROPS)软件可以快速计算飞机进近速度和重量,将得到的物理模型与公布的跑道长度和当地的天气进行比较。如果检测到不安全的情况,系统会广播警示讯息。ROPS还可计算最佳的进近下滑道或轨迹,帮助飞行操作。一些新兴系统也在不断开发,如机动特性增强系统(MCAS)可以在需要补偿飞机操纵特性时增加安全性,利用传感器数据根据飞行条件自动调整飞机的控制。

2、AI指导精准全面的监测

机械故障是飞行事故最大的诱因之一,在引入了人工智能系统之后,这一切将在很大程度上得以避免。比如,人工智能系统可以更快、更准确地分析数据,对飞机进行健康和使用周期监测,从而传达预防措施。而随着技术的进一步发展,人工智能可以应用于飞机的各项系统及零部件中,进行全面精准的分析和监测。

例如,去年10月发生的Lion Air 610坠机事件,飞行前已有多项重要数据参数出现错误,飞机若能进行检测验证、自动纠错,或者提前告警提示,或许能有效预防飞机事故。

3、识别安全风险,预防灾难发生

如果能够利用AI技术预防未来灾难的发生,可以说航空领域的重大突破。位于硅谷的美国航空局(NASA)的艾姆斯研究中心从事航空相关的AI研究,重点针对识别商业航空事故数据中预示飞机存在潜在系统性大问题的“异常运行”。

目前,NASA已经对异常情况监测和事故先兆识别进行了初步开发,并已经能够接受专家们的相关反馈。同时,NASA正在开发一套用于飞机数据安全性分析的系统──特别为联邦航空管理局数据分析合作伙伴Mitre服务,目的是在NASA、FAA、国家运输委员会、飞机制造商和各大航空公司之间建立一个安全数据共享联盟,希望通过人工智能分析航班飞行数据,及时发现潜在问题。

4、AI帮助机场提高运营效率

在机场安全人工智能项目中,视频监控信息快速检索、人脸识别技术的自动核验设备、异常车辆排除等技术已逐步投入使用推广。

借助人工智能算法整合关键业务的不同平台数据,并将数据进行共享,实现以机场为中心和各个运营方资源合理调配,帮助管制员监控飞机飞行状态和气象信息。同时,使用机器学习和人工智能,可预测机场流量分布,能帮助航空简化地面运营,在提高机场运行效率的同时,降低了管制员工作管理难度和强度。

二、总结

总的来说,各个领域都在积极探索AI技术的潜力,并利用人工智能应用于航空领域智能化、保障航空安全、提高运营效率等多个领域之中。虽然目前从技术层到应用端,都存在很多问题和风险,但可以预见,日趋成熟的AI将会为航空事业带来真正意义上的变革。

AI全球格局之人工智能即将变革的三大领域

作者 | 宫学源

人工智能技术的应用,或许能帮助蓝色星球的科学家们摆脱无穷无尽实验的痛苦,加速重大科学理论的发现,将人类文明提升到新的台阶。

——题记

人工智能技术的潜力大家都有目共睹,但未来人工智能可以用来做什么,将会给人类社会带来多大的变革,也在考验我们的想象力。

尽管人工智能技术还处在初级发展阶段,但它现有的能力也足以改变众多领域,尤其是那些有着大量数据却无法有效利用的领域。

1 人工智能推动基础科学理论突破

实际上,材料、化学、物理等基础科学领域的研究过程中充满了“大数据”,从设计、实验、测试到证明等环节,科学家们都离不开数据的搜集、选择和分析。

由于物理、化学或力学规律的存在,这些领域的数据往往都是结构化的、高质量的以及可标注的。

人工智能技术(机器学习算法)擅长在海量数据中寻找“隐藏”的因果关系,能够快速处理科研中的结构化数据,因此得到了科研工作者的广泛关注。

人工智能在材料、化学、物理等领域的研究上展现出巨大优势,正在引领基础科研的“后现代化”。

以物理领域为例,人工智能的应用给粒子物理、空间物理等研究带来了前所未有的机遇。为寻找希格斯玻色子(上帝粒子),进一步理解物质的微观组成,欧洲核子研究中心(CERN)主导开发了大型强子对撞机(LHC)。

LHC是目前世界上最大的粒子加速器,它每秒可产生一百万吉字节(GB)的数据,一小时内积累的数据竟然与Facebook一年的数据量相当。

有一些研究人员就想到,利用专用的硬件和软件,通过机器学习技术来实时决定哪些数据需要保存,哪些数据可以丢弃。

事实证明,机器学习算法可以至少做出其中70%的决定,能够大大减少人类科学家的工作量。

尽管人工智能商业化发展更容易受关注,但人工智能在基础科研中的应用,却更加激动人心。

因为社会生产力的变革,归根结底在于基础科研的进一步突破。

我们或许再也回不到有着牛顿、麦克斯韦和爱因斯坦等科学“巨人”的时代。

在那个时代,“巨人”们可以凭借着超越时代的智慧,在纸张上书写出简洁优美的定理,或者设计出轰动世界的实验。

像这样做出伟大工作的机会或许不多了,在这个时代,更多需要的是通过大量实验数据来获取真理的工作。

大到宇宙起源的探索,小到蛋白质分子的折叠,都离不开一批又一批科学家们前赴后继、执着探索。

人工智能技术的应用,或许能帮助蓝色星球的科学家们摆脱无穷无尽实验的痛苦,加速重大科学理论的发现,将人类文明提升到新的台阶。

2 人工智能推动社会生产效率快速提升

人工智能无疑是计算机应用的最高目标和终极愿景:

彻底将人类从重复机械劳动中解放出来,让人们从事真正符合人类智能水平、充满创造性的工作。

在60年的人工智能发展史中,已经诞生了机器翻译、图像识别、语音助手和个性推荐等影响深远的应用,人们的生活在不知不觉中已经发生了巨大变化。

未来,人工智能应用场景进一步延伸,是否能够带来社会生产效率的极大提升,引领人类进入新时代?

为了探索这一问题,曾在谷歌和百度担任高管的吴恩达于2017年成立了一家立足于解决 AI 转型问题的公司 Landing . ai。

吴恩达通过一篇文章和一段视频在个人社交网站上宣布了该公司的成立,并表示希望人工智能能够改变人类的衣食住行等方方面面的生活,让人们从重复性劳动的精神苦役中解脱。

Landing的中文含义是“落地”,这家公司的目标是帮助传统企业用算法来降低成本、提升质量管理水平、消除供应链瓶颈等等。

截至目前,Landing . ai已经选择了两个落地领域,分别是制造业和农业。

Landing . ai最先与制造业巨头富士康达合作。

Landing . ai尝试利用自动视觉检测、监督式学习和预测等技术,帮助富士康向智能制造、人工智能和大数据迈进,提升制造过程中AI应用的层次。

吴恩达认为,人工智能对制造业带来的影响将如同当初发明电力般强大,人工智能技术很适合解决目前制造业面临的一些挑战,如质量和产出不稳定、生产线设计弹性不够、产能管理跟不上以及生产成本不断上涨等。

目前,工业互联网、智能制造和工业4.0等概念已经深入人心,传统企业都在向智能化、数据化转型,但生产过程中获取的大量数据如何应用又成了新的问题。Landing . ai与富士康的合作,或许将给传统制造的从业者带来新的启示。

当然,制造业的核心竞争力还在于制造业本身,比如车床的精度、热处理炉的温度控制能力等等,农业的核心竞争力也在于农业本身,比如育种技术、转基因技术等等。

人工智能技术的主要价值在于提升决策能力,进一步提升生产效率,以及降低人的重复性劳动等方面,这就是人工智能为什么可以“赋能”各个行业的原因。

3 人工智能将有效改善人类的生存空间

自第一次工业革命以来,人类活动对自然界造成的影响越来越大,日益增长的资源需求使得土地利用情况产生巨大变化,污染愈发严重,生物多样性锐减,人类的生存空间变得越来越恶劣。

进入人工智能时代后,怎样更好地利用大数据和机器学习等前沿技术,为环保和绿色产业赋能,成为了政府、科学家、公众以及企业的关注焦点。

在能源利用方面,谷歌旗下的DeepMind无疑走在了最前面。

2016年开始,DeepMind将人工智能工具引入到谷歌数据中心,帮助这家科技巨头节省能源开支。

DeepMind利用神经网络的识别模式系统来预测电量的变化,并采用人工智能技术操控计算机服务器和相关散热系统,成功帮助谷歌节省了40%的能源,将谷歌整体能效提升了15%。

2018年后,DeepMind更是将“触手”伸向了清洁能源领域。我们都知道,风力发电因为有较大的波动性和不可预测性,因而难以并入电网,无法有效利用。

DeepMind利用天气预报、气象观测等数据训练神经网络模型,可以提供36小时后的风力预测,从而让农场的风力发电变得能够预测。

一旦风力发电可以预测,电厂就能有充裕的时间启动需要较长时间才能上线的发电手段,与风力互补。如此一来,风电并网难的问题就可轻松解决。

DeepMind预测的风力发电量和实际发电量对比

在自然环境保护方面,微软的“人工智能地球计划(AI of Earth)”则为大家做出了表率。

这一计划于2017年7月启动,旨在借助云计算、物联网和AI技术,保护和维持地球及其自然资源,通过资助、培训和深入合作的方式,向水资源、农业、生物多样性和气候变化等领域的个人和组织机构提供支持。

例如,“SilviaTerra”项目通过使用Microsoft Azure、高分辨卫星图像和美国林务局的现场数据来训练机器学习模型,实现对森林的监测;“WildMe”项目通过使用计算机视觉和深度学习算法,可对濒临灭绝的动物进行识别;“FarmBeats”项目在户外环境下可以通过传感器、无人机以及其它设备改进数据采集,进而提高农业的可持续性。

在前三次工业革命中,科学技术进步给人们带来极大生活便利的同时,也带来了气候变化、生物多样性退化、大气与海洋污染等棘手的自然环境问题,人类的生存环境正逐渐变得恶劣。

从表面上看,似乎发达经济体的自然环境已经改善了,但这种改善是以转移污染、破坏发展中国家自然环境为代价的,世界整体的自然环境状况依然不容乐观。

一直以来,人们寄希望于未来的科学技术进步能够解决当下的自然环境问题,而人工智能技术的出现点燃了这一希望。

一旦人工智能技术可以加速基础科学理论的突破,实现生产效率的大幅提升,有效改善人类的生存空间,一切发展与自然环境的问题也就迎刃而解。

4 总 结

站在2019年看人工智能,不免感到几丝寒意。人工智能算法没有明显突破,鲁棒性差、算法黑箱等问题依然突出,部分商业化落地也不及预期,一些专家学者开始担心人工智能将迎来新的“寒冬”。

但若站在未来回顾人工智能,当前所有的担忧将仅仅是一个个小插曲。

即便是目前,人工智能技术的潜力也远远未终结。

人工智能即将带来的变革,仍将会超乎大部分人的想象。

近年来,许多行业都已切实感受到人工智能带来的颠覆,包括金融、制造、教育、医疗和交通等等。

但人工智能的价值维度还有很多,加速基础科学研究、提升社会生产效率和改善人类生存空间也只是其中的几个方面,我们不妨先提升一下自己的想象力。

人工智能将为人类带来怎样的变革,让我们拭目以待吧!

结语:以上就是首席CTO笔记为大家介绍的关于人工智能怎么突破黑箱的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/7003.html