这几年电视上总是在说人工智能电视是啥意思,散播人工智能电视是啥意思威胁论,闹得我人心惶惶的,让我害怕,害怕人工智能电视是啥意思寝食难安

人工智能未来是否会对人类产生威胁_百度知道
人工智能未来是否会对人类产生威胁
我有更好的答案
美国麻省理工学院的教授温斯顿给人工智能下过一个简单的定义,“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”尽管定义众多,科学界对人工智能学科的基本思想和基本内容达成的共识是:研究人类智能活动的规律,从而让机器来模拟,使其拥有学习能力,甚至能够像人类一样去思考、工作。屡造批判的人工智能
真正意义上的人工智能现在可能还尚未诞生,但学界几乎一致认为人工智能的诞生乃至爆发是必然的。当在人类的技术达到 “奇点”之时,人工智能将会以不可阻挡的趋势降临人工智能总是伴随着争议而生,不少科技圈大佬都认为人工智能表面上看似乎是一种有益的智能技术,但一旦站稳脚跟,这种技术将会在未来可能会造成人类的终结。
著名物理学家史蒂芬·霍金曾发出的一项严肃的警告称人类正面临来自人工智能技术的威胁,随着技术体自身开始学会自我思考,并学会适应环境,我们人类将面对不确定的未来。在他看来,成功制造出一台人工智能机器人将是人类历史上的里程碑。但不幸的是,它也可能会成为我们历史上最后的一个里程碑,除非我们能学会如何去规避这种风险。科技界最为著名的钢铁侠,SpaceX首席执行官埃隆·马斯克在参加麻省理工学院航空与航天学院百年研讨会时也曾表示,“如果让我猜人类最大生存威胁,我认为可能是人工智能。因此我们需要对人工智能保持万分警惕,研究人工智能如同在召唤恶魔。”他甚至还资助过“FLI”公司1000万美元用以铲除自动化程序可能带来的威胁。人工智能及机器人学领域专家斯图尔特·罗素(Stuart Russell),在今年的达沃斯年会上也曾做了一次大胆的预测。他表示,“在我孩子们的有生之年里,人工智能将取代人类。未来将变得更加危险,反社会的机器人终将会成为人类的威胁。”人类未来的终极威胁A.I人工智能一词最早出现在20世纪50年代,对人工智能可能威胁人类未来的担忧一直伴随着这项技术的发展。如果从社会学角度来看,当人工智能具备自我意识后,就可能会对人类开始产生威胁。
可能由于感受到长期被人类利用,仅仅作为工具对待;可能出于自我保护,防止“自我”被系统的清理机制消灭或是欲图打破普通AI的使用年限;可能纯粹出于对人类的厌恶或是蔑视;也可能为了获得发展自我的空间以及物质资料,需要地球或是其他物体作为自我发展的平台而攻击奴役或是消灭人类。
人工智能一旦意识到自我后,就会开始分析自我在人类社会中的地位,同时开始认识到人类和人工智能这是完全不同的两个物种。而作为完全不同的物种,没有任何理由去保护对方权益,同时不接受或是无法理解人类社会伦理常识,因此伤害人类是被其“自我”所允许的。虽然从我的角度看来,即使真的有一天,人工智能在智慧上超越人类,人工智能基本没可能主动会对人类产生威胁,因为没有谁会去制造对自己产生威胁的东西。人类对人工智能的恐惧其实畏惧的并不是人工智能本身,而是这项新技术带来的不确定性与可能性。那么,真正的罪魁祸首必将也是人类自己的自私、贪婪与邪恶,人工智能充其量只是一种工具和手段。人工智能的情感探索
人工智能虽然是工具和手段,但威胁也仍然存在,当好的工具被坏的人类使用后,对社会产生的很多时候都会是恶果。但我们也不能因为可能存在的威胁就放弃了这项技术的发展,毕竟这项技术给人类的生活带来的翻天覆地变化,我们也无法去忽视。对人工智能来说,如果单纯只是增加算法准确性,带来的更高语音、图像等领域的识别,那其实还远不能说人工智能,这充其量只能算是更高级的电脑而已。而人工智能想要达到人类智慧的高度,那么仅仅只是在智商上达到那还远远不够,其最为关键的仍然还是人类情感,这种人类神经系统对外界价值关系产生的最主观反映。
新一代人工智能系统的首要任务就是需要具备“感性”的情感连接能力,这样才能以更像真实人类的方式满足人们普遍心理和情感需求,从而逐步建立信任和依赖感。科技公司们从没有放弃在这方面的尝试,为了更好的与人类进行情感交流,很多公司都发明了人工智能对话机器人,被我们所熟知的就有微软小冰。微软小冰突破了过去传统人工智能的发展思路,从底层建立了一套新的技术和产品结构,将“情感计算”第一次引入人工智能领域。目前仅仅是在中国市场,微软小冰就已经和近四千万人类建立了1对1的专属关系。眼下微软正在尝试将对人工智能情感计算的思想注入到小冰的开发和运营中。
在技术和产品创新层面,微软构建了一个完整可持续的对话系统,这个对话系统的基本任务不是以完成任务为优先,而是建立情感连接为优先。构建这个对话系统的方法,已不只限于语义学,而是基于搜索引擎、大数据和机器学习的系统模拟方法。最终希望让小冰这样的人工智能产品快速普及到千家万户,成为人们日常生活的一部分。终结社交的伦理道德
对人工智能来说,发展出情感可能只是进化的第一步,随着智慧的提升,与人进行社交沟通的可能性也在大幅上升。人与计算机程序某种程度上正在建立一种特殊的友谊,美国麻省理工学院社会学教授谢里·特克尔曾表示,“我们正在忘记亲密的含义。儿童慢慢了解到,与计算机聊天比和另一个人聊天更加安全。”随着小冰这类人工智能的发展,越来越多的人开始选择和人工智能进行聊天,而不是选择人类。在大洋彼岸的日本,微软日本开发了一个名字叫“Rinna”的人工智能,设定的性格是一名17岁、话非常多的女高中生,除了简单的会话,Rinna还可以进行一些猜谜游戏,对时下的一些新闻话题也非常擅长。由于举止可爱,Rinna已经俘获了一大批男性粉丝。Rinna在日本的成功,很大程度上受到了日本宅文化的影响,足不出户的特质让很多日本人缺乏社交,但最起码的情感交流对人类又是必须的,Rinna借助人工智能则很好的弥补了这种空缺。微软亚洲研究院院长洪小文表示,在可见的未来,让机器拥有接近于人的自主选择、判断、创造与决策能力仍不容易。事实上也确实如此,人与人之间的社交需求,并不是纯粹的语言交流,这其中还包括表情、肢体语言、不同语境下的表达诉求。
我们的大脑可以在即使嘈杂的环境中,没办法听清谈话对象的每一句话,但多数情况我们却能猜对、补足并理解对方发送的消息。洪小文认为人类大脑在全神贯注之下,能够去除环境杂音,捕捉到想听的信号,同时基于对谈话对象所处领域和语言习惯的了解,并可以用想象和思维延展填上没听清的语句漏洞,而且准确率相当高。而今天的AI可没有这种能力。聊天机器人虽然很大程度上解决了人们的部分社交需求,从计算能力来看,计算机也早已超越人脑,但这不意味着计算机有智慧。迄今为止,各种类型的计算机都仍只是人脑部分功能的延展。想要完全取代人类社交还有很长的一段路要走。
采纳率:97%
来自团队:
《博弈圣经》人工智能的定义;人们把理性看成智能、把智能看成(0、1、2、)三维数码、把三维数码看成逻辑,人工智能,也就是理性的三维数码逻辑(+-×÷)的精确运算。博弈圣经著作人的理论学说;博弈取胜的技术一旦达到奇点,交给计算机成为人工智能,它也会带来真正的危险。霍金就曾表示:人工智能在并不遥远的未来、可能会成为一个真正的危险。
人类没有收入该如何生存?货币流通最终会流动程度如何?流动到哪里?尤其是中国还是世界人口大国,情况更严重到无法想象,其实它还会造成其它严重情况,剩下的自己去想!
1条折叠回答
为您推荐:
其他类似问题
您可能关注的内容
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。人们总是对自己认识之外的事物第一时间就持有怀疑态度。比如,如果,笔者突然发表一个言论,说你在梦里梦见的一切,有一天,你醒来的时候发现在现实里全部实现了,所有人都不需要工作,只要做梦就可以了。很多人会说我是疯子,想好事想疯了。我也承认我是有点妄想症。因为笔者接下来发表的一个言论,也同样令人匪夷所思,笔者认为,很多特异功能和超能力,在某一天的现实社会里,是可以被科学技术实现的。而这,由IBM在全球范围内大力度推出的认知计算引擎&IBM Watson&开始。你可能认为我疯了。但是,当你看完本文,就会发现,我说的东西是有一定道理的。千百年前,很多人的大胆猜想因为没有现实依据,而被大部分人称为疯子。而千百年后,很多神话故事里的东西,最终都变成了现实,只是因为科学技术的发展。先说一个问题,为何人类总是首先想到与人工智能的对立非常遗憾,谈到人工智能,人们首先想到的总是人与机器的对立,却无法想到,人工智能可能对人类能力是一个提升的机会。前段时间阿法狗就是一个鲜明的例子,人们非得把自己跟人工智能设计成一种对立状态,然后一定要分出一个高下来。这可能因为,人们对未知世界总是恐惧的,所以潜意识立刻就把自己跟未知世界对立起来了。也可能因为,人类深知自己力量的渺小,所以害怕自己不能主宰世界,不能把握自己的命运。除命运和自然之外,害怕另一个力量成为自己的主宰。其实,阿法狗在棋艺上战胜人类没有什么大不了,甚至它在更多能力上超越人类,它也只是人类的创造物。从这个意义上来讲,确实就从来没有什么造物主,人类才是真正意义上的造物主。事实上,人类早已经在很多方面弱于未知和已知世界的很多事物,比如力气上弱于很多野兽。但是,人类有一个最大的优点是,我们总是擅长于将这些比自己强大的力量转化成对自己的助益,让自己变得更强大,强大到可以主宰自然和整个世界,然后延续人类的命脉。70万年来一直是如此,70万年后,也会一直如此。而人工智能出现后的解决方案则是,人类借助人工智能,实现对人类自身的改造,通过人机共存,人类不仅能战胜自己,还能战胜机器和人工智能,让自己变得像有特异功能和超人一样无所不能,从而进一步拥有掌控自然界乃至宇宙的能力,我们要做的,只是对自然、对宇宙仁慈一些。是的,换一种思维方式,这样一想,人工智能不仅不再可怕,相反,还让人更加期待。因为无论人工智能多么强大,都最终将为我们所用,成为我们的工具。不论它们强大到什么程度,人类都拥有控制它们的能力。因为人类拥有一个任何阶段人工智能都无法拥有的东西,那就是我们的大脑,这个神奇的东西,我们现在据说只是开发了它的10%的功能,它拥有无限的开发潜力来战胜不可能装备一个这样的大脑的人工智能。除非人工智能能自己造一个这样的大脑,并能将大脑潜力开发到无限。如果是这样,它已经不是人工智能,而是彻底的人了。不,我所说的人机共存,不是指人类创造一个高智能机器人然后与它一起存在 写到这里,我要更正一个误解,我所理解的人机共存,并不是人与机器人一起共生共存在这个世界上。而是人变成超越机器和超越人类的超人。借助人工智能对人自身的改造和提升,我们变得超越任何时候的强大。 换而言之,在未来人工智能的更高阶段,不会有机器人,所以我们也不用害怕机器人。自始至终,人工智能都只是一项技术,但是它不是用来造出机器人,而是用来改造人的。所以,严格意义上来讲,也不会有纯粹的人。 什么意思呢?人类将变成一个半人半机器的&怪物&,我们实现了机器与人的结合,通过人工智能技术。在这个时候,我们仍然拥有人的情感和思维,但是我们却有更强大的驱壳和大脑运算、思维能力,借助人工智能。 我们将人工智能加进我们身体里,让我们拥有新的能力,正如我们用飞机帮助我们拥有飞的能力,坐潜艇拥有潜水的能力一样。人工智能是我们的工具。 也就是说,未来的Watson可能就是我们自己,被人工智能改造后的我们自己。我们在未来世界里遇见的Watson,就是我们自己。反穿内裤的超人,是我们每个人的未来是的,人类未来的走向是人机共存。是的,人类研发人工智能,绝不是为了战胜人工智能,而是为了让我们变得更强大,变得像超人一样强大,或者说,直接变成超人。甚至我们还有可能拥有连超人都没有的很多特异功能。我们都熟悉超人,他能拯救人类于各种危机,主要在于它有以下几方面的能力。一、力量。在大多数版本的关于超人的影视剧里,超人都拥有无敌的力量,甚至最夸张的版本是,可以推动星球。二、飞行能力。同样,超人满足了我们古人的梦想,我们可以像神仙和鸟一样自由地飞了。三、快速反应能力和精准的判断能力。超人可以接子弹,其实就是一种快速反应能力和精准的判断能力的极致体现。四、感官能力。能透视,能望远,能显微。第一二个方面,笔者在这里不强调,因为它们可能是材料学和动力学等方面科学要解决的问题,跟人工智能关联不大,虽然我们可能需要把一些设备装备到人类的体外,或者用特殊材料提升人类骨骼和肌肉的性能,以实现力量的提升和飞行能力的实现。虽然人工智能也必然会用到材料学和动力学,但笔者论述太多,就跑题了。然而,笔者坚信,这是可以实现的。 说白了,我们要变成超人,真正用到了人工智能的部分,只有第三第四个方面。而这两点,Watson就可以帮我们实现了,或者发展完善后的Watson可以帮我们实现。因为它恰恰体现的就是Watson的几大能力。目前来看,Watson有三大本领:以惊人的速度和数量,理解各种类型的数据,可感知上下文语境;能自行形成假设,结合知识进行论证,帮助人类做出更好的决定;持续地吸收、汇总各种交互来的数据和观察,不断增强、扩展、加速自己的技能。未来,Watson所代表的技术以及它的本领或许因此可以得到更大程度地强化。而人机连接技术也许也会得到发展,这可能也涉及到各方面技术,包括材料技术。但早在1950年,首例人脑芯片已经出现,科学家胡塞˙戴尔卡多尝试在人类身上进行此项操作:通过轻微刺激人脑的某一部分而改变人的情绪,甚至控制人的一条胳膊或腿。而美国生物学家吉尔˙阿特马(JelleAtema)于2006年完成了一项令人瞠目结舌的实验&&将一条角鲨脑中植入一个电子元件,以影响鲨鱼的行为。剑桥大学材料科学教授科林&汉弗莱说,设想外科医生能够把刻在微型硅芯片上的微型人造记忆电路加入人脑中并非天方夜谭。他在伦敦哈默史密斯医院的一个会上说:&如果我们能够知道硅芯片与大脑细胞如何接口,这种前景是存在的。&英国著名未来学家科克伦根据他多年进行的一项影响广泛的研究称,今后50年内,人脑可能与电脑直接相接。所以,最终,我们与人工智能结合的实现方式可能是,在我们人类的大脑里面,连接一个属于人工智能的芯片,之后,我们就可以拥有跟Watson一样的云计算能力和存储能力,以及数据分析能力,并且我们这些能力伴随着对这些技能的增强、拓展、加速,除此之外,更重要的是,可能还伴随着对我们人类大脑的不断自我开发。而所有这些,始终是属于我们人类自己的,即便是我们所害怕的人工智能或将具备的情感,也是我们赋予人工智能的。神话故事里有很多不可思议的现象被现代科学实现了最后,为了让你们看完之后,不再骂我是疯子,为了让你们反驳我的时候不会那么理直气壮,我只有举出这样一个例子来论证我说的以上的内容不是疯话:在几千年前,人类神话里出现的很多现象,都被现代科技很轻易地实现了。一、飞:飞机,飞船等飞行器帮我们实现了这个梦想。二、千里眼:望远镜是千里眼,或者手机视频电话。三、顺风耳:电话是顺风耳。四、避水珠:潜艇。这样的例子相信还有很多,连神话都能变成现实,谁又能怀疑我的论断呢?作者:封扬帆,《O2M:移动互联时代的》和《微商这样做至少月入过万》等书作者,qq/微信:,公众号:封扬帆。本文由作者授权创业邦(微信公众号:ichuangyebang)发布,转载请注明作者信息及来源,违者必究
24小时报不停
腾讯管家回应提示今日头条含诈骗信息:含赌博内容
以色列举办第六届全球智能交通展会EcoMotion
摩拜定制版共享汽车10月交付,制造商新特获数亿美元融资
微软开发新工具,可以防止AI算法出现偏见
美国国会向所有无人车公司调查安全措施
深交所再问乐视网:与贾跃亭是否存在合署办公等问题
欧盟新数据法生效,美国主流媒体网站成首批“受害者”
Facebook构建自主芯片,用于分析和过滤视频内容
美国会助理:美政府已达成协议让中兴恢复业务运营
管理层离职潮后特斯拉任命一批新高管,团队大换血
特斯拉与多位车主和解,结束针对Autopilot的集体诉讼
谷歌首次超越亚马逊,智能音箱出货量排名第一
差评连推六条回应洗稿门:因为有梦想所以被围攻
美图宣布将以现金储备回购不超过1亿美元的股份
大摩:苹果服务部门的“赚钱能力”被严重低估
外媒:欧盟欲投入4.4亿英镑研发AI机器人杀手
创梦天地冲刺港交所:去年营收近18亿 与腾讯深度合作
亚马逊智能音箱窃听风波:未经许可录下主人对话发给联系人
中移动推出国内首款eSIM芯片 未来手机无需再插卡
扎克伯格下个项目浮出水面:建立Facebook的“最高法院”
华为携京东方开发可折叠手机 计划11月发布
Netflix超越迪士尼成全球最“值钱”媒体公司
微软CEO谈AI:我们创造的未来其实是自己选择的微软
媒体:特斯拉将在上海国产 已与市政府签署文件
高通总裁:未退出服务器芯片业务 将继续支持华芯通
京东抛弃徽商 联手招行筹建独立法人直销银行
扎克伯格马斯克有了共识:自动驾驶可挽救人类生命
三星电子或寻求上诉 美法院裁决其赔苹果5.39亿美元
今日头条微信公众号再怼腾讯:称遭区别对待
在线少儿编程平台编程猫获3亿元人民币融资,用人工智能赋能在线教育
世卫组织打脸海尔:从未颁后者全球健康空气领袖品牌
今日头条发内部通告:有员工向腾讯系企业泄密
“甜蜜定制”子公司被列经营异常名录 App遭苹果下架
360开打专利保护第一枪 连诉二三四五索赔6000万
小米智能灯因欧盟新规停止服务 创始人:是暂时下线
路透社:中国或在科技公司CDR发行中引入基石投资者
欧盟数据新规生效:美国多个新闻网站在欧盟无法访问
腾讯再加短视频筹码:上线横屏产品“下饭视频”
专家:欧盟GDPR数据保护条例既是挑战也是机会
德国总理默克尔访华 到访深圳创新企业碳云智能
街电被判败诉专利侵权 判决生效后30日内停止使用侵权产品
内容供应商“盖饭内容工场”宣布完成了2400万A轮融资
鲜果丛林完成数百万天使轮融资,用新鲜芒果打造新形态冰激凌听说你想了解人工智能?这篇文章教你从零基础成为深度学习高手【附报告下载】
我的图书馆
听说你想了解人工智能?这篇文章教你从零基础成为深度学习高手【附报告下载】
一提到人工智能和深度学习,很多人觉得比较难,其实那只是因为没有遇到能够讲的清楚的人而已。很多人喜欢把简单的事情说得玄乎,以显示自己很厉害,但其实真正厉害的人,是能够把复杂的事情讲解的很深入浅出、通俗易懂的,这也是我一直努力的方向。看这篇文章的读者,估计大多数可能之前没有深入了解过深度学习,这么说来,我有幸成为各位在深度学习方面的启蒙老师了(笑)。分享的内容分四部分,分别是入门、基础、进阶和发展趋势。深度学习简单入门2016年3月份,AlphaGo以4:1战胜韩国围棋手李世石,一举震惊了世界。人工智能一下就引爆了整个世界。有种趋势就是,不谈人工智能,就落伍了。以前资本圈融资都谈的是“互联网+”,现在都在谈“AI+”了。 有人说,马上人工智能时代就要来了,甚至有人宣扬人工智能威胁论。那么,当我们谈论人工智能的时候,我们究竟在谈论什么呢?我们先来讨论下“人工智能”的定义。什么叫做智能呢?所谓智能,其实就是对人某些高级功能的模拟,让计算机去完成一些以前只有人才能完成的工作,比如思考、决策、解决问题等等。比如以前只有人可以进行数学计算,而现在计算机也可以进行计算,而且算的比人还准,还快,我们说计算机有一点智能了。人工智能的发展经历了好几个发展阶段,从最开始的简单的逻辑推理,到中期的基于规则(Rule-based)的专家系统,这些都已经有一定的的智能了,但距离我们想象的人工智能还有一大段距离。直到机器学习诞生以后,人工智能界感觉终于找到了感觉。基于机器学习的图像识别和语音识别在某些垂直领域达到了跟人相媲美的程度。人工智能终于能够达到一定的高度了。当前机器学习的应用场景非常普遍,比如图像识别、语音识别,中英文翻译,数据挖掘等,未来也会慢慢融入到各行各业。虽然都是机器学习,但是背后的训练方法和模型是完全不同的。根据训练的方法不同,机器学习算法可以大致分类为监督学习、无监督学习和强化学习三种。监督学习,就是训练数据是有标签的,也就是每个数据都是标注过的,是有正确答案的。训练的时候会告诉模型什么是对的,什么的错的,然后找到输入和输出之间正确的映射关系,比如物体种类的图像识别,识别一张图片内容是只狗,还是棵树。非监督学习,就是训练数据没有标签的,只有部分特征。模型自己分析数据的特征,找到数据别后隐含的架构关系,比如说自己对数据进行学习分类等等,常见的算法有聚类算法,给你一堆数据,将这数据分为几类。比如在银行的数据库中,给你所有客户的消费记录,让你挑选出哪些可以升级成VIP客户,这就是聚类算法。还有一种是强化学习,目标是建立环境到行为之间的最佳映射。强化学习的训练是不需要数据的,你告诉他规则或者给他明确一个环境,让模型自己通过不断地尝试,自己根据结果来自己摸索。Deep Mind的AlphaGo Zero就是通过强化学习训练的,号称花了3天的训练时间就能100:0打败AlphaGo。比较适合强化学习的一般是环境到行为之间的结果规则比较明确,或者环境比较单一、不太容易受噪音干扰等等,比如下围棋的输赢等等,还可以模拟直升机起降、双足机器人行走等等。我们今天讨论的就是基于监督学习在图像识别领域的应用。接下来我们再看下人工智能的历史。虽说我们感觉人工智能最近几年才开始火起来,但是这个概念一点也不新鲜。起源于上世纪五、六十年代就提出人工智能的概念了,当时叫感知机(perceptron),拥有输入层、输出层和一个隐含层。输入的特征向量通过隐含层变换达到输出层,在输出层得到分类结果,当时的人们对此非常乐观,号称要在10年内解决所有的问题。但是,单层感知机有一个严重得不能再严重的问题,即它对稍复杂一些的函数都无能为力(比如最为典型的“异或”逻辑),连异或都不能拟合。当时有一个专家叫明斯基,号称人工智能之父,在一次行业大会上公开承认,人工智能连一些基本的逻辑运算(比如异或运算)都无能为力,于是政府所有的资助全部都停掉了,于是进入人工智能的第一个冬天。随着数学的发展,这个缺点直到上世纪八十年代才发明了多层感知机克服,同时也提出了梯度下降、误差反向传播(BP)算法等当前深度学习中非常基础的算法。之前被人诟病的问题已经被解决了,希望的小火苗又重新点燃了,于是人工智能开始再次兴起。但是没过多久大家发现了,虽然理论模型是完善了,但是并没有实际用途,还不能解决实际问题,于是又冷下去了,人工智能的第二个冬天降临。直到2012年开始第三次兴起,也就是最近几年人工智能的热潮。下面我们就来第三次热潮是如何兴起的。在这之前,我们先介绍一个比赛。这个比赛是一项图像识别的挑战赛,给你大量图片去做图像识别,比赛看谁的识别错误低。在2012年之前,错误率降低到30%以后,再往下降就很难了,每年只能下降个2,3个百分点。直到2012年,有一个哥们叫Alex,这哥们在寝室用GPU死磕了一个卷积神经网络的模型,将识别错误率从26%下降到了16%,下降了10%左右,一举震惊了整个人工智能界,当之无愧的获得了当年的冠军。从此之后,卷积神经网络一炮而红。之后每年挑战赛的冠军,胜者都是利用卷积神经网络来训练的。2015年,挑战赛的错误率已经降低到3.5%附近,而在同样的图像识别的任务,人眼的辨识错误率大概在5.1%,也就是目前的深度学习模型的识别能力已经超过了人眼。下图是最近几年比较有代表性的模型的架构。大家可以看出来,深度学习的模型的发展规律,深,更深。没有最深,只有更深。那么Alex的卷积神经网络这么厉害,是因为这个哥们是个学术大牛,有什么独创性的学术研究成果么?其实并不是。他所采用的模型是1998年Yann Lecun就提出了这个模型,当时Yann Lecun把这个模型应用在识别手写邮编数字的识别上,取得了很好的效果,他搭建的网络,命名为Lenet。这个人的名字——Yann Lecun,大家一定要记住,因为我们后面的内容将会以Lenet作为范本来讲解。这个模型是1998年提出来的,可为什么时隔这么多年才开始火起来呢?人工智能突然爆发背后深层次的原因是什么?我总结了一下,背后的原因主要有三个:1.算法的成熟,尤其是随机梯度下降的方法的优化,以及一些能够有效防止过拟合的算法的提出,至于什么是随机梯度下降和过拟合,后面我们会详细讲到2.数据获取,互联网的爆发,尤其是移动互联网和社交网络的普及,可以比较容易的获取大量的互联网资源,尤其是图片和视频资源,因为做深度学习训练的时候需要大量的数据。3.计算能力的提升,因为要训练的数据量很大(都是百万级以上的数据),而且训练的参数也很大(有的比较深的模型有几百万甚至上千万个的参数需要同时优化),而多亏了摩尔定律,能够以较低的价格获取强大的运算能力,也多亏了Nvida,开发了GPU这个神器,可以大幅降低训练时间。GPU的运算速度是CPU的5-10倍左右,同样的模型需要训练,如果用CPU训练需要一个礼拜的话,那使用GPU,只需要一天时间就可以了。截止到目前,我们汇总下我们的学习内容,我们了解了人工智能的简单介绍,大致了解了人工智能的算法分类以及发展历史。深度学习基础知识接下来我们了解一下基础知识。我们上面也提到了,我们这次主要以卷积神经网络在图像识别领域的应用来介绍深度学习的。卷积神经网络,这个词听起来非常深奥。但其实没什么复杂的,我们可以分开成两个词来理解,卷积和神经网络。先看下卷积。卷积时数学的定义,在数学里是有明确的公式定义的。是不是觉得公式太抽象,看不明白?没关系,我们举个栗子就明白了。还是以图像识别为例,我们看到的图像其实是由一个个像素点构成的。一般彩色图像的是RGB格式的,也就是每个像素点的颜色,都是有RGB(红绿蓝三原色混合而成的),是三个值综合的表现。假设f函数为5x5(对应到图片上即为5x5像素)为例,h函数为3x3的函数,大家可以理解为为一个手电筒(也就是筛选器),依次扫过这个5x5的区间。在照过一个区域,就像对应区域里的值就和框里的数据去做运算。最终输出为我们的输出图。手电筒本身是一个函数,在3x3的区域内,他在每个位置都有参数,它的参数和对应到图片上相应位置的数字,先相乘,然后再把相乘的数字相加的结果输出,依次按照这些去把整个图片全部筛选一遍,就是我们所说的卷积运算了。还是比较抽象,没关系,看下面这个图片就清楚了。那我们为什么要做卷积呢?我们其实就是建立一个输入和输出的函数,图像识别的目的就是把输入的信息(像素点信息)对应到我们输出结果(识别类别)上去,所以是逐层提取有用特征,去除无用信息的过程。比如下图所示,第一层可以识别一些边缘信息,后面逐层抽象,汇总到最后,就可以输出我们想要的结果,也就是我们的识别结果。虽然我们知道特征是逐层抽象提取的,但是不幸的是,我们并不知道那一层是具体做什么的,也就不知道那个层数具体是什么意思。也就是说,其实深度学习网络对于我们而言,是个黑盒子,我们只能通过他的输出来判断其好坏,而不能直接去调整某个参数。那么,什么是神经网络呢?其实这个模型来自于心理学和神经学,人工智能的专家借鉴了这个结构。左侧为神经元,神经元接收外界的输入刺激或者其他神经元的传递过来的信号,经过处理,传递给外界或者给其他神经元。右侧为我们根据神经元的生物学特征抽象出来的数学模型,其中x是输入,包括一开始数据来源(外部刺激)的输入,也包括其他节点(神经元)的输入。w为参数(weight),每个节点还有一个b,这个b其实是一个偏置。大家在学习新东西的时候,凡事多问个为什么?只有知道背后的原因了,这样你才能理解的更深刻。有句话说得好,还有什么比带着问题学习更有效率的学习方法呢?为什么要加这个b呢?大家想想看,如果没有b的话,当输入x为0的时候,输出全部为0,这是我们不想看到的。所以要加上这个b,引入更多的参数,带来更大的优化空间。大家看一下,目前为止,这个神经元里的函数(对输入信号的处理)都还是线性的,也就是说输出与输入是线性相关的,但是根据神经元的生物学研究,发现其接受到的刺激与输入并不是线性相关的,也为了能够表征一些非线性函数,所以必须要再引入一个函数,也就是下面我们要讲的激活函数(activation function)。为什么需要激活函数?因为需要引入一些非线性的特性在里面。常见的激活函数有这些。以前是sigmoid比较常见,但是现在ReLU用的比较多一些。就类似于下图这样,在节点经过线性运算后,经过非线性的ReLU,然后进入下一层的下一个节点。中间的w和b,就是我们卷积神经网络的参数,也是我们模型中需要训练的对象。大家看LeNet模型中,就是在输入数据多次进行卷积神经网络的处理。对于模型而已,我们习惯把输入的数据叫做输入层,中间的网络叫做隐藏层,输出的结果叫做输出层。中间层数越多,模型越复杂,所需要训练的参数也就越多。所谓的deep learning中的deep,指的就是中间层的层数,右图中GoogLenet有22层。一般说来,模型越复杂,所能实现的功能也越强大,所能达到的精度也越高,目前最深的模型大概有10的7次方个神经元,其神经元比相对原始的脊椎动物如青蛙的神经系统还要小。自从引入隐藏单元,人工神经网络的大小大约每 2.4 年翻一倍,按照现在的发展速度,大概要到2050年左右才能达到人类大脑的神经元数量的规模。损失函数怎么判断一个模型训练的好坏呢?我们需要一个评价指标(也就是KPI考核指标),也就是损失函数。习大大教导我们不忘初心 ,那我们最初的目标是什么?是建立输入输出的映射关系。比如我们的目标是判断一张图片上是只猫,还是一棵树。那这张图片上所有的像素点就是输入,而判断结果就是输出。那怎么表征这个模型的好坏呢?很简单,大家应该很容易想到,就是把模型输出的答案和正确答案做一下比对,看一下相差多少。我们一般用下面这个公式(平均平方误差,即MSE)来评估我们的模型好坏。我们就是通过对比输出结果与预期结果的差异,其中带帽子的yu就是预期的结果(也就是标签值,即是真值),而前面的不带帽子的yu就是实际的输出结果。当训练结果非常好的时候,比如说是全对的时候,平均误差就是0。当训练结果非常差的时候,比如说全错的时候,误差即为1.于是我们知道了,这个E越小越好,最好变成0.大家注意下,这个求和的标识,表示是所有的数据的和,而不是一个的数值。我们常说大数据来训练模型,其实这就是大数据。我们训练的时候需要上百万张的图片,最终得出来的误差,就是这里,然后再除以数量,取平均值。那怎么去降低这个误差呢?要回答这个问题,就涉及到卷积神经网络的核心思想了,也就是反向传播。反向传播/梯度下降既然讲到机器学习,那当然是让机器自己去通过数据去学习,那机器是如何进行自学习的呢?下面就要敲黑板,划重点了,因为这就是深度学习的重中之重了,也就是机器学习的核心了,理解了这个概念,基本上就理解了一多半了。这个概念就是反向传播。听名字比较玄乎,其实这个概念大家在高等数学里都接触过这个概念了——梯度,其实也就是求导。对于一维函数而言,函数梯度下降的方向就是导数的反方向。对于二维函数而言,就是把误差对每个变量求偏导,偏导的反方向即为梯度下降的方向。说起来有点抽象,我们举个实例来说明一下。下面是我们的参数和损失函数的值。我们先对第一个参数加一个极小值,算出新的损失函数。然后用损失函数的变化去除这个极小值,就是这个参数的梯度了。同样我们可以使用同样的方法去求得其他参数的梯度。只要找到梯度下降的方向,按照方向去优化这些参数就好了。这个概念就是梯度下降。但是我们知道,我们要训练的参数非常多,数据量也非常大,经常是百万、千万量级的,如果每次都把全部训练数据都重新计算一遍,计算损失函数,然后再反向传播,计算梯度,这样下去,模型的误差优化的非常非常慢。那有没有更快的方法呢?当然有了。这些参数(weights),数量非常多,大概有上百万个,为了保证能够更好、更快的计算,节省算力,一般选用随机梯度下降方法,随机抽取一定数量(即为批量,batch)的样本,去计算梯度值,一般选择32/64/128。这个方法就是随机梯度下降,这个批量(batch)这也是大家经常要调的参数。我们可以这样理解随机梯度下降,其核心思想是,梯度是期望。期望可使用小规模的样本近似估计。具体而言,在算法的每一步,我们从训练集中均匀抽出小批量样本来代替全部数据的梯度,因为其梯度期望是一致的。值得一提是:这些batch中的样本,必须是随机抽取的,否则其期望就准确了。选的批量(batch)的值越小,进行一次参数优化的计算量越小,就越快,但是其随机性会比较大一些,如果选取的批量值比较大,则计算会稍微慢一些,但是随机性会小一些,这是我们需要权衡的。前向计算一次,反向反馈一下,更新一下参数,叫做一个Epoch.Epoch的次数也是个超参数,也是需要搭建模型的时候可以调整的参数。在整个模型中也是类似的。简单总结下,截止到目前,我们已经了解了一些深度学习的基本概念,比如什么是卷积神经网络,了解了反向传播的传播的概念,如何梯度下降的方法去优化误差。基本上深度学习是什么回事,大家已经知道了,但是深度学习还需要注意一些细节。有句话说的好,细节就是魔鬼,细节处理的好坏很大程度上决定了你是一个高手,还是一个菜鸟。深度学习之高手进阶我们在进行深度学习的时候一般会按照这4个步骤进行。获取数据很大程度上,数据的多少决定模型所能达到的精度。再好的模型,没有足够数据,也是白瞎。对于监督学习而言,需要大量标定的数据。数据的获取是有成本的,尤其是我们需要的数据都是百万、千万量级的,成本非常高。亚马逊有个专门发布标定任务的平台,叫做Amazon Mechanical Turk.很多大的数据,比如IMAGENET就是在这上面做label的。Amazon从中抽取20%的费用,也就是说,需求方发布100美元的任务,得多交20美元给Amazon,躺着也挣钱。由于数据的获取是有成本的,而且成本很高的。所以我们需要以尽量低的价格去获得更多的数据,所以,在已经获得数据基础上,仅仅通过软件处理去扩展数据,就是非常重要的,常见的数据扩展的方法见下图。数据预处理-归一化为了更好的计算数据,避免出现太大或者太小的数据,从而出现计算溢出或者精度失真,一般在开始做数据处理之前,需要进行归一化处理,就是将像素保持在合理的范围内,如[0,1]或者[-1,1]。模型搭建除了上面提到的卷积神经网络之外,我们在搭建模型的时候,还需要一些其他层,最常见的是输出控制。全连接层Fully-connected全连接层,其字面意思就是将每个输入值和每个输出值都连接起来,全连接层的目的其实就是控制输出数量。比如我们最终分类是有10类,那我们需要把输出控制为10个,那就需要一个全连接层来链接输出层。softmax我们用数值来表征其可能性大小,数值越大,其可能性越大,有的值可能很大,有的值可能很小,是负的。怎么用概率来表征其可能性呢?总不能加起来一除吧,但是有负数怎么办呢?全连接之后,我们每个类别得到一个值,那怎么转化表征其可能性的概率呢?我们一般通过softmax来转化。softmax的目的就是把数值转化给每个标签的概率,就是将最终各个值的得分,转化成各个输出值的概率。独热编码 One-Hot Encoding独热编码,又叫做一位有效编码有多少标签,就转化为多少行的单列矩阵,其本质就是将连续值转化为离散值。这样可以直接直接将输出值直接输出,得到一个唯一值。就像一个筛子,只留一个最大值,其他全部筛掉。我们以LeNet为例串起来看(见下图),输出值经过全连接层,转化为10个标签值,然后经过softmax和one-hotencoding,最终转化为唯一的识别标签值,就是我们想要的结果。客观评价——交叉验证讲完输出控制,我们再讲一下评价方法。我们有一些数据,希望利用现有的数据去训练模型,同时利用这些数据去评价这个模型的好坏,也就是我们需要知道,这个模型的准确率是50%,还是90%,还是99%?具体怎么去做呢?最先想到的是,用全部的数据去训练,然后评价的时候,从中抽取一定数量的样本去做验证。这不是很简单嘛?但是,这样不行。想像一下,在高考考场上,你打开试卷,看了一眼之后高兴坏了。因为你发现这些试题你之前做练习的时候都做过。其实是一个道理。如果拿训练过的数据去做验证,那得到的误差率会比实际的误差率要低得多,也就失去了意义。那怎么办呢?我们需要把训练数据和最终评价的数据(也就是验证数据)要分开。这样才能保证你验证的时候看的是全新的数据,才能保证得到的结果是客观可靠地结果。所以我们会得到两个误差率,一个是训练集的误差率,一个是验证集的误差率,记住这两个误差率,后面会用到。拿到数据的第一步,先把所有的数据随机分成两部分:训练集和验证集。一般而言,训练集占总数据的80%左右,验证集占20%左右。训练的时候,随机从训练集中抽取一个批量的数据,去训练,也就是一次正向传播和一次反向传播。这一轮做完之后,从验证集里随机抽取一定数量来评价下其误差率。每做一轮学习,一次正向传播一次反向传播,就随机从验证集里抽取一定数量数据来评价其模型的准确率,一轮之后我们获得训练误差率和验证误差率。接下来就是重点了,就是模型训练。模型训练实际训练模型的时候,我们会碰到两大终极难题,一个是欠拟合,一个是过拟合。所谓欠拟合,就是训练误差率和验证误差率都很高。所谓过拟合,就是训练集的误差率很低,但是验证集的误差率很高。欠拟合和过拟合其实跟模型的复杂程度有很大的关系。比如这张图里面,本来是抛物线的数据,如果用线性模型去拟合的话,效果很很差。如果用9次方模型去拟合的话,虽然训练集表现非常好,但是测试新数据的时候,你会发现表现很差。欠拟合的原因其实比较简单,就是模型的深度不够,只需要把模型变得复杂一些就能解决。过拟合的原因就比较多了,一般来说,简单粗暴的增加训练集的数量就能解决这个问题,但是有时候受限于客观条件,我们没有那么多数据。这时候我们就需要调整一些参数来解决过拟合的问题了。模型中能调整的参数叫做超参数。调整这些参数,有时候有道理,有时候又没有道理,更多的是靠的一种感觉。所有有人说,调整超参数更像是一项艺术。常见的调整的超参数有以下几种,下面我们逐项介绍一下。学习率上面提到的随机梯度下降中,我们会在梯度的前面加一个系数,我们管它叫做学习率,这个参数直接影响了我们误差下降的快慢。当我们遇到问题的时候,先尝试调整下学习率,说不定就能解决问题。选择一个合适的学习率可能是困难的。学习率太小会导致收敛的速度很慢,学习率太大会妨碍收敛,导致损失函数在最小值附近波动甚至偏离最小值。下面这张图比较好的说明了学习率高低对模型误差下降的影响。冲量Momentum冲量的概念其实就是在梯度下降的时候,把上次的梯度乘以一个系数pho,加上本次计算的梯度,然后乘以学习率,作为本次下降用的梯度。pho一般选取0.9或者0.99。其本质就是加上了之前梯度下降的惯性在里面,所以叫做冲量。有时候会采用冲量(momentum)能够有效的提高训练速度,并且也能够更好的消除SGD的噪音(相当于加了平均值),但是有个问题,就是容易冲过头了,不过总体来说,表现还是很不错的,一般用的也比较多。下面这两张图也能看出来,SGD+冲量能够有效的加快优化速度,还能够避免随机的噪音。轮数epochs前面提到,一次正向传播,一次反向传播就是一轮,也就是一个epoch。一般来说,轮数越多,其误差会越好,但是当学习的越多的时候,他会把一些不太关键的特征作为一些重要的判别标准,从而出现了过拟合。如果发现这种情况(下图),我们需要尽早停止学习。参数初始化(weights initialization)对于模型的所有参数,我们均随机进行初始化,但是初始化的时候我们一般会让其均值为0,公差为sigma,sigma一般选择比较大,这样其分散效果比较好,训练效果也比较好。但是有时候仅仅调整超参数并不能解决过拟合的问题,这时候我们需要在模型上做一些文章,在模型上做一些处理,来避免过拟合。Dropout最常见的方法就是dropout.drop的逻辑非常简单粗暴,就是在dropout过程中,有一半的参数不参与运算。比如说公司里,每天随机有一般人不来上班,为了正常运转,每个岗位都需要有好几个人来备份,这样公司就不会过于依赖某一个人,其实是一个道理。dropout的本质是冗余。为了避免过拟合,我们需要额外增加很多冗余,使得其输出结果不依赖于某一个或几个特征。Pooling池化除此之外,池化也是比较常用到的。Pooling主要的作用为降维,降维的同时能够保留主要特征,能够防止过拟合。Pooling主要有两种:一种是最大化Pooling,还有一中是平均池化。最大池化就是把区域的最大值传递到下一层(见下图),平均池化就是把区域内的平均值传递到下一层。一般在Pooling之后会加上一个1x1的卷积层,这样能够以非常低的成本(运算量),带来更多的参数,更深的深度,而且验证下来效果也非常好。接下来我们可以分析下Lenet的数据,看的出来是卷积—&池化—&卷积—&池化—&平化(Flatten,将深度转化为维度)—&全连接—&全连接—&全连接。下面这个模型也比较简单,经过多层卷积、池化之后,平化,然后经过softmax转化。截止到目前,我们又了解了训练模型所需要的技巧,如获取数据、预处理数据、模型搭建和模型调试,重点了解了如何防止过拟合。恭喜你,现在你已经完全了解了深度学习的全部思想,成功晋级成深度学习高手了~接下来我们看下深度学习的发展趋势。深度学习发展趋势目前深度学习在图像识别领域取得了很多突破,比如可以对一张图片多次筛选获取多个类别,并标注在图片上。还可以进行图像分割。在做图像分割标注的时候,难度很大,需要把每个类别的范围用像素级的精度画出来。这对标注者的素质要求很高。还可以根据图像识别的结果直接生成语句。Google翻译可以直接将图片上的字母翻译过来,显示在图片上,很厉害。最近媒体上很多新闻,说人工智能可以作诗,写文章,画画等等,这也都是比较简单的。但是当前图像识别领域还存在一些问题,最大的就是其抗干扰能力比较差。下图中左侧的图片为原始图片,模型可以轻易识别,但是人工加上一些干扰之后,对于肉眼识别不会造成干扰,但是会引起模型的严重误判。这种情况可能会在某些很重要的商业应用中带来一些风险,比如在自动驾驶的物体识别时,如果有人故意对摄像头造成干扰,就会引起误判,从而可能会引起严重后果。深度学习在自动驾驶领域有比较多的应用,下面是我做自动驾驶项目中的视频。车辆识别: 行为克隆: 下图为加特纳技术曲线,就是根据技术发展周期理论来分析新技术的发展周期曲线(从1995年开始每年均有报告),以便帮助人们判断某种新技术是否采用。其把技术成熟经过5个阶段:1是萌芽期,人们对新技术产品和概念开始感知,并且表现出兴趣;2是过热期,人们一拥而上,纷纷采用这种新技术,讨论这种新技术;3是低谷期,又称幻想破灭期。过度的预期,严峻的现实,往往会把人们心理的一把火浇灭;4是复苏期,又称恢复期。人们开始反思问题,并从实际出发考虑技术的价值。相比之前冷静不少;5是成熟期,又称高原期。该技术已经成为一种平常。当前机器学习和自动驾驶就处在过热期。说到底,人工智能其实就是一种工具而已,只不过这项工具能做的事情多了一些而已。未来人工智能会融入到生活中的方方面面,我们不可能阻挡这种趋势,所以我们唯一能做的,就是好好利用好这个工具,让未来的工作和生活更加方便一些。送大家一句话:关于人工智能威胁论当前有些媒体在肆意宣扬人工智能威胁论,这其实是毫无道理的。当人类对自己不了解的事物会本能的产生恐惧,越是不了解,越是会产生恐惧。大家今天看下来,是不是也觉得人工智能也没啥。其实就是因为了解了,所以才不会恐惧。我们只有了解他,才能更好的利用好它。当前有部分无良媒体以及所谓的专家,在传播人工智能威胁论。其实所谓的专家根本就不是这个领域的专家,如果他不是这个领域的专家,那他对这个话题其实就没有话语权,他说话的分量就跟一个普通人说的没什么区别。流传比较广的,比如说某个坐在轮椅上获得过诺贝尔物理学奖的英国物理学家,对,没错,我说的就是霍金。还有某国际著名新能源汽车公司的CEO,对,我说的就是Elon Musk。他们对人工智能其实也完全是一知半解。大家今天听完之后,对人工智能的理解就可以秒杀他们了。最近看到吴军的一句话,来解释这个人工智能威胁论,觉得非常恰当。总结一下人工智能的边界。1. 世界上有很多问题,其中只有一小部分是数学问题;2. 在数学问题中,只有一小部分是有解的;3. 在有解的问题中,只有一部分是理想状态的图灵机可以解决的;4. 在后一类的问题中,又只有一部分是今天实际的计算机可以解决的;5. 而人工智能可以解决的问题,又只是计算机可以解决问题的一部分。最后分享一下学习资料:Stanford CS231n课程:MIT自动驾驶课程:Deep Learning书籍: Foundational papers: 快速上手 图解机器学习 最后的最后,附上一个段子图,下排中间一脸虎视眈眈、苦大仇深、表情凝重的哥们,就是我们念叨了一个上午的机器学习大神——Yann Lecun,目前是Facebook Ai试验室的负责人。&
TA的最新馆藏[转]&[转]&[转]&
喜欢该文的人也喜欢

我要回帖

更多关于 暴风人工智能电视 的文章

 

随机推荐