求每战评分最大的战场女武神3 金手指指,比如HARD模式每战必得8分,不要一次性最大化的,谢谢

&a class=&video-box& href=&//link.zhihu.com/?target=https%3A//www.zhihu.com/video/188480& target=&_blank& data-video-id=&& data-video-playable=&& data-name=&& data-poster=&https://pic4.zhimg.com/v2-659ce3edaaadf0a.jpg& data-lens-id=&188480&&
&img class=&thumbnail& src=&https://pic4.zhimg.com/v2-659ce3edaaadf0a.jpg&&&span class=&content&&
&span class=&title&&&span class=&z-ico-extern-gray&&&/span&&span class=&z-ico-extern-blue&&&/span&&/span&
&span class=&url&&&span class=&z-ico-video&&&/span&https://www.zhihu.com/video/188480&/span&
&/a&&p&《中国队勇夺世界杯》&/p&&p&&a href=&//link.zhihu.com/?target=http%3A//m.iqiyi.com/w_19rrrsscrp.html%3Fkey%3D497e5c296ca7ff592f821ea%26msrc%3D3_31_56%26aid%3D%26tvid%3D%26cid%3D22%26identifier%3Dweixinv1%26ftype%3D27%26subtype%3D1%26vip_pc%3D0%26vip_tpc%3D0%26p1%3D2_22_222%26social_platform%3Dlink& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&m.iqiyi.com/w_19rrrsscr&/span&&span class=&invisible&&p.html?key=497e5c296ca7ff592f821ea&msrc=3_31_56&aid=&tvid=&cid=22&identifier=weixinv1&ftype=27&subtype=1&vip_pc=0&vip_tpc=0&p1=2_22_222&social_platform=link&/span&&span class=&ellipsis&&&/span&&/a&&/p&
《中国队勇夺世界杯》
&p&我拿到的是2月成都生产的货,屏幕是夏普的而不是京东方,有点意外。没有用过前代,无法判断散热是否真的进步。win10经常自动维护,后台更新,导致风扇频繁启动,噪声烦人,这一代也不例外。另外由于8代处理器推出不久,显卡驱动还有许多毛病,比如我的本本在息屏下点亮屏幕会陡然变高亮一下,换了好几个驱动都没有解决,也很无奈。&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-939eb3e7bb_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&921& data-rawheight=&663& class=&origin_image zh-lightbox-thumb& width=&921& data-original=&https://pic2.zhimg.com/50/v2-939eb3e7bb_r.jpg&&&/figure&&p&综合来讲,对于电脑小白,这款电脑不太建议购买。小米笔记本虽说性价比高,但作为新入门的笔记本厂商,小米笔记本在品控(如我的本本垫脚有些不平,每次打字都会翘一下),配套软件(维护软件0,驱动也有不完善),售后保障(换屏幕/主板基本2000+)方面都还很落后,所以选择主流厂商可能会更可靠耐用。&/p&&p&对于玩机用户(良好使用习惯,具备一定系统知识),这款电脑还是值得入手的,经过一两天的调教,可以变得非常好用。关于续航,我个人使用习惯比较好,不插电会立马开节能模式,然后切换为调教后的电源方案(第5步),且上网(只用edge),文档编辑(office),看视频(ACG播放器)都用系统组件,代码效率最高所以省电。&/p&&p&以下是我用到的调教攻略(按步骤):&/p&&ol&&li&win10专业版安装
&a href=&//link.zhihu.com/?target=http%3A//www.360doc.com/content/17/065.shtml& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&超详细UEFI引导+GPT分区模式安装原版win10&/a& &/li&&li&官方驱动打包下载
&a href=&//link.zhihu.com/?target=https%3A//www.mi.com/service/bijiben/drivers/13-air-8/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&小米帮助中心-小米商城&/a&&/li&&li&装三星官方固态NVMe协议驱动
&a href=&//link.zhihu.com/?target=http%3A//bbs.xiaomi.cn/t-& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&新小米笔记本硬盘提速神器(更新至2.3版本了) - 小米社区官方论坛&/a&&/li&&li&Dism++系统优化
&a href=&//link.zhihu.com/?target=http%3A//www.chuyu.me/zh-Hans/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Dism++ | 全新的 Windows 实用工具&/a&&/li&&li&电源方案优化,解决&b&出行时&/b&续航和风扇问题(插电时就没啥可优化的了,直接最大马力。用Dism++关了windows update和windows defender,确保cpu效率最大化)。增加了一个节能的电源选项,然后进入高级设置把cpu散热改为全被动,最大处理器状态改为80%。经过调教,出行时性能足够了,风扇完全不转,续航时间编辑文档(12h+),电影(10h+),上网(6~8h)。&a href=&//link.zhihu.com/?target=http%3A//bbs.xiaomi.cn/t-& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&(申精)13.3AIR 告别风扇狂转 提升续航 降低功耗&/a& &/li&&/ol&&p& 有价值请先点赞后收藏(●—●)&/p&
我拿到的是2月成都生产的货,屏幕是夏普的而不是京东方,有点意外。没有用过前代,无法判断散热是否真的进步。win10经常自动维护,后台更新,导致风扇频繁启动,噪声烦人,这一代也不例外。另外由于8代处理器推出不久,显卡驱动还有许多毛病,比如我的本本…
&figure&&img src=&https://pic2.zhimg.com/v2-09e6d4b11cfe52db52f8_b.jpg& data-rawwidth=&610& data-rawheight=&320& class=&origin_image zh-lightbox-thumb& width=&610& data-original=&https://pic2.zhimg.com/v2-09e6d4b11cfe52db52f8_r.jpg&&&/figure&&p&做工程,就先要承接工程。此谓巧妇难为无米之炊,没有工程,领导赚个毛呀——不对,应该是,国家怎么发展啊。&/p&&p&想承接工程,就要投标。投标有邀请投标和公开投标。&/p&&p&公开投标是指&b&通过公开程序邀请所有潜在的供应商参加投标。&/b&单从定义来看,公开投标很“无公害”,似乎一切都“公正公开”,一切都是透明的。&/p&&p&那么——哪些项目必须进行公开招标呢?&/p&&p&大型基础设施、公用事业等关系社会公共利益、公众安全的项目;&/p&&p&全部或者部分使用国有资金投资或者国家融资的项目;&/p&&p&使用国际组织或者外国政府贷款、援助资金的项目;&/p&&p&……&/p&&p&大家看一下就会发现,多半是“公家”的项目。&/p&&p&对于这种项目,采用公开投标,看似就规避了目前一些恶劣的职业经理人的职业道德问题,不过,可惜的是,我们的很多领导便是“职业经理人”,比如,“汤姆甲”“汤姆乙”“汤姆丙”“汤姆丁”这样的工程掮客。&/p&&p&你如果入行久了,就会发现,&b&公开投标似乎更恶心。&/b&&/p&&p&为什么更恶心呢,咱们后续再说,且容我由浅到深,慢慢搞搞你。&/p&&p&好,第一个问题——&/p&&blockquote&&b&1,公开投标怎么报名?&/b&&/blockquote&&p&最常见的,是业主方把,招标公告,挂到,北京市建设工程信息网或者山东省建设工程信息网上,给你不少于5个日历天的报名时间。&/p&&p&大概是这样的页面。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-0a4bacb24a7dd20b3022_b.jpg& data-caption=&& data-rawwidth=&973& data-rawheight=&551& class=&origin_image zh-lightbox-thumb& width=&973& data-original=&https://pic3.zhimg.com/v2-0a4bacb24a7dd20b3022_r.jpg&&&/figure&&p&点击一个进入一个项目,招标信息包含项目简介,多大面积,投资额度,还包括招标代理是谁,批文号,对投标单位的资质要求,等等。&/p&&p&北京市报名很简单,直接插上企业IC卡,报名就可以了。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-ae67c0a3a8d3ea0013ac_b.jpg& data-caption=&& data-rawwidth=&1160& data-rawheight=&339& class=&origin_image zh-lightbox-thumb& width=&1160& data-original=&https://pic1.zhimg.com/v2-ae67c0a3a8d3ea0013ac_r.jpg&&&/figure&&p&除了北京之外,其它地方,有的是这种报名方式,有的就要现场确认,带上企业相关证照的原件什么的,有的还需要项目经理在这个时间段内就要报上去姓名、类似业绩,等。&/p&&p&注意一点,国家已经发文了——&/p&&figure&&img src=&https://pic4.zhimg.com/v2-1dccf101b3b_b.jpg& data-caption=&& data-rawwidth=&1030& data-rawheight=&479& class=&origin_image zh-lightbox-thumb& width=&1030& data-original=&https://pic4.zhimg.com/v2-1dccf101b3b_r.jpg&&&/figure&&p&但是部分地区无视部委规定,招标过程一开始就违规操作,这种行为比比皆是,很难消除。&/p&&p&面对这种情况,首先,我觉得大家都要忍,毕竟拥有一帮傻呼呼的无法交流的执行人员,是我们的特色,对于这个特色,我看上面的人也不想清除;其次呢,如果你觉得这个标似乎对你没戏了,你也可以投诉。&/p&&p&再有一点就是,大家要注意报名的期限。这也是很多人做手脚的地方。&/p&&p&根据招投标法的规定,项目的报名期限不得少于5天,看清楚了,报名的期限是5个日历天。在这个规定下就有很多招标人专门设置很恶心的报名时间。各位可以自己没事到网上看看,节假日的前一天,很多工程启动报名。比如,十一假期的前一天下午四点,开始报名了,有很多单位这天下午就放假了,那就报不上了,除非有人加班、留守。&/p&&p&关于报名,某些地区除了要你的企业证照原件,人员的执业证书原件等资料,还会要你的无行贿证明——有些地区报名的时候就要,但是不管报名的时候要不要,标书中都要提供。&/p&&p&这是我很无语的一点,就是,我的企业有没有行贿记录,网上你是可以查的,你为什么非要我的人去检察院跑一趟呢?&/p&&p&非要我提供纸质版的无行贿证明有什么意义?&/p&&p&而且更可笑的是,&b&纸质版的资料上就有二维码&/b&。&/p&&p&某些地区有规定,无行贿证明必须保函有法人代表和项目经理的信息,也就是说,要证明你的企业、法人代表、项目经理,都没有行贿记录。&/p&&p&法人代表和项目经理,需要提供身份证原件(有些地方需要本人到场),企业的呢?需要提供营业执照,或者更多资料。&/p&&p&各位,你觉得一些大单位的企业法人代表有时间去一个兔子不拉屎的地方专门去开辟无行贿证明吗?&/p&&p&肯定不会,所以以至于很多人为了开无行贿证明,而,行贿。&/p&&p&我们都说,要制度创效,根据我的理解,说的就是这个意思。&/p&&blockquote&&b&2,公开投标怎么制作标书和评标?&/b&&/blockquote&&p&标书制作没什么好说的,按照要求来做就行了。主要在这里说两点。&/p&&p&第一点,公开投标,有没有能做猫腻?&/p&&p&公开投标,基本上会在各地的标办或者交易中心进行统一评标,有专门的场所,监视器360度拍摄,手机信号屏蔽,可以说,评标专家进入评标地点之后,就彻底和外界不可能发生联系了。&/p&&p&你可能觉得,卧槽,这是少见的公平啊。&/p&&p&终于见到公平的事儿了,感动呀!&/p&&p&&b&其实吧,公平这事儿,我觉得在我们的社会上,就是姑娘的脸。你丫穷,你会觉得公平大大滴有,别人也会告诉你公平大大滴有,但是你如果有钱了,有能耐了,你就能射姑娘一脸。&/b&&/p&&p&我们先说评标内容,大概来分,有主客观分和主观分,看见了吗?主观的来了,这就开始扯犊子了。&/p&&p&一百分,七十分是客观内容,比如你的项目经理业绩,10分,你的注册资本金(这个现在不准要求了,但是我之所以还写注册资本金打分,是不准的事情,有时候就是再告诉你,你就这么干,没人敢怎么着你,只要你打点好审批招标文件的部门),10分。&/p&&p&10分,10分,8分,8分……你客观分都打成满分了,你一定就入围吗?&/p&&p&真不一定,因为主观分你可能一败涂地。&/p&&p&我们评标的专家一般来说是大于5的单数,一般就是5个,7个,9个,业主也是可以派专家的,业主专家不能超过总数的1/3。&/p&&p&这就很好玩了——5个人,4个人客观公正,一个人带着倾向性,这不就有意思了?&/p&&p&我们的规定总是好的,业主专家不可以做评标小组的组长,但是,我说了,对于我们的社会来说,规矩就是用来破坏的,所以一般情况下,评标专家组在分配任务的时候,主观分都会交给业主专家。这是行规。&/p&&p&业主专家在评标的时候按照原则,要遵循公平公正的原则,但是不排除,有的业主专家会有个人情感。他们会怎么玩呢?&/p&&p&1,故意打低某些单位的主观分;&/p&&p&2,招标文件里提前预设的陷阱,某投标单位万一没注意,那就会被揪住辫子。直接废标。废标理由就不多说了,总之,你看了这些五六十岁的大人的荒唐,就会发现小孩子我踹你一脚,你打我一拳,真的显得好可爱啊。&/p&&p&第二,公开投标,现在可能有些瑕疵,那么以后能公正到什么程度?&/p&&p&其实前景还是好的——我们现在各行各业的前景,说起来都是好的。看我们的未来吧,说起来,以后屁都是香的。&/p&&p&我就说一点吧。现在很多地区开始推行电子标了。&/p&&p&(不过大部分地区的电子标,并没有真正的电子标化。什么意思呢?就拿北京市的电子标来说,它所谓的电子标,只不过是把你做完的投标文件,导成PDF(现在word也可以了)上传,然后把你广联达的导出结果按照要求上传,评标的方式基本上和纸质版标书一样,只不过是在电脑上评标。在这种情况下,你的不平衡报价等内容,根本就检测不出来。)&/p&&p&不过有一点,电子标的推广,以后就可以实现异地化评标。&/p&&p&比如我北京西城的项目,可以昌平的标办评,天津的项目,可能上海的专家评,山东德州的项目,可能山东临沂的交易中心在评。&/p&&p&说起来不大现实,因为各个地方的规范不一样,但是这个前景是完全可以实现的。&/p&&p&这样能规避什么呢?&/p&&p&规避的是与评标专家之间的不正当交易。&/p&&p&比如之前业主专家或者代理偷偷给专家送红包,完成自己的意愿传达,在异地化评标中就实行不了了。&/p&&p&比如之前和现在总有一些投标单位在标办门口堵专家的情况,也会随着异地化评标而被规避。我曾经见过一个安置房的项目——哎呀,又是利国利民的安置房项目呀,好呀!为领导鼓掌。结果呢?这个项目的评标彻底让我无语了,因为标办九点上班,他们七点开始评标了。大冬天,七点评标,六点多在门口堵专家,太容易了,而且,时间这么早,实在是让人觉得里面有……&/p&&p&刚在坐出租车的时候,司机问我:你们的楼建的这么高,你们可赚了不少钱啊。&/p&&p&我问:那你今天开出租车赚了多少?&/p&&p&司机:六百。&/p&&p&我问:你自己赚了多少。&/p&&p&司机:一百多。&/p&&p&我说:咱们一样,钱,都给布局的人了。&/p&&blockquote&&b&3,你如果招标,你是喜欢公开,还是邀请?&/b&&/blockquote&&p&邀请投标呢,就是你看上哪几家单位了,你就去邀请他们来投标,入围单位可控。&/p&&p&我不知道你怎么回答我的这个提问,我会说,不管我事一个项目总,还是一个公司总,还是一个集团总,我都会让我的项目邀请招标。&/p&&p&原因如下:&/p&&p&1,公开招标,很无聊,没什么意义。&/p&&p&比如,现在很多地方投标,是取平均值法(我故意用这浅显的语言来说,其实明确来说是最低投标价法、综合评标法等),也就是各个单位,投标的价格,取一个平均值。谁报价接近平均值,谁的分越高。&/p&&p&我为什么要接受一个平均值?&/p&&p&我自己玩的话,我完全可以让最低价中标。&/p&&p&而且,万一一个很垃圾的单位报价准确了呢,我还能让它来给我干活?&/p&&p&我自己的钱,我为什么不能找个靠谱的单位?&/p&&p&2,公开投标出现猫腻的可能性很大,而且过程中难以纠偏。&/p&&p&我自己邀请单位,最低价中标,你们抢项目就行了(当然,也不排除被一帮投标单位给玩了,但是这个概率就很小了。)&/p&&p&公开投标呢?最低价还好,要是所谓的综合评标法,我的专家被收买了,我在评标结果中找不出来反驳结果的点。&/p&&p&当然,职业经理人可能忽悠我,比如,开标之后,泄露别人家的价格,让特定单位偷偷更换投标文件。但是对于这些问题,我完全有方式来调节,因为标在我手里,我随时可以操控,公开投标,交给公平公正的社会,我彻底没辙了啊。&/p&&p&我可以技术标通过制,不打分,不给我的专家们操作的机会,只允许他们提出投标单位技术方案的硬伤,废标。然后商务标,我规定时间,递交后立马开标,这样我就能规避大量的猫腻了。&/p&&p&3,防止挂靠。&/p&&p&公开投标,哪怕后期我发现投标单位挂靠了,重新招标,也会浪费我的时间。而邀请招标,我可以在一开始,就找一些特别靠谱的单位来投标。我宁愿相信我的主管选择,也不相信社会的规则。因为规则,太垃圾了。&/p&&p&当然,我也不是说公开投标一定很差,这个仁者见仁智者见智,公开投标,肯定更规矩、更成熟,一些基础设施的建设,也都是靠公开招标进行,然后利国利民的。&/p&&p&。。。。。。&/p&&p&今天就简单说这些了,最后希望,我们社会多一些浩然正气,多一些公道人心。&/p&&p&规矩再好,都会有漏洞,最终决定社会公正度的是人们的素质。&/p&
做工程,就先要承接工程。此谓巧妇难为无米之炊,没有工程,领导赚个毛呀——不对,应该是,国家怎么发展啊。想承接工程,就要投标。投标有邀请投标和公开投标。公开投标是指通过公开程序邀请所有潜在的供应商参加投标。单从定义来看,公开投标很“无公害”…
&p&&/p&&p&&/p&&p&&/p&&p&&/p&&p&基本流程&/p&&blockquote&&b&涉及政府采购的项目流程一般包括调研,立项,招标,实施,验收,移交等阶段。&/b&&/blockquote&&p&1)调研:主要报告可行性及项目或有风险的管控,投资概算这些。 &/p&&p&2)立项:向上级管理部门提交立项材料(主要是立项申报书),还要讲个PPT忽悠一番。 &/p&&p&3)招标:立项通过后,就是提交各种采购文件以及招标文件,采购部门审核批准后,招标文件会挂网招标,项目由此进入招标阶段。招标阶段甲方主要工作就是应对供应商质疑。 &/p&&p&4)签约:招标完成后就是签合同了,作为甲方,这个阶段主要工作,就是依据招标文件形成合同文件,同时把重要事项而招标文件未做约定的内容约定好。 &/p&&p&5)项目实施:这个阶段项目承建和监理都会进场〈小项目没有监理〉,然后组建管理团队等&/p&&p&6)竣工验收:竣工验收有一个政府采购所必须的验收程序,除此之外,甲方有义务确保所建项目完全按照招标文件里合同文件建设,也即验收程序里面的初验环节。 &/p&&p&7)付款移交:付款一般有组织采购部门完成,我们一般就是接收系统管理权限以及相关资产。&/p&&p&因为项目调研及立项操作方式差异较大,而后面的流程比较有共性,因此本文不包括项目调研及立项,对从招标过程开始到竣工,移交做一个流程梳理。也算是对最近所做项目的一个总结。&/p&&p&&b&一、招标文件&/b&&/p&&blockquote&俗话说:招标文件里的任一个坑,都可能在走验收程序时把你埋了,所以万万不能轻视招标文件的编制。招标文件重要的部分有几个部分:1)设备或材料清单;2)技术清单;3)技术功能要求,商务要求,包含设计文件;4)评标细则;&/blockquote&&p&1.1. 设备清单:一般由设计院出具,为完成项目所需的设备及材料,投标单位必须严格按照材料清单采购相关材料或者设备,经深化设计确认采购数量不足的除外(走增补程序) &/p&&p&1.2. 技术清单:一般也由设计院出具,每一项材料或者设备技术参数,投标单位必须对参数进行应答。负偏离会扣分。另外,要求技术清单均可有文件支撑或者可检验,否则,不应该出现在招标文件上。 &/p&&p&1.3. 技术、功能、商务要求:重要部分,需要可检测和可量化。是后续合同编制的一项重要依据&/p&&p&1.4. 评标细则:价格分、技术清单分(扣分项)、其他技术分、商务分。对加分项应可检测、可量化。&/p&&p&注意事项 &/p&&p&1) 因为甲乙双方代表的利益不同,因此不能轻易相信潜在供应商所提供的技术参数的可测试及可验证性。所以一方面需要设计院对重要参数进行规定,一方面要多看几家供应商。也要请供应商对参数可测性或者可验证性进行澄清或者说明。 &/p&&p&2)招标文件不能有歧义,否则可能在最终交付或者验收时扯皮。也不能有可质疑事项(这里的可质疑事项,是指如果被质疑,而又无法澄清的事项)或者毫无特色(即所有供应商都能插一脚),否则,招标过程可能会失控。 &/p&&p&3)关于技术参数的应答,可以要求随投标文件提供支持材料,比如案例或者DATASHEET,这样,在验收程序,就可以不再对繁琐而又不是很重要的参数进行测试及验证。只按测试方案对项目需要的功能进行测试即可。 &/p&&p&4)关于标前答疑,一般来说不会有什么问题,供应商质疑的重点基本都在&b&政府采购法实施条例20条,对供应商实行差别待遇或者歧视、招标文件指向特定供应商&/b&,答疑的重点,要证明:1.所涉及参数是项目所需功能,离开该功能项目无法正常运作;2.没有根据该参数排斥供应商进入(即证明至少有三家供应商可以满足该参数)&/p&&p&&b&二、合同审阅&/b&&/p&&blockquote&标准合同也对应几个部分:1)主文件;2)材料清单;3)技术清单;4)项目功能要求说明;5)验收方案;6)竣工文件&/blockquote&&p&合同很大程度与招标文件相关联,这里着重说下验收方案,验收方案包括材料、设备的开箱检验(如数目、附件等)、技术清单满足性检验、功能性检验(设计文件符合性检验)、工程工艺检验、商务工作检验、试运行等。不一而足,其中
&b&技术清单的检验&/b&对于重要的参数,需要检测清单和检测方案。检测方案里需要说明支持的检测方法:包括但不限于厂商数据表、案例、现场测试等,依赖于整个系统的功能须予以标记。另外,如果项目规模很大,那么技术清单可能涉及成百上千的技术指标,不可能一一现场测试的,在验收方案中应该明确哪些需要现场检验,哪些由DATASHEET或案例支持即可。另外,对于一些不重要参数,即可能所有供应商都能满足的参数,如果投标文件提供了案例或者数据表,可以约定测试方案不再测试,但竣工文件须包括投标书备查。&b&工程工艺验收&/b&包含强制标准和对现有标准兼容所需的规范,如标签怎么打,线路怎么接等等。&/p&&p&合同审阅的重点:一是兜底条款,对于一些无法掌控或者预期外的费用支出需做控制,比如一般情况下政府采购增补费用上限为主合同金额10%,如果达到增补上限依然无法达到项目规定目标,应由(非可抗力因素)乙方进行兜底。二是验收程序,尽量在条件允许的情况下在合同中细化验收程序,先说断后不乱。当然,验收程序一般情况下是固定的,主要细化的是使用单位技术验收程序。合同其他内容的话,只要招标文件写好了,合同这里也就没问题了。&/p&&p&&b&三、项目启动&/b&&/p&&blockquote&项目启动主要工作:1)组建项目管理团队;2)项目目标、里程碑;3)工作分解;4)开始预试;5)进度表;6)监理控制方案、施工控制方案等&/blockquote&&p&3.1. &b&组建项目经理部&/b&,召集各方干系人,作为项目经理部成员,除了项目经理外,其他人员须有相应资源支配权限。作为项目经理,须向相关方介绍各方所需配合的事情。同时就项目干系人关注的事宜做出相关说明,比如影响。 &/p&&p&3.2. &b&项目目标确认&/b&,主要为项目主要时间节点(里程碑),因为有的项目干系人可能在前一阶段不需要介入项目。项目进度可能也需要按照里程碑来安排。 &/p&&p&3.3. &b&工作分解、预试、进度表&/b&,按照项目阶段进行工作分解,同时落实各个工作包需要各方配合的内容,比如项目采购阶段可能需要甲方单位进场验货,施工阶段需要甲方调配相关资源等,如果对施工环境不熟悉的,需要先进行预试以期发现可能存在的问题,之后形成进度表报审。最后可能还需根据各方意见重新调整进度表。注意:如果工作包没有划到最细,还应确认每个工作包所需进行的工作。 &/p&&p&3.4. &b&控制方案&/b&,主要包括&b&检查清单、施工单元、控制单元、汇报单元等&/b&,其中施工单元及控制单元主体为工作包,比如设备安装(以一台作为粒度),落实后形成汇报模版。部分工作将由监理单位完成。 &/p&&p&注:关于控制粒度及工作包,举个例子,一栋楼需要布网络,在施工阶段,可能需要:在用户办公室安装网络插座、布线布管、安装设备。那么就安装设备和模块而言,除了完成安装,还需将线路接好,标签打好,而布线布管也需要打相应标签。这里的控制单位采用信息点还是还是分开控制要取决于施工的人员是不是同一拨以及是否能同时实施。另外,一般选取工作包中的关键工作作为控制元素。&/p&&p&项目启动时至少应该落实第一点和第二点,即统战、分工、里程碑,后面的内容将需要在后续几次会议依次落实。&/p&&p&&b&四、项目施工&/b& &/p&&p&项目进度表签署后就可以进入施工阶段了,项目施工阶段需要组织例会,就施工遇到的问题进行汇报并实时处理。例会须有会议纪要,如果涉及范围变更,须履行变更程序。施工单位须对项目进度进行检查,监理单位控制质量及工艺。&/p&&p&&b&五、竣工验收&/b&&/p&&blockquote&验收程序:①进场检验;②技术清单、功能检验、工程检验;③试运行;④商务、竣工文件检验;⑤付款&/blockquote&&p&5.1. &b&设备进场检验报告&/b&,报告应有相关结论性陈述(以下同),比如进场检验(也有叫开箱检验的),结论陈述如下:经检验: 本次项目所有设备外观完好,附件齐全,数目符合招标文件第05章、合同材料清单第000~029项内容,技术参数符合,附进场检验单。 &/p&&p&5.2. &b&技术清单检验报告&/b&,针对招标文件《技术参数》章节进行检测,对于大型、特大型项目。只做关键项目测试即可,关于关键项目有检测方案决定,其他内容由厂商DATASHEET或案例支持即可。报告也应该包含检查人员结论性陈述:我们对XXX招标文件05章、合同材料清单001~029项进行了关键参数检测(招标文件06章:技术参数、合同文件附件2:《投标应答表》所有星号项内容及合同文件附件5:《检测方案》规定的清单之内容),所测项目全部符合要求,附检测明细、投标文件。 &/p&&p&5.3. &b&功能检验报告&/b&,功能检验直接关系项目成败,为项目需要达到的直接要求,功能要求一般在招标文件&b&技术、商务及其他要求&/b&章节规定,报告陈述性结论:我们对XXX项目招标文件第06章01~05项:《技术要求》、合同文件附件4:《技术及功能要求》,依据合同文件附件5:《检测方案》进行了检测,所测项目全部符合要求。附检测明细。 &/p&&p&5.4. &b&试运行报告&/b&,试运行报告须包括试运行起止时间,运行小时数,出现的问题,无故障小时数等。陈述结论事例(施工单位出具,监理及甲方签字):我司承建的XXX项目,已按照XXX项目招标文件、合同文件及附件、相关设计文件要求于xxxx年xx月xx日进入试运行,截止xxxx年xx月xx日,运行周期xxxx小时,实现整体无故障xxxx小时。附设备运行参数及故障处理情况。
5.5. &b&工程量、工程质量、工艺检验报告&/b&,工程量检查须对应设计文件&工程量清单&,工程质量则根据行业规范及招标文件检测清单进行检测,结论陈述如下:我们根据XXX项目招标文件、设计文件对项目工程量、隐蔽工程、施工工艺进行检测。项目工程量、工艺及质量符合设计文件XX条XX款:工程量清单,XX条XX款:工程质量及工艺相关要求,附检测明细。 &/p&&p&5.6. &b&竣工文件检验报告&/b& &/p&&p&5.7. &b&商务条件检验报告&/b& &/p&&p&以上两个放在一起说,这个如果招标文件有明确规定,照招标文件清点即可。&/p&&p&&b&六、移交&/b& &/p&&p&移交程序:移交资产、撤销承建方相关管理权、签署移交单。这里没什么好说的,略。&/p&&blockquote&写在最后:虽然政府采购目前还有很多问题(招投标只是政府采购的其中一种方式),但是这真的是比较严谨的一种项目流程管控、资金管控方式了。另外,看过再多的项目管理书籍,也不会告诉你一个项目管理到底该怎么做,就好比拿了一本新华字典却还是不会写文章一样。最最后,这一篇加上之前那一篇项目管理杂记:&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&项目管理杂记170513 - 知乎专栏&/a&,就是我参与最近学校一项基础建设项目的总结,除了该项目教给我的知识,它已经正式成为历史。没有项目一身轻,以后又可以好好看财务报表了。&/blockquote&&p&冯晓天/&/p&
基本流程涉及政府采购的项目流程一般包括调研,立项,招标,实施,验收,移交等阶段。1)调研:主要报告可行性及项目或有风险的管控,投资概算这些。 2)立项:向上级管理部门提交立项材料(主要是立项申报书),还要讲个PPT忽悠一番。 3)招标:立项通过后,…
这个问题感觉有点灰色啊……&br&&br&同意校尉的几个点,描述都很有场面感,比较到位。&br&&br&我就个人经历说一说:&br&首先,如果要谈灰色部分的话,&b&当面谈&/b&永远是最好的方式。所以我先谈当面谈的一些原则,然后谈纯线上怎么操作。&br&&br&首先谈谈原则:&br&&b&原则1:三板斧&/b&&br&在很多传统的大客户行业&b&,三板斧&/b&是必须的(吃饭唱歌大保健),但很多新兴行业已经不吃这一套,但思路不变:&b&做人&/b&。做人是做什么?&br&&br&&b&原则2:做足情面&/b&&br&做人的核心是什么?情面。《北平无战事》里面谈到:杜月笙有句名言,两碗面最难吃,场面和情面。场面不谈,你请人吃饭也好,见面礼也好,夸人也好,那都是做足了情面。&b&怎么说话&/b&就是情面的核心,而&b&夸赞&/b&就是怎么说话的核心。&br&这里建议读一下&a href=&http://www.zhihu.com/question/& class=&internal&&哪些技能,经较短时间的学习,就可以给人的生活带来巨大帮助?&/a&&br&第一个答案就是如何夸奖别人,很实用。&br&其他其实是很多细节问题了,首先礼仪要做足,比如&b&人来了要起立、要主动添水、开头的几句寒暄、敬酒时酒杯要略低、对方如抽烟要主动敬烟,&/b&等等,太多了,这是1万个细节合成的,是需要经验积累的。&br&这里推荐几个链接看一下,绝对有帮助&br&&a href=&http://www.zhihu.com/question/& class=&internal&&哪些礼仪是一个人必备的?&/a&&br&&br&&a href=&http://www.zhihu.com/question/& class=&internal&&你认为正确的餐桌礼仪有哪些?&/a&&br&&a href=&http://www.zhihu.com/question/& class=&internal&&在餐馆怎么叫服务员才合适得体?&/a&&br&当然人性格不同,你看这个人喜欢低调还是高调,看准了行事,否则会起反作用,比如我就不喜欢别人当面夸我,不过我比较看中别人背后怎么评论我,如果你在背后对别人夸我的话,我会很开心。每个人都有弱点,&b&修炼自己的情商&/b&,是做好情面的前提。&br&&br&&b&原则3:做好氛围&/b&&br&你不能大摇大摆去他办公室送礼吧,不能当着别人面谈回扣吧。&br&一定要选择最&b&轻松舒适&/b&的场合,如果是咖啡馆,不能是&b&星巴克&/b&,太吵,你要选择迪欧、两岸、上岛这种&b&安静的,有包间的&/b&,这就是为什么三板斧很管用的原因了,因为&b&场合做到了,氛围有了&/b&,你谈什么都放的开。&br&其次是人数,最好是一对一,人越多越不好谈,尤其不要当着对方同事谈。&br&然后是话题,这里推荐一个链接,比较切题。&br&&a href=&http://www.zhihu.com/question/& class=&internal&&跟人交流如何找话题如何打开话题?&/a&&br&还有一个关于上切下堆的,我忘了是哪个了,希望有心人评论时提醒一下。&br&&br&&br&&b&原则4:投其所好&/b&&br&这里第一表现为话题,事前要做好各方面的调查,除了数据搜索外,更重要的是身边的人,比如&b&门卫、司机、秘书、家人,&/b&有些人一根烟就能探出很多内容,有些人要通过礼物表现出诚意。他对哪方面有兴趣,就要&b&用请教的方式让他说&/b&,&b&千万不能表现出比他更懂&/b&,哪怕你真的更懂,如果他的兴趣是可以互动的(比如打球、钓鱼),那空间就更多了,&b&实际上如果他在说这方面话题的时候,已经告诉你一个信号:对你不排斥&/b&。&br&第二个是礼物,这个难度就大了,不同的兴趣有不同的形式,但大体模式差不多的。&br&这里关键是&b&有心&/b&,有心听,有心分析,有心安排。&br&&br&&br&&b&原则5:举重若轻&/b&&br&这里最关键的一点就是:按照对方的节奏,&b&要表达一个意思,千万不要一下子说完,要慢慢切入,层层接近话题,最后说出。&/b&&br&比如说:我们的XX很好,服务很到位,老客户都说好,您要是有兴趣的话,适当的返点是没问题的,行业普遍都这样,通常来讲XX%是比较合适的。你要是很快说掉了,你觉得人家会怎么回答?肯定是NO。&br&应该先试探:&br&你说:你们以前用的哪一家? &br&客户答:ZZ&br&你说:哦,就是哪一家啊,我跟他们的XX很熟。他们的东西怎么样?&br&客户答:ZZ&br&你说:是啊,这家在行业内评价是不错,不过我们有几个方面做的比他们好,我们的某某客户以前也是用他们的,后来用我们的服务之后再也没换过。&br&客户答:ZZ&br&你说:他们跟您谈的时候有没有谈到返点的问题?&br&这时候一般回答比较含糊。你也可以含糊的回答。&br&你说:这个您放心好了,我们根据单量也会有多少的返点的,行业一般在XX%的水平。我们一般是XX%,单量大了还会更高一点的。&b&这个时候尽量不要探竞争对手的底牌,这时候往往都是暗标,除非客户和你的关系够铁,一般涉及核心问题,无论你怎么公关,客户都不会明说的。&/b&&br&你说:当然,我们的条件也不是死的,可以根据情况在标准上调整。&b&留下余地。&/b&&br&&br&然后是接近方式,比如:X先生,我正好在你的城市,有没有空喝喝茶?
等等,&b&让人没有压迫感&/b&。&br&这里提到一个问题,就是&b&千万不能急,&/b&千万不要以为对方不回复你是因为他不感兴趣,要往好的方面想,&b&直到他有很明确的暗示,否则不能把不回复视为拒绝&/b&。&br&还有,如果是手机联系,就更不能废话了,很少有人会在手机上blabla打字飞快的,&b&一切线上交流都要以引入到面对面为目的&/b&。&br&这个需要修炼了,祝你好运。&br&&br&该说的都说了,如果你在面对面模式做到,&b&餐桌愉快、核心问题传达到位、见面礼到位、投其所好礼全部到位&/b&的情况下,基本上你该尽的义务就完成了,剩下的就看客户的权衡了。&br&&br&&br&-----以上是面对面部分-----&br&&br&&br&首先要告诉你一下:不要认为互联网的到来,面对面的方式就过时了,&b&面对面仍然是建立信任最好的交流方式。&/b&&br&所以&b&线上尽量不要直入主题,尽可能约面谈&/b&。&br&&br&&br&-----现在谈谈线上怎么做-----&br&&br&&br&一般谈到回扣都是较大的单子或者涉及长久的渠道,我仍然强烈建议引到面谈,当然&b&如果非要线上解决的话&/b&:&br&1.在线聊天夸奖是没什么用的,因为你是点对点联系,&b&私聊夸奖没有起到给面子&/b&的效果,如果你有他的朋友圈,偶尔点个赞,或者自己的状态要提到他,让他觉得他的重要度,才算到位一点,关键是要让别人看到他对你很重要。&br&2.做足氛围这一点,尽可能&b&在非上班时间&/b&聊,&b&尽可能打电话沟通,沟通前说清楚需要多长时间,是否方便,是否一个人&/b&,在电话里,他会碍于面子不直接拒绝,如果你发短信涉及核心问题,不回复是很正常的,搞得双方都不高兴,更不要说&b&短信什么的都会留下痕迹,&/b&戒心高的人对电话也排斥,怕录音。&br&3.一百句夸奖都没有一份礼物实在,这个礼物可以是明信片,贺卡(记住客户的生日很重要),也可以是你们自己的产品,更可以是投其所好的东西。如果是明信片贺卡,可以寄到他的公司,如果是实物,寄到家里,记得用顺丰。&b&什么?不知道他家里地址?好好用用举重若轻的方法吧&/b&,我就不展开了,自己发挥,你想的会比我更好。&br&4.什么时机切入关键话题,我的看法是:&b&在你已经情面(礼物)到位,对他的第5通电话时,确保对方是一个人没有旁人听,并且很舒适不赶时间,打到第10分钟的时候&/b&,当然这是个概念,明白我的意思就好。&br&&br&&br&-----线上部分讲述完毕-----&br&&br&下面谈谈我的看法:&br&&br&&b&1.这个问题是很灰色的问题,以至于我犹豫了很久要不要回答&/b&&br&&b&2.&/b&如果可以,尽可能做一些阳光化的事情,&b&如果一定要做,绝对不要涉及到政府公务员和国企员工。&/b&这和私对私的性质是完全不一样的,说大了对得起党、国家和人民,说小了晚上睡得香。&br&3.重大问题,线下解决的效率永远高于线上100倍,说100通电话不如跑一次腿。&br&4.不管对方的回扣多少,&b&永远做到如实上报,自己不截流&/b&。让你的绩效分成阳光化。很多事情老板都是心知肚明的,一旦发生信任危机,你不但离辞职不远,更有可能在圈里混不下去。&br&5.如果你是销售人员,永远记住一点:单子成了不是因为你个人多牛逼,而是公司产品好,服务好,客户配合,上级指导得好,同事配合的好。&br&6.大客户销售最重要的是&b&耐心&/b&,如果你有耐心,每一步都没有越界,慢慢来你会成功的。&br&&br&7.我个人并没有参与这类销售,只是经常在这类场合,见得多了而已,查水表送快递请绕道,抛砖引玉,欢迎评论补充。&br&8.这个问题不仅是扣点的问题,往大一点说就是&b&销售人员的自我修养&/b&,再大一点那就是&b&怎么做人&/b&。没有人能完全指导你怎么做,都是靠慢慢总结积累。&br&&br&&br&还要补充一点,我觉得很重要:&br&&b&棋在局外&/b&,一定要分析清楚竞争对手和客户的关系有多铁,有多少希望,事在人为,人为的空间有多大,什么时候该撤退。不要死磕,要游刃有余。&br&&br&&br&人艰不拆,如果黑,请轻黑。&br&-------------&br&无量数据(&a href=&//link.zhihu.com/?target=http%3A//wuliang.com& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&wuliang.com&/span&&span class=&invisible&&&/span&&/a&),用大数据和算法找到你的下一个客户,欢迎销售人员报名产品封测:加微信rjfrant并备注:封测报名。
这个问题感觉有点灰色啊…… 同意校尉的几个点,描述都很有场面感,比较到位。 我就个人经历说一说: 首先,如果要谈灰色部分的话,当面谈永远是最好的方式。所以我先谈当面谈的一些原则,然后谈纯线上怎么操作。 首先谈谈原则: 原则1:三板斧 在很多传统…
&figure&&img src=&https://pic2.zhimg.com/v2-55cafc54e5d_b.jpg& data-rawwidth=&1239& data-rawheight=&698& class=&origin_image zh-lightbox-thumb& width=&1239& data-original=&https://pic2.zhimg.com/v2-55cafc54e5d_r.jpg&&&/figure&&p&&b&作者丨葛政&/b&&/p&&p&&b&学校丨早稻田大学硕士生&/b&&/p&&p&&b&研究方向丨深度学习,计算机视觉&/b&&/p&&p&&b&个人博客丨&a href=&http://link.zhihu.com/?target=https%3A//xraft.github.io/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Xraft.Lab&/a&&/b&&/p&&p&相信做机器学习或深度学习的同学们回家总会有这样一个烦恼:&b&亲朋好友询问你从事什么工作的时候,如何通俗地解释能避免尴尬?&/b&&/p&&p&我尝试过很多名词来形容自己的工作:机器学习,深度学习,算法工程师/研究员,搞计算机的,程序员…这些词要么自己觉得不满意,要么对方听不懂。经历无数次失败沟通,&b&最后总结了一个简单实用的答案:“做人脸识别的”&/b&。&/p&&p&为什么这个答案管用,因为人脸识别在深度学习相关领域的课题中属于商业落地情景多,被普及率广的一项技术,以至于谁说不出几个人脸识别应用,都有那么点落后于时代的意思。&/p&&p&今天出这篇人脸识别,是基于我过去三个月在人脸识别方向小小的探索,希望能&b&为非技术从业者提供人脸识别的基本概念&/b&(第一部分),以及&b&为人脸识别爱好者和入门人员提供储备知识和实验数据参考&/b&(第二、第三部分),也欢迎专业人士提供宝贵的交流意见。 &/p&&p&&b&本文将从接下来三个方面介绍人脸识别&/b&,读者可根据自身需求选择性阅读:&/p&&ul&&li&Chapter 1:人脸识别是什么?怎么识别? &/li&&li&Chapter 2:科研领域近期进展 &/li&&li&Chapter 3:实验及细节&/li&&/ul&&h2&&b&Chapter 1&/b&&/h2&&p&&b&人脸识别是什么&/b& &/p&&p&人脸识别问题宏观上分为两类:1. 人脸验证(又叫人脸比对)2. 人脸识别。&/p&&p&人脸验证做的是 1 比 1 的比对,即判断两张图片里的人是否为同一人。&b&最常见的应用场景便是人脸解锁&/b&,终端设备(如手机)只需将用户事先注册的照片与临场采集的照片做对比,判断是否为同一人,即可完成身份验证。&/p&&p&人脸识别做的是 1 比 N 的比对,即判断系统当前见到的人,为事先见过的众多人中的哪一个。比如&b&疑犯追踪,小区门禁,会场签到,以及新零售概念里的客户识别&/b&。这些应用场景的共同特点是:人脸识别系统都事先存储了大量的不同人脸和身份信息,系统运行时需要将见到的人脸与之前存储的大量人脸做比对,找出匹配的人脸。&/p&&p&两者在早期(2012年~2015年)是通过不同的算法框架来实现的,想同时拥有人脸验证和人脸识别系统,需要分开训练两个神经网络。而 2015 年 Google 的 &b&FaceNet&/b& [1] 论文的发表改变了这一现状,将两者统一到一个框架里。&/p&&p&&b&人脸识别,怎么识别&/b&&/p&&p&这部分只想阐明一个核心思想:&b&不同人脸由不同特征组成&/b&。&/p&&p&理解这个思想,首先需要引入的的是“特征”的概念。先看下面这个例子:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-750f603bd663f476d99cef_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&616& data-rawheight=&606& class=&origin_image zh-lightbox-thumb& width=&616& data-original=&https://pic4.zhimg.com/v2-750f603bd663f476d99cef_r.jpg&&&/figure&&p&假设这 5 个特征足够形容一张人脸,那每张人脸都可表示为这 5 个特征的组合:&/p&&p&(特征1,特征2,特征3,特征4,特征5)&/p&&p&一位双眼皮,挺鼻梁,蓝眼睛,白皮肤,瓜子脸的欧美系小鲜肉即可用特征表示为(见表格加粗项): &/p&&p&(1,1,0,1,0)&/p&&p&那么遍历上面这张特征表格一共可以代表 &img src=&http://www.zhihu.com/equation?tex=2%5E%7B5%7D%3D32& alt=&2^{5}=32& eeimg=&1&& 张不同的脸。32 张脸可远远不够覆盖 70 多亿的人口。为了让不同特征组成的人脸能覆盖足够多人脸,我们需要扩充上面那张特征表。扩张特征表可以从行、列两个角度展开。 &/p&&p&列的角度很简单,只需要增加特征数量:(特征6.脸型,特征7.两眼之间距离,特征8.嘴唇厚薄…)实际应用中通常应用 128,256,512 或者 1024 个不同特征,&b&这么多特征从哪来&/b&,该不会人为一个一个去设计吧?这个问题在后面会解答。 &/p&&p&从行的角度扩充也很好理解,比如“特征3”,除了值 0 代表蓝色,值 1 代表灰色,是不是可以增加一个值 2 代表黑色,值 3 代表没有头发呢?此外,除了这些离散的整数,我们也可以取连续的小数,比如特征 3 的值 0.1,代表“蓝中略微带黑”,值 0.9 代表“灰中带蓝”……&/p&&p&经过这样的扩充,特征空间便会变得无限大。扩充后特征空间里的一张脸可能表示为: &/p&&p&(0, 1, 0.3, 0.5, 0.1, 2, 2.3, 1.75,…)&/p&&p&之前提出的问题:&b&用于表示人脸的大量特征从哪来?&/b&这便是深度学习(深度神经网络)发挥作用的地方。它通过在千万甚至亿级别的人脸数据库上学习训练后,会自动总结出最适合于计算机理解和区分的人脸特征。算法工程师通常需要一定的可视化手段才能知道机器到底学习到了哪些利于区分不同人的特征,当然这部分不是本节重点。 &/p&&p&阐明了&b&不同人脸由不同特征组成&/b&后,我们便有了足够的知识来分析人脸识别,到底怎么识别。现在考虑最简单最理想的情况,用于区分不同人的特征只有两个:特征1和特征2。那么每一张脸都可以表示为一个坐标(特征1,特征2),即特征空间(这个例子里是二维空间)内的一个点。&/p&&p&人脸识别基于一个默认成立的假设:&b&同一个人在不同照片里的脸,在特征空间里非常接近&/b&。&/p&&p&为什么这个假设默认成立,设想一下,一个棕色头发的人,在不同光照,遮挡,角度条件下,发色看起来虽然有轻微的区别,但依然与真实颜色非常接近,反应在发色的特征值上,可能是 0 到 0.1 之间的浮动。深度学习的另一任务和挑战便是在各种极端复杂的环境条件下,精确的识别各个特征。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-81295f8ffa65ebb2f70dc18_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&915& data-rawheight=&486& class=&origin_image zh-lightbox-thumb& width=&915& data-original=&https://pic1.zhimg.com/v2-81295f8ffa65ebb2f70dc18_r.jpg&&&/figure&&p&上图是在熊本做大规模人脸数据集去噪演讲时用的 PPT,三张山下智久的照片经过神经网络提取出 128 维的特征后,变成了 3 个在 128 维空间中的点(红色),石原里美的特征点为绿色。这张 PPT 想表达同样的意思:&b&同一人的不通照片提取出的特征,在特征空间里距离很近,不同人的脸在特征空间里相距较远&/b&。&/p&&p&再来考虑人脸识别领域的两个问题:&b&人脸验证&/b&和&b&人脸识别&/b&。&/p&&p&&b&人脸验证&/b&&/p&&p&比如 FaceID 人脸解锁,iPhone 事先存了一张用户的照片(需要用户注册),这张照片变成了转换成了一连串特征数值(即特征空间里的一个点),用户解锁时,手机只需要对比当前采集到的脸和事先注册的脸在特征空间里的几何距离,如果距离足够近,则判断为同一人,如果距离不够近,则解锁失败。距离阈值的设定,则是算法工程师通过大量实验得到的。&/p&&p&&b&人脸识别&/b&&/p&&p&同样考虑一个场景,人脸考勤。公司 X 有员工 A,B,C,公司会要求三名员工在入职的时候各提供一张个人照片用于注册在公司系统里,静静地躺在特征空间中。&/p&&p&第二天早上员工 A 上班打卡时,将脸对准考勤机器,系统会把当前员工 A 的脸放到特征空间里,与之前特征空间里注册好的脸一一对比,发现注册的脸中距离当前采集到的脸最近的特征脸是员工 A,打卡完毕。&/p&&p&知道了人脸识别的基本原理,便能看清它的技术局限。下图展示了一些容易识别失败的案例:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-77adb012af129c1c468dd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&613& data-rawheight=&443& class=&origin_image zh-lightbox-thumb& width=&613& data-original=&https://pic2.zhimg.com/v2-77adb012af129c1c468dd_r.jpg&&&/figure&&p&在光照较差,遮挡,形变(大笑),侧脸等诸多条件下,神经网络很难提取出与“标准脸”相似的特征,&b&异常脸在特征空间里落到错误的位置,导致识别和验证失败&/b&。这是现代人脸识别系统的局限,一定程度上也是深度学习(深度神经网络)的局限。&/p&&p&面对这种局限,&b&通常采取三种应对措施,使人脸识别系统能正常运作&/b&:&/p&&p&&b&1. 工程角度&/b&:研发质量模型,对检测到人脸质量进行评价,质量较差则不识别/检验。&/p&&p&&b&2. 应用角度&/b&:施加场景限制,比如刷脸解锁,人脸闸机,会场签到时,都要求用户在良好的光照条件下正对摄像头,以避免采集到质量差的图片。&/p&&p&&b&3. 算法角度&/b&:提升人脸识别模型性能,在训练数据里添加更多复杂场景和质量的照片,以增强模型的抗干扰能力。&/p&&p&总而言之,人脸识别/深度学习还远未达到人们想象的那般智能。希望各位读者看完第一节后,有能力分辨社交网络,自媒体上的信息真伪,更理性的看待人工智能,给它时间和包容,慢慢成长。&/p&&h2&&b&Chapter 2&/b&&/h2&&p&这部分将从两个思路跟进现代人脸识别算法: &/p&&p&&b&思路1&/b&:Metric Learning: Contrastive Loss, Triplet loss 及相关 sampling method。 &/p&&p&&b&思路2&/b&:Margin Based Classification: 包含 Softmax with Center loss, Sphereface, NormFace, AM-softmax (CosFace) 和 ArcFace. &/p&&p&&b&关键字&/b&:DeepID2, Facenet, Center loss, Triplet loss, Contrastive Loss, Sampling method, Sphereface, Additive Margin Softmax (CosFace), ArcFace. &/p&&h2&&b&思路1:Metric Learning &/b&&/h2&&p&&b&Contrastive Loss&/b& &/p&&p&基于深度学习的人脸识别领域最先应用 Metric Learning 思想之一的便是 &b&DeepID2&/b& [2] 了,同 Chapter 1 的思想,“特征”在这篇文章中被称为“DeepID Vector”。&/p&&p&&b&DeepID2 在同一个网络同时训练 Verification 和 Classification(即有两个监督信号)&/b&。其中 Verification Loss 便在特征层引入了 Contrastive Loss。&/p&&p&Contrastive Loss 本质上是使同一个人的照片在特征空间距离足够近,不同人在特征空间里相距足够远直到超过某个阈值 m(听起来和 Triplet Loss 很像)。&/p&&p&基于这样的 insight,DeepID2 在训练的时候不是以一张图片为单位了,而是以 Image Pair 为单位,每次输入两张图片,为同一人则 Verification Label 为 1,不是同一人则 Label 为 -1,参数更新思路见下面公式(截自 DeepID2 论文):&/p&&figure&&img src=&https://pic3.zhimg.com/v2-9dd54f030fa_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&679& data-rawheight=&350& class=&origin_image zh-lightbox-thumb& width=&679& data-original=&https://pic3.zhimg.com/v2-9dd54f030fa_r.jpg&&&/figure&&p&DeepID2 在 14 年是人脸领域非常有影响力的工作,也掀起了在人脸领域引进 Metric Learning 的浪潮。 &/p&&p&&b&Triplet Loss from FaceNet &/b&&/p&&p&这篇 15 年来自 Google 的 FaceNet 同样是人脸识别领域的分水岭性工作。不仅仅因为他们成功应用了 Triplet Loss 在 benchmark 上取得 state-of-art 的结果,更因为他们&b&提出了一个绝大部分人脸问题的统一解决框架&/b&,即:识别、验证、搜索等问题都可以放到特征空间里做,需要专注解决的仅仅是如何将人脸更好的映射到特征空间。&/p&&p&为此,Google 在 DeepID2 的基础上,抛弃了分类层即 Classification Loss,将 Contrastive Loss 改进为 Triplet Loss,只为了一个目的:&b&学到更好的 feature&/b&。 &/p&&p&Triplet Loss 的思想也很简单,输入不再是 Image Pair,而是三张图片(Triplet),分别为 Anchor Face,Negative Face 和 Positive Face。Anchor 与 Positive Face 为同一人,与 Negative Face 为不同人。那么 Triplet Loss 的损失即可表示为: &/p&&figure&&img src=&https://pic4.zhimg.com/v2-bcb4fa3a18da9153a57acf_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&214& data-rawheight=&29& class=&content_image& width=&214&&&/figure&&p&直观解释为:在特征空间里 Anchor 与 Positive 的距离要小于 Anchor 与 Negative 的距离超过一个 Margin Alpha。&/p&&p&有了良好的人脸特征空间,人脸问题便转换成了 Chapter 1 末尾形容的那样简单直观。附上一张我制作的 Contrastive Loss 和 Triplet Loss 的 PPT:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-6d8aa420bfa_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&351& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic3.zhimg.com/v2-6d8aa420bfa_r.jpg&&&/figure&&p&&b&Metric Learning 的问题 &/b&&/p&&p&基于 Contrastive Loss 和 Triplet Loss 的 Metric Learning 符合人的认知规律,在实际应用中也取得了不错的效果,但是它&b&有非常致命的两个问题&/b&,使应用它们的时候犹如 pain in the ass。&/p&&p&&b&1. 模型需要很很很很很很很很很很很很很很长时间才能拟合&/b&(months mentioned in FaceNet paper),Contrastive Loss 和 Triplet Loss 的训练样本都基于 pair 或者 triplet 的,可能的样本数是 O (N2) 或者 O (N3) 的。当训练集很大时,基本不可能遍历到所有可能的样本(或能提供足够梯度额的样本),所以一般来说需要很长时间拟合。我在 10000 人,500,000 张左右的亚洲数据集上花了近一个月才拟合。 &/p&&p&&b&2. 模型好坏很依赖训练数据的 Sample 方式&/b&,理想的 Sample 方式不仅能提升算法最后的性能,更能略微加快训练速度。 &/p&&p&关于这两个问题也有很多学者进行了后续研究,下面的内容作为 Metric Learning 的延伸阅读,不会很详细。 &/p&&p&&b&Metric Learning 延伸阅读&/b& &/p&&p&&b&1. Deep Face Recognition&/b& &b&[3]&/b&&/p&&p&&b&为了加速 Triplet Loss 的训练,这篇文章先用传统的 softmax 训练人脸识别模型&/b&,因为 Classficiation 信号的强监督特性,模型会很快拟合(通常小于 2 天,快的话几个小时)。之后移除顶层的 Classificiation Layer,用 Triplet Loss 对模型进行特征层 finetune,取得了不错的效果。&b&此外这篇论文还发布了人脸数据集 VGG-Face&/b&。 &/p&&p&&b&2. In Defense of the Triplet Loss for Person Re-Identification&/b& &b&[4]&/b&&/p&&p&这篇文章提出了三个非常有意思的观点:&/p&&ul&&li&作者说实验中,平方后的欧几里得距离(Squared Euclidean Distance)表现不如开方后的真实欧几里得距离(Non-squared Euclidean Distance),直白来说就是把下图公式中的平方摘掉。&/li&&li&提出了 Soft-Margin 损失公式替代原始的 Triplet Loss 表达式。&/li&&li&引进了 Batch Hard Sampling。 &/li&&/ul&&figure&&img src=&https://pic2.zhimg.com/v2-5e0dcdbc581_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&219& data-rawheight=&36& class=&content_image& width=&219&&&/figure&&p&&b&3. Sampling Matters in Deep Embedding Learning&/b& &b&[5]&/b&&/p&&p&这篇文章提出了两个有价值的点:&/p&&ul&&li&从导函数角度解释了为什么第 2 点中提到的 Non-squared Distance 比 Squared-distance 好,并在这个 insight 基础上提出了 Margin Based Loss(本质还是 Triplet Loss 的 variant,见下图,图片取自原文)。&/li&&li&提出了 Distance Weighted Sampling。文章说 FaceNet 中的 Semi-hard Sampling,Deep Face Recognition [3] 中的 Random Hard 和 [4] 中提到的 Batch Hard 都不能轻易取到会产生大梯度(大 loss,即对模型训练有帮助的 triplets),然后从统计学的视角使用了 Distance Weighted Sampling Method。&/li&&/ul&&figure&&img src=&https://pic1.zhimg.com/v2-af9dd14dfdb622dd74e0e4_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&206& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic1.zhimg.com/v2-af9dd14dfdb622dd74e0e4_r.jpg&&&/figure&&p&&b&4. 我的实验感想&/b&&/p&&ul&&li&2、3 点中提到的方式在试验中都应用过,直观感受是 Soft-Margin 和Margin Based Loss 都比原始的 Triplet Loss 好用,但是 Margin Based Loss 实验中更优越。&/li&&li&Distance Weighted Sampling Method 没有明显提升。&/li&&/ul&&p&延伸阅读中有提到大家感兴趣的论文,可参考 reference 查看原文。最后,值得注意的是,&b&Triplet Loss 在行人重识别领域也取得了不错的效果&/b&,虽然很可能未来会被 Margin Based Classfication 打败。&/p&&h2&&b&思路2:Margin Based Classification &/b&&/h2&&p&顾名思义,Margin Based Classficiation 不像在 feature 层直接计算损失的 Metric Learning 那样,对 feature 加直观的强限制,而是&b&依然把人脸识别当 classification 任务进行训练&/b&,通过对 softmax 公式的改造,间接实现了对 feature 层施加 margin 的限制,使网络最后得到的 feature 更 discriminative。&/p&&p&这部分先从 &b&Sphereface&/b& [6] 说起。 &/p&&p&&b&Sphereface &/b&&/p&&p&先跟随作者的 insight 理下思路(图截自原文):&/p&&figure&&img src=&https://pic1.zhimg.com/v2-c6ddfd7f3ed83c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&170& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic1.zhimg.com/v2-c6ddfd7f3ed83c_r.jpg&&&/figure&&p&图 (a) 是用原始 softmax 损失函数训练出来的特征,图 (b) 是归一化的特征。不难发现在 softmax 的特征从角度上来看有 latent 分布。&/p&&p&那么为何不直接去优化角度呢?&b&如果把分类层的权重归一化&/b&,并且不考虑偏置的话,就得到了改进后的损失函数: &/p&&figure&&img src=&https://pic3.zhimg.com/v2-2afdfdd2b2360f98dcf22_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&462& data-rawheight=&86& class=&origin_image zh-lightbox-thumb& width=&462& data-original=&https://pic3.zhimg.com/v2-2afdfdd2b2360f98dcf22_r.jpg&&&/figure&&p&不难看出,对于特征 x_i,该损失函数优化的方向是使得其向该类别 y_i 中心靠近,并且远离其他的类别中心。这个目标跟人脸识别目标是一致的,最小化类内距离并且最大化类间距离。&/p&&p&然而为了保证人脸比对的正确性,还要保证最大类内距离还要小于最小类间距离。上面的损失函数并不能保证这一点。所以作者引入了 margin 的思想,这跟 Triples Loss 里面引入 Margin Alpha 的思想是一致的。&/p&&p&&b&那么作者是如何进一步改进上式,引入 margin 的呢?&/b&&/p&&p&上式红框中是样本特征与类中心的余弦值,我们的目标是缩小样本特征与类中心的角度,即增大这个值。换句话说,如果这个值越小,损失函数值越大,即我们对偏离优化目标的惩罚越大。&/p&&p&也就是说,这样就能进一步的缩小类内距离和增大类间距离,达到我们的目标。基于这样的思想最终的损失函数为如下:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-1cef435cb10df966abd2057_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&702& data-rawheight=&95& class=&origin_image zh-lightbox-thumb& width=&702& data-original=&https://pic4.zhimg.com/v2-1cef435cb10df966abd2057_r.jpg&&&/figure&&p&原始的 cos(θ) 被换成了 phi(θ),phi(θ) 的最简单形式其实是 cos(mθ),之所以在原文中变得复杂,只是为了将定义域扩展到 [0,2π] 上,并保证在定义域内单调递减。&/p&&p&而这个 m 便是增加的 margin 系数。当 m=1 时,phi(θ) 等于 cos(θ),当 m&1 时,phi 变小,损失变大。超参 m 控制着惩罚力度,m 越大,惩罚力度越大。&/p&&p&为计算方便,m 一般设为整数。作者从数学上证明了,m&=3 就能保证最大类内距离小于最小类间距离。实现的时候使用倍角公式。&/p&&p&另外:Sphereface 的训练很 tricky,关于其训练细节,这篇文章并没有提到,而是参考了作者前一篇文章 [10]。有关训练细节读者也可以去作者 Github 上去寻找,issues 里面有很多讨论。&/p&&p&&b&Normface&/b&&/p&&p&Sphereface 效果很好,但是它不优美。在测试阶段,Sphereface 通过特征间的余弦值来衡量相似性,即以角度为相似性的度量。但在训练阶段,不知道读者有没有注意到,其实 Sphereface 的损失函数并不是在直接优化特征与类中心的角度,而是优化特征与类中心的角度在乘上一个特征的长度。&/p&&p&也就是说,我在上文中关于 Sphereface 损失函数优化方向的表述是不严谨的,其实优化的方向还有一部分是去增大特征的长度去了。我在 MNIST 数据集上做过实验,以下图片分别为 m=1 和 m=4 时的特征可视化,注意坐标的尺度,就能验证上述观点。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-183d912bba6d07d028abab9c1e5b1eab_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&442& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic4.zhimg.com/v2-183d912bba6d07d028abab9c1e5b1eab_r.jpg&&&/figure&&p&然而特征的长度在我们使用模型的时候是没有帮助的。这就造成了 training 跟 test 之间目标不一致,按照 Normface 作者原话说就是存在一个 gap。&/p&&p&于是 Normface 的核心思想就出来了:&b&为何在训练的时候不把特征也做归一化处理?&/b&相应的损失函数如下: &/p&&figure&&img src=&https://pic2.zhimg.com/v2-79f53c58b1aed71fd513fe1a0821386d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&530& data-rawheight=&185& class=&origin_image zh-lightbox-thumb& width=&530& data-original=&https://pic2.zhimg.com/v2-79f53c58b1aed71fd513fe1a0821386d_r.jpg&&&/figure&&p&其中 W 是归一化的权重,f_i 是归一化的特征,两个点积就是角度余弦值。参数 s 的引入是因为数学上的性质,保证了梯度大小的合理性,原文中有比较直观的解释,这里不是重点。如果没有 s 训练将无法收敛。关于 s 的设置,可以把它设为可学习的参数。但是作者更推荐把它当做超参数,其值根据分类类别多少有相应的推荐值,这部分原文 appendix 里有公式。&/p&&p&文章中还有指出一点,&b&FaceNet 中归一化特征的欧式距离,和余弦距离其实是统一的&/b&。还有关于权重与特征的归一化,这篇文章有很多有意思的探讨,有兴趣的读者建议阅读原文。&/p&&p&&b&AM-softmax&/b& &b&[11]&/b& &b&/ CosFace&/b& &b&[12]&/b&&/p&&p&这两篇文章是同一个东西。Normface 用特征归一化解决了 Sphereface 训练和测试不一致的问题。但是却没有了 margin 的意味。AM-softmax 可以说是在 Normface 的基础上引入了 margin。直接上损失函数:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-ea0a8cceb5b4fa8fe94db3cc5db1d15a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&584& data-rawheight=&200& class=&origin_image zh-lightbox-thumb& width=&584& data-original=&https://pic3.zhimg.com/v2-ea0a8cceb5b4fa8fe94db3cc5db1d15a_r.jpg&&&/figure&&p&其中这里的权重和特征都是归一化的。&/p&&p&直观上来看,cos(θ)-m 比 cos(θ) 更小,所以损失函数值比 Normface 里的更大,因此有了 margin 的感觉。m 是一个超参数,控制惩罚的力度,m 越大,惩罚越强。作者推荐 m=0.35。这里引入 margin 的方式比 Sphereface 中的‘温柔’,不仅容易复现,没有很多调参的 tricks,效果也很好。&/p&&p&&b&ArcFace&/b& &b&[13]&/b& &/p&&p&与 AM-softmax 相比,区别在于 Arcface 引入 margin 的方式不同,损失函数:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-80e00a1e03d5d7729e44_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&625& data-rawheight=&88& class=&origin_image zh-lightbox-thumb& width=&625& data-original=&https://pic1.zhimg.com/v2-80e00a1e03d5d7729e44_r.jpg&&&/figure&&p&乍一看是不是和 AM-softmax一样?注意 m 是在余弦里面。文章指出基于上式优化得到的特征间的 boundary 更为优越,具有更强的几何解释。 &/p&&p&然而这样引入 margin 是否会有问题?仔细想 cos(θ+m) 是否一定比 cos(θ) 小?&/p&&p&最后我们用文章中的图来解释这个问题,并且也由此做一个本章 Margin-based Classification 部分的总结。&/p&&h2&&b&小结&/b&&/h2&&figure&&img src=&https://pic4.zhimg.com/v2-edfe486a330c79f2c163f3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&619& data-rawheight=&461& class=&origin_image zh-lightbox-thumb& width=&619& data-original=&https://pic4.zhimg.com/v2-edfe486a330c79f2c163f3_r.jpg&&&/figure&&p&这幅图出自于 Arcface,横坐标为 θ 为特征与类中心的角度,纵坐标为损失函数分子指数部分的值(不考虑 s),其值越小损失函数越大。 &/p&&p&看了这么多基于分类的人脸识别论文,相信你也有种感觉,大家似乎都在损失函数上做文章,或者更具体一点,大家都是在讨论如何设计上图的 Target logit-θ 曲线。这个曲线意味着你要如何优化偏离目标的样本,或者说,根据偏离目标的程度,要给予多大的惩罚。两点总结: &/p&&p&&b&1. 太强的约束不容易泛化&/b&。例如 Sphereface 的损失函数在 m=3 或 4 的时候能满足类内最大距离小于类间最小距离的要求。此时损失函数值很大,即 target logits 很小。但并不意味着能泛化到训练集以外的样本。施加太强的约束反而会降低模型性能,且训练不易收敛。 &/p&&p&&b&2. 选择优化什么样的样本很重要&/b&。Arcface 文章中指出,给予 θ∈[60° , 90°] 的样本过多惩罚可能会导致训练不收敛。优化 θ ∈ [30° , 60°] 的样本可能会提高模型准确率,而过分优化 θ∈[0° , 30°] 的样本则不会带来明显提升。至于更大角度的样本,偏离目标太远,强行优化很有可能会降低模型性能。&/p&&p&这也回答了上一节留下的疑问,上图曲线 Arcface 后面是上升的,这无关紧要甚至还有好处。因为优化大角度的 hard sample 可能没有好处。这和 FaceNet 中对于样本选择的 semi-hard 策略是一个道理。 &/p&&p&&b&Margin based classification 延伸阅读 &/b&&/p&&p&&b&1. A discriminative feature learning approach for deep face recognition&/b& &b&[14]&/b&&/p&&p&提出了 center loss,加权整合进原始的 softmax loss。通过维护一个欧式空间类中心,缩小类内距离,增强特征的 discriminative power。 &/p&&p&&b&2. Large-margin softmax loss for convolutional neural networks&/b& &b&[10]&/b&&/p&&p&Sphereface 作者的前一篇文章,未归一化权重,在 softmax loss 中引入了 margin。里面也涉及到 Sphereface 的训练细节。 &/p&&p&&i&注:思路二由陈超撰写&/i&&/p&&h2&&b&Chapter 3&/b&&/h2&&p&基于前两章的知识,我在 lfw 上取得了 99.47% 的结果,这个结果训练在 Vggface2 上,未与 lfw 去重,也没经历很痛苦的调参过程,算是 AM-softmax 损失函数直接带来的收益吧。&/p&&p&过程中踩了很多坑,这一章将把前段时间的实验结果和心得做一个整理,此外也将回答绝大部分工程师在做人脸识别时最关心的一些问题。やりましょう! &/p&&blockquote&项目地址:&br&&br&&u&&a href=&http://link.zhihu.com/?target=https%3A//github.com/Joker/Additive-Margin-Softmax& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&github.com/Joker3167018&/span&&span class=&invisible&&82/Additive-Margin-Softmax&/span&&span class=&ellipsis&&&/span&&/a& &/u&&br&&br&包含代码可以复现所有实验结果
&/blockquote&&p&&b&一个标准的人脸识别系统包含这几个环节&/b&:人脸检测及特征点检测-&人脸对齐-&人脸识别。&/p&&h2&&b&人脸检测 & Landmark检测&/b&&/h2&&p&目前最流行的人脸及 Landmark 检测是 &b&MTCNN&/b& [7],但是 MTCNN 一方面偶尔检测不到 face,一方面 Landmark 检测不够精准。这两点都会给后续的对齐和识别带来不利影响。&/p&&p&另外在 COCO Loss [8] 论文里提到:好的检测和对齐方法,仅用 softmax 就能达到 99.75%,秒杀目前大多数最新论文的结果。COCO Loss 的 &a href=&http://link.zhihu.com/?target=https%3A//github.com/sciencefans/coco_loss/issues/9& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Github issue&/a& 里提到了更多细节。&/p&&p&此外,因为 alignment 算法性能的区别,2017 年及以后的论文更加注重相对实验结果的比较,以排除 alignment 算法引入的优劣势,方便更直观比较各家的人脸识别算法,lfw 上轻松能达到 99% 以上也是现在更倾向于采用相对结果的原因。 &/p&&h2&&b&人脸对齐 &/b&&/h2&&p&人脸对齐做的是将检测到的脸和 Landmark 通过几何变换,将五官变换到图中相对固定的位置,提供较强的先验。广泛使用的对齐方法为 Similarity Transformation。更多对其变换方法和实验可以参考&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&这篇知乎文章&/a&。&/p&&blockquote&作者代码实现:&br&&br&&u&&a href=&http://link.zhihu.com/?target=https%3A//github.com/Joker/Additive-Margin-Softmax/blob/master/align/align_lfw.py& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&github.com/Joker3167018&/span&&span class=&invisible&&82/Additive-Margin-Softmax/blob/master/align/align_lfw.py&/span&&span class=&ellipsis&&&/span&&/a&&/u&&/blockquote&&p&&b&值得探讨的一个问题是:人脸检测和对齐真的有必要吗?&/b&现实应用中常出现人脸 Landmark 无法检测的情况,没有 Landmark 就无法使用 Similarity Transoformation。&/p&&p&针对这个问题也有相关研究,通过使用 &b&Spatial Transform Network&/b& [9] “让网络自己学习 alignment”,论文参考 &b&End-to-End Spatial Transform Face Detection and Recognition&/b&。这方面的研究进展还不充分,所以实际系统中多数情况下还是使用了 detection-&alignment 这套流程。&/p&&h2&&b&人脸识别&/b&&/h2&&p&可以说人脸识别的项目中绝大部分问题都是人脸检测和对齐的问题。识别模型之间的差距倒没有那么明显。不过训练 AM-softmax 过程中依然碰到了些值得注意的问题。&/p&&p&Spheraface 里提出的 Resface20,AM-softmax 中也同样使用,一模一样复现情况下在 lfw 上只能达到 94%。&/p&&p&TensorFlow 中能拟合的情况为如下配置:&/p&&blockquote&&i&Adam, no weight decay, use batch normalization.&/i&&/blockquote&&p&对应原文配置:&/p&&blockquote&&i&Momentum, weight decay, no batch normalization.&/i&&/blockquote&&p&以及在实验中发现的: 除了 Adam 以外的任何一个 optimizer 都达不到理想效果,这可能是不同框架底层实现有所区别的原因,Sphereface、AM-softmax都是基于 Caffe,本文所有实验全使用 TensorFlow,结论有区别也算正常。&/p&&p&另一点,Sandberg FaceNet 中的 resnet-inception-v1 搬过来套用 AM-softmax 在 lfw 上的结果达不到 97%,这是过程中不太理解的点。&/p&&p&从其他论文里看,如果 loss 选的没问题,那诸如 resnet-inception,不同深度的 Resnet,甚至 Mobile-net,Squeezenet 等结构的表现也不该有明显差距(AM-softmax 的情况下至少也该达到99%)。&/p&&p&此外,直接套用 Arcface 也无法拟合,需要进一步实验。 &/p&&p&最后,关于 Sandberg 的 code 中一个值得关注的点,他将 train_op 定义在了 facenet.train() 函数里,仔细阅读这个函数会发现,Sandberg 的代码中所有网络参数并不是采用每次更新梯度后的值,而是采用滑动平均值作为网络实际的参数值。&/p&&p&也正是因为这个原因,解释了 Sandberg 在 batch_norm 的参数 configuration中,甚至没把”is_training”的值交给 placeholder,而是默认 train 和 test 时都采用 local statistics 的模式。&/p&&p&如果不是因为所有参数都用了滑动平均,那么这种使用 batch_norm 的做法其实是错误的。Sandberg 这样实现的好坏只能交给实验结果来评判了。&/p&&p&如果想正常使用网络参数和 batch norm,而不是用滑动平均参数和全程开着“is_training”,只需要将 facenet.train() 函数替换成普通的 Optimizer,然后将 batch_norm的“is_training”交给 placeholder 处理,详细可以参考我的 AM-softmax 实现。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-257cf832e1737e72ceb77bb72fbd521f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&618& data-rawheight=&318& class=&origin_image zh-lightbox-thumb& width=&618& data-original=&https://pic4.zhimg.com/v2-257cf832e1737e72ceb77bb72fbd521f_r.jpg&&&/figure&&p&感谢大家坚持阅读到最后,以 TensorBoard 的 plot 作为结尾吧!&/p&&figure&&img src=&https://pic4.zhimg.com/v2-6c019ec37fecd6321a9cdb0af7d92a0b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&300& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic4.zhimg.com/v2-6c019ec37fecd6321a9cdb0af7d92a0b_r.jpg&&&/figure&&h2&&b&参考文献&/b&&/h2&&p&[1] F. Schroff, D. Kalenichenko, and J. Philbin. Facenet: A unified embedding for face recognition and clustering. In Proc. CVPR, 2015. &/p&&p&[2] Y. Sun, X. Wang, and X. Tang. Deep learning face representation by joint identification-verification. CoRR, abs/, 2014. &/p&&p&[3] O. M. Parkhi, A. Vedaldi, and A. Zisserman. Deep face recognition. In BMVC, 2015 &/p&&p&[4] A. Hermans, L. Beyer, and B. Leibe. In defense of the triplet loss for person re-identification. arXiv preprint arXiv:, 2017 &/p&&p&[5] Wu, C. Manmatha, R. Smola, A. J. and Krahenb uhl, P. 2017. Sampling matters in deep embedding learning. arXiv preprint arXiv: &/p&&p&[6] W. Liu, Y. Wen, Z. Yu, M. Li, B. Raj, and L. Song. Sphereface: Deep hypersphere embedding for face recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, 2017 &/p&&p&[7] Zhang, K., Zhang, Z., Li, Z., Qiao, Y.: Joint face detection and alignment using multi-task cascaded convolutional networks. arXiv preprint, 2016 &/p&&p&[8] Yu Liu, Hongyang Li, and Xiaogang Wang. 2017. Learning Deep Features via Congenerous Cosine Loss for Person Recognition. arXiv preprint arXiv:, 2017 &/p&&p&[9] M. Jaderberg, K. Simonyan, A. Zisserman, and K. Kavukcuoglu. Spatial transformer networks. In NIPS, 2015. &/p&&p&[10] W. Liu, Y. Wen, Z. Yu, and M. Yang. Large-margin softmax loss for convolutional neural networks. In ICML, 2016. &/p&&p&[11] F. Wang, W. Liu, H. Liu, and J. Cheng. Additive margin softmax for face verification. In arXiv:, 2018. &/p&&p&[12] CosFace: Large Margin Cosine Loss for Deep Face Recognition &/p&&p&[13] Deng, J., Guo, J., Zafeiriou, S.: Arcface: Additive angular margin loss for deep face recognition. In: Arxiv preprint. 2018 &/p&&p&[14] Y. Wen, K. Zhang, Z. Li, and Y. Qiao. A discriminative feature learning approach for deep face recognition. In ECCV, 2016. &/p&&p&[15] Y. Liu, H. Li, and X. Wang. Rethinking feature discrimination and polymerization for large-scale recognition. arXiv:, 2017.&/p&&p&&b&本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,&/b&&a href=&http://link.zhihu.com/?target=http%3A//www.paperweekly.site/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&点击即刻加入社区&/a&&b&!&/b&&/p&&p&&b&关于PaperWeekly&/b&&/p&&p&PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击&b&「交流群」&/b&,小助手将把你带入 PaperWeekly 的交流群里。&/p&&p&&b&微信公众号:PaperWeekly&/b&&/p&&p&&b&新浪微博:@PaperWeekly&/b&&/p&
作者丨葛政学校丨早稻田大学硕士生研究方向丨深度学习,计算机视觉个人博客丨相信做机器学习或深度学习的同学们回家总会有这样一个烦恼:亲朋好友询问你从事什么工作的时候,如何通俗地解释能避免尴尬?我尝试过很多名词来形容自己的工作:机器学…
&p&泻药 ,想到我之前剪辑的贵圈三大清奇人士:&/p&&a class=&video-box& href=&//link.zhihu.com/?target=https%3A//www.zhihu.com/video/006848& target=&_blank& data-video-id=&& data-video-playable=&& data-name=&& data-poster=&https://pic4.zhimg.com/80/v2-d561a646e2ebd552c33dae5b1977279f_b.jpg& data-lens-id=&006848&&
&img class=&thumbnail& src=&https://pic4.zhimg.com/80/v2-d561a646e2ebd552c33dae5b1977279f_b.jpg&&&span class=&content&&
&span class=&title&&&span class=&z-ico-extern-gray&&&/span&&span class=&z-ico-extern-blue&&&/span&&/span&
&span class=&url&&&span class=&z-ico-video&&&/span&https://www.zhihu.com/video/006848&/span&
&/a&&p&&b&分别是陈道明、张国荣、王菲。&/b&&/p&&p&&b&当时不全是剪访谈,但大家可以先感受下画风。基本上、这仨人访谈都挺有风格,怼天怼地。明叔三观奇正,国荣霸气俏皮,王菲擅长冷漠。&/b&&/p&&p&&br&&/p&&p&下面推荐:&/p&&p&1.&b&《今夜不设防》&/b&&/p&&p&&b&亚视的一档明星访谈节目。&/b&&/p&&p&虽然年份较早,但大胆前卫,尺度随意,上下纵横,无所不谈,远超如今一些访谈的含金量。&/p&&p&&b&节目主持&/b&:&b&黄霑、倪匡、蔡澜、&/b&香港四大才子,除了金庸来了仨。&br&&b&曾采访对象:周润发、成龙、张国荣、林青霞、王祖贤、钟楚红、利智、叶童、陈玉莲、吴君如、关之琳、许冠文、麦嘉、黄百鸣……&/b&&/p&&p&&b&适宜群众:成人观众。&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-f270bf2e77b8e352ac887_b.jpg& data-rawwidth=&665& data-rawheight=&665& data-caption=&& data-size=&normal& class=&origin_image zh-lightbox-thumb& width=&665& data-original=&https://pic4.zhimg.com/50/v2-f270bf2e77b8e352ac887_r.jpg&&&/figure&&p&这节目的嘉宾阵容,空前绝后。各路巨星侃侃而谈,无背词,无尬演。&/p&&p&主要讨论娱乐圈、电影、人际、友情、爱情、美女、美食、性……&/p&&p&就是想到哪侃哪……&/p&&p&外加各种辛辣爆料,基本上,总局阉割下的小朋友一看就会入坑。&/p&&p&有香烟,有美酒,有俊男美女,有独到见解,还有各种飚车。&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-5e08a97c30e86ff4d1b1acb934b54049_b.jpg& data-rawwidth=&665& data-rawheight=&665& data-caption=&& data-size=&normal& class=&origin_image zh-lightbox-thumb& width=&665& data-original=&https://pic3.zhimg.com/50/v2-5e08a97c30e86ff4d1b1acb934b54049_r.jpg&&&/figure&&p&&b&最推荐的几期,地址b站:&/b&&/p&&p&&b&1.张国荣:&/b&&/p&&a data-draft-node=&block& data-draft-type=&link-card& href=&//link.zhihu.com/?target=https%3A//www.bilibili.com/video/av2419484/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&【张国荣】今夜不设防【超清版】粤语中字_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili&/a&&p&&b&2.王祖贤:&/b&&/p&&a data-draft-node=&block& data-draft-type=&link-card& href=&//link.zhihu.com/?target=http%3A//www.bilibili.com/video/avFfrom%3Dsearch%26seid%3D7682948& data-image=&https://pic1.zhimg.com/v2-ea3f7d2c9cdd9f91007bed6efb71bf20_180x120.jpg& data-image-width=&554& data-image-height=&346& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&【脱口秀】今夜不设防【王祖贤】【黄霑倪匡蔡澜主持】【粤语中字】【1989】_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili&/a&&p&&b&3.林青霞、王祖贤、成龙:&/b&&/p&&a data-draft-node=&block& data-draft-type=&link-card& href=&//link.zhihu.com/?target=http%3A//www.bilibili.com/video/avFfrom%3Dsearch%26seid%3D8988992& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&【ATV今夜不设防之金装晚宴】(霞贤、成龙)_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili&/a&&p&&b&4.关之琳:&/b&&/p&&a data-draft-node=&block& data-draft-type=&link-card& href=&//link.zhihu.com/?target=http%3A//www.bilibili.com/video/avFfrom%3Dsearch%26seid%3D3728167& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ATV今夜不設防I 关之琳 粤语中文字幕_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili&/a&&p&她这时真是好漂亮!可惜不是耐老型。而且她这一期很……暴露三观:&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-acd78cdbc44a19b1f4def0_b.jpg& data-rawwidth=&600& data-rawheight=&600& data-caption=&& data-size=&normal& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic3.zhimg.com/50/v2-acd78cdbc44a19b1f4def0_r.jpg&&&/figure&&p&&b&5.
许冠文:&/b&&/p&&a data-draft-node=&block& data-draft-type=&link-card& href=&//link.zhihu.com/?target=http%3A//www.bilibili.com/video/avFfrom%3Dsearch%26seid%3D& data-image=&https://pic4.zhimg.com/v2-87fd199a05f1cfx120.jpg& data-image-width=&512& data-image-height=&288& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&【今夜不设防】【许冠文】_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili&/a&&p&这一期无字幕,但听得懂粤语的还是超推荐一看!许冠文不愧冷面笑匠,继张国荣、周润发之后,第三个成功熊住主持的嘉宾!&/p&&p&&br&&/p&&p&&b&2.《煮酒话金庸》&/b&&/p&&p&&b&香港TVB访谈节目,但是是国语的。&/b&&/p&&p&上面说了黄倪蔡三个大佬,索性加上金庸。反正这档节目里也有倪匡蔡澜,对老友金大侠那是一通侃。&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-d40eb2ec8cb267cf01ab78d78187fa43_b.jpg& data-rawwidth=&500& data-rawheight=&375& data-caption=&& data-size=&normal& class=&origin_image zh-lightbox-thumb& width=&500& data-original=&https://pic4.zhimg.com/50/v2-d40eb2ec8cb267cf01ab78d78187fa43_r.jpg&&&/figure&&p&节目嘉宾:&b&金庸、倪匡、蔡澜、黄玉郎、许鞍华、李添胜、狄龙、郑少秋、汪明荃、赵雅芝、刘德华、苗侨伟、梁家辉、古天乐、张智霖、张卫健、陈小春、马浚伟、朱茵、黎姿、佘诗曼、任贤齐 &/b&……&/p&&p&&b&就基本上,老中青三代,拍过金庸作品的演员都到位了。&/b&&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-1f65b19eecf870fdd67a303_b.jpg& data-rawwidth=&700& data-rawheight=&525& data-caption=&& data-size=&normal& class=&origin_image zh-lightbox-thumb& width=&700& data-original=&http

我要回帖

更多关于 最终幻想战略版金手指 的文章

 

随机推荐