← Dailyio 历史存档 | 搜索

分类: Open Access

共有 354 篇文章

FB 的盛衰史,成也「点赞」、败也「点赞」

「点赞」的偶然发明

2005 年,创业者 Rob Manuel 遇到了一个难题。

四年前的互联网泡沫之后,他跟两个朋友 Denise Wilton 和 Cal Henderson 一起创立了B3ta网站。像众多的新兴网站一样,他们也想尝试建立一个与众不同的有趣网站。

从产品本质上来说,B3ta 是一个 newsletter 和短讯分享平台,基于这两个上世纪 90 年代互联网早期的技术,网站内容以笑料为主。每周都会有包含了混搭、成熟和美学的图片比拼。但很快,这里就变成了一个分享创造性内容,涉及各个方面的社区,从简单的图片拼贴,到高超的动画剪辑,或者是各种艺术形式的天堂

到 2005 年,B3ta 社区规模已经相当大,简单的平台式页面难以承载,Manuel 需要一种能准确找到好内容的方法。

事实上,这是 2000 年初各个网络社区都在尝试解决的问题。2000 年上线的神秘的 FilePile 社区,运用了「+」「-」排名的方式,用户可以把内容顶上去或者拉下来。这对 B3ta 社区有深远影响。2004 年 12 月上线Digg.com 用一个简单的「Digg」按钮对链接进行排名。但早在这两个网站出现之前,像 Hot or Not 这样的网站( 扎克伯格在创立 Facebook 之前曾参考这个网站做了 FaceMash )开始用按钮测试用户的喜好。此时 Manuel 还在手动管理他的社区,并把这种投票按钮看作一种可能的解决方案:

我需要一个机制来处理大量的图片和文字内容。一个一个去读去看真的太累了,要为首页和邮件推送找到最好的内容,必须给用户一个简单明了的投票机制。我想采取用户和管理员筛选相结合的方式,由用户选出好的内容,再由管理员最终决定。

img *上图是 Rob Manuel 2005 年 11 月写给 B3ta 开发者的邮件,*

Manuel 随即写邮件给他的开发者,建议加上一个「wooyay」的按钮,虽然不清楚为什么最后变成了「like」,总之 2005 年 11 月,B3ta 社区增加了一个「喜欢」的按钮。

img

「点赞」机制的助推器:社交图谱和 News Feed

我们今天看到的 Facebook 跟 2004 年扎克伯格上线的版本完全不同。

过去 15 年间,Facebook 通过整合社交图谱Newsfeed 和点赞机制三种功能,成功达到了全球化规模。这三种功能都不是 Facebook 首创。这家公司的成功之处在于越来越擅长这三种功能的配合,迎合用户、广告商和合规的需求。正是这种特点把 Facebook 和其他社区网站区别开来。彼时,FilePile , B3ta 和其他网站依然满足于相对隐秘的创新型社区。 而扎克伯格的野心及其投资者要求的是不断的增长和拓宽。2007 到 2009 年间,Facebook 用这三种 Web2.0 时代的产物,实现了快速扩张。

第一个元素「社交图谱」:与扎克伯格 同届的哈佛大学经济学学生 Philippe Bouzaglou 曾在 2002 年的学术论文中做出解释,社交图谱用来表现人群之间交织的复杂关系,这种类似于「 Kevin Bacon 六度分隔理论」的游戏,在 20 世纪 90 年代的互联网留言板非常流行。2000 年后的互联网社交媒体多少都应用了社交图谱的概念,从图片共享网站 Flickr 到稍纵即逝的SixDegrees.com

在这些网站中,社交图谱通常用来帮助用户寻找好友或关注好友的动态。在社交媒体发展初期,用户能找到关联的人已经非常兴奋了。

在 2007 年 5 月的 Facebook 开发者大会上,扎克伯格发布了一项针对社交图谱的野心计划,他说道:「到目前为止,社交网络都是封闭的平台,而今天,我们将结束这一切。」相比于局限在一个网站的关系中,他把社交图谱看作一种在整个互联网联系人们的新方式。「社交图谱正在改变世界,我们正处于一个信息更容易获取,人们联系更加紧密的时代,是之前任何一个时代无法比拟的,而社交图谱就在中心点上」,扎克伯格如是说道。

2007 年 4 月,Facebook 的月度用户高达 2 千万,而当时全球互联网用户刚刚超过十亿。在这样的背景下,扎克伯格想要把每个人都联系起来的愿景显得野心勃勃,甚至太过于理想主义。当时还无法想象一个由 Facebook 联系起来的世界是什么样子,但在下一个十年,我们都看到了结果。

第二个元素 Newsfeed,从根本上改变了社交媒体的结构。像博客这种早期的社交网站,将用户视为内容创造者,所以都努力让用户发布内容变得更简单。用户只能通过访问博客页面或者RSS订阅来关注别人。

2006 年 Twitter 上线,让用户自己的内容跟好友的放在一起同时呈现。2006 年 7 月上线的版本里推出了时间线的概念,那时,发推只能通过短信,所以主页上依然以阅读好友的内容为主。

img

九月,Facebook 推出了自己的时间线—NewsFeed。通过与社交图谱的结合,Facebook 对 Newsfeed 的应用与以往的社交网站截然不同。这不再是一个用户能完全掌控的页面,而是专门为读者定制的无限信息流,与内容创造者不再有关系。

把用户从内容创造者变成内容消费者,这个变化是 Facebook 和 Twitter 增长的关键。这两个平台成了各种信息流的中心,你的好友、你关注的明星、你喜欢的品牌,可以实时发布文字,图片和视频。2007 年 iPhone 的发布更是让用户有了完美的信息浏览工具。仅仅几年时间,从 web 2.0 人人都是内容创造者,变成了人人都是举着一块屏幕滑动的内容消费者。

「点赞」是如何为 Facebook 赋能的

对 Facebook 而言,点赞的主要目的都是为了把用户行为转变为有效数据。

历史上,鼓掌并不是一个自发的行为,而是几个世纪间逐渐形成的文化产物;从罗马皇帝到情景喜剧,它是各种变相盈利和获得权力的工具。我们知道 Arthur C.Nielsen 用机械设备开创了广播评级,用电子表格分析听众,从而开启了大数据的先河。我们也知道音乐排行榜最初是为了便于在音乐杂志中售卖广告,但最终把唱片行业和战后流行文化推向了高潮。

「点赞」的故事集合了所有这些奇妙的点。跟鼓掌一样,「点赞」把我们对文化的复杂回应简化为一个动作。跟广播评级类似,点赞机制把看不见的用户行为变成可分析的数据。同时,跟音乐排行榜类似,「点赞」从我们对流行文化的狂热和回应中创造出了新的市场。

Facebook 2009 年 2 月 10 日上线了点赞功能,这在关注指标历史上是具有历史意义的一天。并不是 Facebook 发明了点赞功能,事实上此后 Facebook 便收购了一家几年前就开始使用点赞功能的网站 FriendFeed ;而是 Facebook 将点赞功能与社交图谱和 Newsfeed,这两个本身已经非常强大的功能进行了结合。

通过这种方式,Facebook 有条件从庞大的人群中获得难以想象的庞大的个人数据。2010 年 Facebook 又发布了图谱API,让开发者不仅能访问用户个人的活动,还可以访问其所有好友的活动。事实上,即使你不用 Facebook ,别人也可以通过你亲戚朋友的 Facebook 页面拼凑出你的信息。因此,如果开发者获得几千人的数据权限,就可以获得上百万人的数据。

虽然 Facebook 在 2014 年更新图谱 API 时对功能做了限制,但据 Digital Journalism Tow Center 研究负责人 Jonathan Albright的陈述,这次 Facebook 用更加强大的东西取代了它:

扎克伯格声称「把用户放第一位」,却在 2014 年 4 月发布了「个人验证信息」功能,把用户敏感的个人信息,包括朋友和家人的信息暴露给外界。

同一天,Facebook 还发布了最大的跟踪和精准广告投放系统「Audience Network」。同样地,这个系统更加扩大了Facebook 的数据库,并将广告投放到网站和互联网任何地方。

Jonathan Albright 图谱API: Facebook 的关键点与「剑桥分析」事件

扎克伯格关于连接世界的愿景刚刚提出两年,现在 Facebook 已经不仅仅是连接世界了,而是收集和分析数十亿人的情感,想法和信仰,并卖给想要的任何人。

对用户来说,Facebook 成了一个越来越定制化的观察世界的窗口。关于我们喜好的数据被用来绘制我们的社交图谱,用于改进算法,最终决定把什么呈现给我们。社交图谱和 NewsFeed 是 Facebook 增长的发动机,而点赞机制为其赋予了意义,并使其不仅做到了连接世界,更重构了人们看待世界的方式。

「点赞」是怎么被玩坏的

Facebook 过去几年的增长如此快速和复杂,难以概括。如今,快速增长带来的问题已经很明显了,而其未来的路却是难以预测。

我们可以责怪扎克伯格把 Facebook 的发展想得过于简单,但回过头来看,关注指标的发展是渐进式的,不是在某个盲目的时刻被创造出来,而是随着时间不断改变和适应的。与此相关的产业也不是一个人建立的,而是由内容生产者,广告商和投资者,甚至用户共同推动的。

如果我们要指出 Facebook 错在哪里,首先就是他们没有预料到,或者无法预料到将点赞机制加入社交图谱和 NewsFeed 的后果。

其次,Facebook 认为算法足以处理一个数十亿用户的平台。跟 Rob Manuel 只是想用一个点赞按钮减轻人工的工作量不同,Facebook 坚持认为只有不加人工干预的,纯粹的算法和技术干预才能使公司立足。

最后一点,Facebook 售卖数据给广告商的方式,打破了传统媒体市场的模式。过去,当新的媒体分包网络出现时,观众的分析和转化都会由市场上几家公司共同完成,没有任何一家公司可以控制市场。在电视产业,评级都由 Nielsen 或者 BARB 这种第三方独立公司完成。

我们可以从「点赞」中学到什么

如果我们要改变这种局面,不应该是从现在开始。事实上,Facebook 已经肆意利用我们的个人数据变现,夸大虚假新闻甚至影响美国大选的 2018 年。我们应该追溯到 2007 年,Facebook 仍是众多 web 2.0 时代创业公司中的一个。之后的两年,它完成了三种元素的结合,只是没人能想到这种结合会产生多么强大的力量。

我们可以把时间拨到那个时刻,像 20 世纪扳倒石油和电话垄断巨头一样,摧毁我们新兴的数字垄断巨头。我们可以对个人数据的使用提出规范化的条约,限制任何一个公司对我们喜好的利用和变现。也许我们还可以坚持没有任何一个平台可以出于成本或逻辑考虑,摒弃人工运营的干预。

但即使那样,我们也无法阻止下一个「点赞」功能的出现—也许会制造出一种新的垄断。改变世界的想法一开始都很渺小,就像 Rob Manuel 提出的,简单而具体的问题。而垄断就是由这些渺小的想法所组成的,难以预测更难以规范

21 世纪最初的二十年间,我们已经可以窥见一些指数级技术对文化和社会带来的影响,这些技术的结合带来了难以想象的极速发展和复杂系统。单单关注某家公司和他们的运作,无法预测这些技术带来的变革和影响。

这些技术背后的想法来源于各种形态中的很多人,我们无法通过某个例子来规范。相反,我们应该看到这些指数级技术的共性,让技术开发者承担更多的社会责任。

比如早在 2007 年,我们就可以要求所有使用社交图谱, Newsfeed 和点赞机制的公司设立一个共同的标准。这一标准需要经过行业内部和政府的共同认可。这也许会使他们的发展放缓,但这也为我们了解和预测未来争取了时间。

伏尔泰和蜘蛛侠都曾说过「能力越大,责任越大」,问题是,有时强大的能力带来了极速的扩张,而承担责任却迟迟未见。

Google 如何让 AI 与云结合、阿里华为AWS的同一布局以及 2019 年的新趋势

云计算与人工智能结合的口号已经喊了很多年,但站在 2018 年末的时间点去看,这个趋势正在成为现实。

让我们先来简单回顾一下过往巨头公司们是如何将两者绑定的。

2016 年 3 月,Google 旗下的 DeepMind 利用 AlaphGo 展现了 Google 的人工智能能力,几乎与此同时,Google Cloud Platform(以下简称 GCP)召开了一场低调的会议,之所以说低调,一方面是因为当时整个行业的热点都聚焦在 DeepMind 身上,另一方面则是,Google Cloud 在当时还非常弱小。

但为期两天的会议还是发布了一些令人眼前一亮的产品(或者说理念),这其中的关键词就是机器学习,尤其是基于云端的机器学习,官方的新闻稿写道:

Cloud Machine Learning will take machine learning mainstream, giving data scientists and developers a way to build a new class of intelligent applications. It provides access to the same technologies that power Google Now, Google Photos and voice recognition in Google Search as easy to use REST APIs…..

这一次会议是 Google 全面将人工智能与云绑定在一起的开始,然而外界并不能明白,GCP 上的机器学习到底和亚马逊 AWS、微软 Azure 上有什么区别以及优势在哪里,当时的一位参会者在其博客里直言:

There’s no doubt about both Google and Amazon being good at what they do, but exactly because of that fact, the answer “because we’re Google” just doesn’t cut it anymore.

“Why is GCP’s Machine Learning better than Amazon’s and Microsoft’s?” “Because we’re Google and they are not”.

“Why is GCP more secure than AWS?” “Because GCP is Google, and AWS is not”.

而到了 2016 年 5 月,Google 又召开了一场高调的大会:Google I/O。这次会议进一步展现了 Google 对「云计算+人工智能」的决心,在这次会议上,Google 推出了为机器学习独家定制的芯片,Tensor Processing Unit(以下简称为 TPU)。

img
Google 不对外出售 TPU,将其与 GCP 紧密结合在一起,并且也为 Google 开源的深度学习框架 Tersorflow 进行了优化,考虑到 Tensorflow 自开源以来所形成的强大生态,这也进一步增强了 Google 在云服务领域的话语权,Google 希望以人工智能打破云计算领域的僵局,

随后的 2017、2018 年,GCP 的机器学习产品进一步与 TPU 绑定,尤其在 2018 年 2 月,Google 宣布开放 TPU 云服务,这也让 GCP 形成了独特的人工智能+云的产品架构:

  • 硬件:TPU;
  • 框架:TensorFlow;
  • 社区:Kaggle;
  • 计算/存储平台:GCP;

Google 的这一系列举措也进一步引发了云计算领域的人工智能热,2016 年的 AWS re:Invent 大会上,AWS 发布了多款机器学习 API 产品,而这年早些时候,阿里云推出基于人工智能的城市解决产品:杭州城市大脑。

2017 年的 Bulid 大会上,微软也发布了一系列机器学习产品,在微软看来:「(Azure 云)既是孕育和发展人工智能的平台和基础,同时也在以多样化的云服务的形式,为全球开发者和企业提供触手可及的人工智能平台与工具。」

在这样的理念之下,微软增加了多个智能 API 接口,「利用这些 API,开发者能够将视觉、语音、语言、知识和搜索等智能应用加入到任何应用场景中」。

2017 年末,AWS 继续在云端增加机器学习的能力,Amazon SageMaker 亮相这一年的 re:Invent 大会,SageMaker 是一个端到端的机器学习服务,不仅可以简化开发者的工作内容,你只需输入数据,就可以自由选择算法、模型进行训练,同时还具备迁移、部署的灵活性。

img

如果从技术的创新性来看,Google 无疑是最具引领效应的,而这种引领效应也被其市场部门不断扩大,最终也塑造 Google 是「云端人工智能最强」的公众印象。

但事实的另一面则是,由于机器学习的早期的实践者并非大企业,更多是研究者或开发者,GCP 早期的技术创新的确满足了这些人的需求,但随着机器学习开始步入企业,尤其是大企业开始部署相关技术,GCP 企业级的服务缺陷彰显无遗。而此时,Azure 与 AWS 则通过将机器学习产品与现有的客户需求相结合,进一步释放了云平台的号召力,这也就不难理解为何 GCP 这一年举步维艰了。

过去的 2018 年,从国内的阿里云、华为到 AWS,在不断强化云服务的同时,还在做同一件事情,也是一年半之前 Google 做的事情:研发 AI 芯片。

9 月的杭州云栖大会上,阿里巴巴 CTO 张建锋透露了阿里巴巴的芯片计划:

  • 成立平头哥半导体有限公司;
  • 2019 年发布第一款神经网络芯片;
  • 正在研发量子芯片;

11 月,随着阿里云架构调整,张建锋出任全新的阿里云智能事业群总裁,也将进一步整合AI 芯片、达摩院与阿里云平台,部分意义上与 GCP 之前的架构类似。

10 月,华为也在其全连接大会上全面发布了公司的 AI 战略,并首次公开了 AI 芯片计划:我曾在当时的会员通讯里做过分析:

…..此次外界更多的关注点,还是聚焦在华为发布的人工智能芯片:Ascend 910。这是一款面向数据中心的人工智能芯片,华为官方将其性能定义为「目前全球已发布的单芯片计算密度最大的AI芯片」,将在明年二季度通过华为的公有云提供相关服务。

这是一个与 Google Cloud 的 TPU 颇为类似的做法,2016 年,Google 率先发布了一款基于云端的人工智能专用芯片 TPU(tensor processing unit),截止到 2018 年 5 月,Google TPU 已经更新到第三代。
……
回到此次华为发布的人工智能专属芯片上,目前可以确定的消息是,华为不会直接售卖这款芯片,而是将其打包到整个人工智能开发框架之中,也就是上文提及的全栈全场景的人工智能平台。开发者或者企业,只有在这个平台上,才能使用华为的这款芯片,这也让未来华为人工智能的商业模式愈发和公有云绑定在一起,或者可以这么理解:华为希望依靠人工智能来实现快速追赶阿里云的目标。

从服务企业客户的经验上说,华为远胜于 GCP,不过两者在云服务上都处在相对早期的阶段,未来如何突破还是未知数。

而上周,AWS 又一次点燃了云端人工智能的热情。此次 AWS 发布了机器学习推理芯片 Inferentia,如果从功能上看,Inferrntia 并不支持机器学习的训练,而只能实现推理,但相比于 TPU 只支持 TensorFlow,几乎所有的主流机器学习框架都可以运行在 Inferentia 之上,这也意味着,AWS 又一次在技术炫酷与客户需求之间毫不犹豫地选择了后者。

至此,2018 年云端人工智能的布局已基本落幕,当人工智能需求从 API 服务逐步延伸到芯片层面的时候,你也可以明显感觉到行业对于人工智能的接受度越来越高,展望 2019 年,有三个趋势值得关注。

其一,云端机器学习平台之争会更加激烈。目前除了 AWS、Azure 和 GCP 的机器学习平台,阿里云也拥有 PAI 的机器学习平台,今年杭州云栖大会期间,这个平台也展示了其一系列新产品。

其二,从平台到服务,云计算公司的 AI 产品会越来越丰富。IBM 的 Wstson、Google Cloud 的视觉服务、微软的认知计算服务以及阿里云的「XX 大脑」,这些产品更多围绕大客户,也是面向更具实战意义的生产场景。

其三,专属芯片之争还会持续,这也将是一个长期战场。然而各大巨头的不同战略思考,也将左右着其芯片在「人工智能+云计算」中的地位。

综上,人工智能与云服务的结合正在形成一股强大的变革力量,它将让人工智能的影响范围进一步扩展到大企业,并有可能重新塑造云计算的格局版图。

以客户为中心 OR 以竞争对手为中心,AWS 产品策略变了吗?

正如乔治·贝佐斯不断强调的那样,亚马逊是一家以客户为中心的公司。亚马逊的云服务亦是如此。

一年前,AWS CEO Andy Jassy 曾公开表示,AWS 的服务是根据客户的需求开发的,而不是根据竞争对手。这个表达既打击了诸如 Oracle 这样的竞争对手,也展现出 AWS 在云服务,尤其是公有云领域的霸气。

一年后的 re:Invent 大会上,Andy Jassy 又一次站在舞台上,通过分析客户的每一个痛点来发布一款款产品,从 Windows 服务器、数据库、机器学习等等,更多产品信息可在 AWS 官方博客上看到。

一个值得关注的场景是,尽管 AWS 研发部门或许是在围绕客户需求来进行产品开发,但此次大会所传递的信息里,已经可以明显感觉到 AWS 受到微软 Azure 和 Google Cloud 的市场宣传的影响。

在主题演讲的开始部分,Andy Jassy 对比了 AWS 和其他竞争对手。他使用的是来自 Gartner 的数据,如下图,AWS 在公用云基础服务上拥有 51.8% 的市场份额,几乎是微软 Azure 的四倍。

img

接下来,在发布支持 Windows 的文件系统时,Andy Jassy 又用了另外一个数字:根据 IDC 的数据,全球 57.7% 的 Windows 服务器都运行在 AWS 上,相比之下,微软 Azure 的市场份额只有 30.9%。

此外,对于之前媒体热议的 Azure 第三季度收入增长高于 AWS,Jassy 也做出了回应。首先,两者的增长基数是不一样的,Azure 的 76% 的增长大概是 10 亿美元,而 AWS 的 46% 的背后代表了 21 亿美元。

其次,Jassy 的这个解读多少也透露了微软 Azure 的营收规模,上一个季度 Azure 的营收应该在 23 亿美元左右,远低于 AWS 67 亿美元,不过,鉴于微软并未公布过 Azure 的具体收入,所以,具体数字可能有出入。

在怼完 Azure 后,Jassy 又将矛头对准了 Google Cloud(以下简称 GCP)。在业界,由于 Google 发布了多款云端机器学习芯片(TPU),GCP 的机器学习能力一直被热捧,吸引了大量开发者。但 Jassy 却抛出一个「吓人的数字」,全球最流行的机器学习开源框架 TensorFlow,虽然是由 Google 开源的,但有 85% 的云端 TensorFlow 是运行在 AWS 之上。对比上图里,GCP 在基础设施领域甚至不如阿里云,也就可以理解了。

img

与此同时,Jassy 还继续强调一点,AWS 在云服务的产品覆盖上无人能及,比如,目前 AWS 提供 175 种不同类型的云计算实例,在业界关注的 Serverless 产品上,AWS 的 Lambada 平台,集成了 47 个服务,高于任何竞争对手至少 30 个。

事实上,纵观此次 AWS 发布的产品,的确能看出其在云服务领域的统治力,其中有几个非常值得关注的新产品。

其一,AWS Outposts,这是一个类似混合云的解决方案,通过一个硬件,可以帮助客户将自己的数据中心与 AWS 公有云连接起来。

AWS 过往对于混合云非常不屑,也有媒体直呼「AWS 自己打自己的脸」,但这也恰恰反映了 AWS 以客户需求为中心的研发策略。当然,AWS Outposts 也是直接瞄准了微软的 Azure Stack,后者同样也是利用硬件将客户的数据中心与 Azure 云服务相连接。

其二,基于自研服务器芯片的新计算实例。此次 AWS 发布了基于ARM 架构的 Graviton 服务器芯片,根据 AWS 的说法,相比于英特尔的芯片,该芯片可以让计算实例的成本下降 45%。

必须认识到一点,自研服务器芯片并非是要替代英特尔或者 AMD,更多还是出自提高自己在服务器芯片采购的话语权,从而也可以进一步降低云服务的价格,吸引更多用户过来。

其三,发布机器学习推理芯片 Inferentia。此前,Google 已经发布了三代机器学习芯片 TPU,支持机器学习的推理和训练。虽然 AWS 的 Inferentia 只支持机器学习的推理,但相比于 TPU 只支持 TensorFlow,几乎所有的主流机器学习框架都可以运行在 Inferentia 之上。

正如我曾多次在 Dailyio 会员通讯里所言,公用云市场并不是一个赢者通吃的游戏。AWS 固然非常强大,但 Azure 也有自己的优势,其混合云能力,以及多年企业产品的积累,使得很多企业被微软的服务和产品所「绑架」;对 GCP 来说,人工智能依然是其云服务最大的卖点;而阿里云的后发优势,尤其是在中国市场的巨无霸地位,也会保证其拥有不小的竞争力。

2018 年即将结束,AWS 亮出了新底牌,就看 Azure、GCP 以及 阿里云如何接招了,特别需要关注的是,GCP 和阿里云最近都更换了 CEO,2019 年的发展方向如何,也会充满诸多变数。(完)

半导体潮流与反潮流、人工智能芯片以及产业的新机会

某种意义上说,过去 50 年半导体行业的发展成为人类计算革命的燃料来源。

从概念上看,半导体又被理解为芯片,是一种高度小型化的电子产品,它可以非常快速地完成大量数学运算,利用这种计算可以在现实物理世界里完成目标。

简而言之,芯片是为我们的电子设备的大脑。它们帮助计算机和其他机器评估替代品,为电话、计算机、汽车、飞机、互联网提供计算能力。

半导体是在硅晶片上制造的非常复杂的物体。 这些晶圆的制造非常昂贵,前期投资需要数十亿美元。人类社会过去 60 多年的伟大技术奇迹之一,就是不断缩小芯片尺寸并不断提升计算性能,也就是我们常说的「摩尔定律」。

在这个行业,能够生产制造半导体的公司屈指可数,而且由于技术复杂,导致建造半导体工厂的成本直线上升,这也让半导体行业形成独特的商业模型,在整个链条上只有两类公司:一类是芯片设计公司,如英特尔,另一类则是芯片设计公司和芯片代工公司,或者晶圆代工公司,下图是 2018 年上半年全球十大代工厂。

img

不管摩尔定律是否失效,半导体行业依然在发展中,在通往 7 纳米制程的道路上,目前只有台积电、英特尔和三星,当然,英特尔目前也遭遇相当多的困难,这也意味着,从 PC 到互联网,再到智能手机,随着对计算性能要求的不断提升,整个半导体行业的集中化趋势,已经基本成定局。

从产业的角度去看,如今的半导体行业越来越像汽车行业,并购整合正在加速,尽管今年博通收购高通、高通收购恩智浦都宣告失败,但产业发展的趋势不可避免,只有足够的垄断才能形成更大的议价权,未来三到五年,新的并购整合还将继续。

这两年来,一股半导体行业的「反潮流」开始出现:自研芯片

智能手机领域,苹果在 2008 年悄然收购了芯片制造商 P.A. Semi 公司,并在两年后推出自研的第一代芯片 A4 处理器,这款处理器很快成为 iPhone、iPad 的标配产品,随后,苹果又在 Apple Watch、Apple TV 等产品里加入自主研发的处理器。另外,根据著名苹果分析师郭明錤透露的消息,2020 年之后,苹果将在 Mac 系列电脑里集成自己的芯片。

而 Google,则一直在推进数据中心的芯片研发。截止到 2018 年 11 月,Google 已经推出了三代 Tensor Process Unit(以下简称为 TPU),这些产品瞄准的是日益强烈的机器学习需求,从而也增加了 Google 在云端服务上的特定能力。

上述现象与半导体行业刚起步时非常相似,当时,所有的公司都在内部研发、制造芯片,随着企业研发成本的上升,有的企业开始将芯片设计、生产分开,或者直接外包给第三方公司,这样的分工协作也大大降低了成本。

但现在,越来越多的公司成为加入到「反潮流」的大军里,苹果、Google 除外,亚马逊、微软以及华为、阿里巴巴,都在暗自进行芯片的研发。

人工智能,也正在给半导体行业带来新的变革机遇。

从最基本的角度去理解人工智能,或者准确说机器学习,它更像是一种高级的软件形态,这个软件上可以进行大量专业数学计算。以深度神经网络来说,它是一种非常复杂的「投票」算法,通过对各个变量的权重进行复杂的计算,来实现决策。

机器学习或深度学习的过程,就是一次次的计算过程,如何才能提升计算速度呢?当然是让计算并行化,这种需求也和图像计算非常相似,尽管原理不一定相同,但事实也的确证明了,将图像计算的处理器 GPU 放在机器学习之中,效果非常好,由此也造就了过去四年英伟达的「奇迹」。

但行业内除了英伟达之外,没有人愿意看到只有 GPU 适合机器学习,从传统芯片企业英特尔到互联网巨头 Google、Facebook、亚马逊,都有着自己的考量。

而如果从 AI 芯片的功能层面来看,人工智能芯片主要有两个方面的需求:训练和推理。这两个需求相互联系,构成了人工智能芯片的完整流程。

先说训练,当海量被标注的数据被收集到数据中心,工程师们就要开始「训练」数据,简而言之,就是在海量的数据中寻找可用的模型。

而推理,则是将模型反应出结果呈现出来,我们常常说所谓「机器决策」,也就是说,当用户输入一个不太明确的指令后,机器能够给出一个看似合理的答案。

上面的两段话有点复杂,不妨来看两个案例,如果你在手机上用过 Google Photo,你会发现这个产品不仅会让你照片备份起来,还会提供一系列有趣的功能,如下图所示,你可以看到「往年今日」的推荐、以及可以直接用自然语言搜索图片。

img

要实现 Google Photo 的上述功能,你需要将数据,也就是照片先上传到 Google 服务器,经过一段时间之后才能看到上图的推荐,这是因为,Google 的数据训练都是在云端,而推理的结果则需要网络的支持才能呈现出来。换句话说,你需要联网才能使用。

苹果的做法则完全不同。基于苹果自主研发的芯片以及神经网络处理引擎,目前 iPhone、iPad 都可以实现本地的 AI 计算,同样是照片数据的训练和推理,苹果将所有的过程都放在本地设备,如下图所示,你会看到也是类似的照片推荐、自然语言搜索等功能。

img

事实上,我们很难直接判断哪种方式跟好,因为每一种方式都有着一定的使用范围,比如在自动驾驶汽车上,人工智能芯片的处理过程必须放在本地,只有这样,才能避免与云端交换数据的延时,也能避免车祸的发生。

从上述角度出发,AI 芯片领域有三类大市场:数据中心训练、数据中心推理、设备/边缘推理。

如果说过去的芯片行业像极了汽车行业,导致没有后来者、创业者的机会,那么在 AI 芯片开创的三个领域里,却提供了足够多的想象空间,也让资本市场看到了可能性,下图还仅仅是截止到 2017 年的数据

img
如果从 AI 芯片的三个大市场的角度去看未来的机会。

首先,数据中心 AI 芯片市场的竞争会非常激烈,一方面,CPU 不会轻易退出市场,另一方面,数据中心所有者都是全球云计算巨头,包括亚马逊、Google、微软、阿里巴巴,他们对于 AI 芯片的需求当然非常强烈,但正如上文所言,他们正在自主研发自己的芯片,虽然这不代表这些公司不会采购第三方芯片,却也展现出这个市场的特殊性。

其次,设备推理市场虽然规模巨大,但却有着非常细分的领域,比如设备形态不同,导致应用场景、能耗的区别非常大,手机的推理能力与汽车显然是不同的,这也导致这个市场最终会非常庞杂,当然,巨头、创业公司都有机会在这个领域获得一席之地。

当然,与传统半导体行业类似,AI 芯片最终的走向依然会是寡头化,未来 5 年,全球范围内一大批 AI 芯片创业公司都会成为巨头们收割的对象,最终也将重写半导体行业规则,如今,这场战役也才刚刚开始。(完)

扒开「AI 合成主播」的外衣后,现实格外残酷

本月初,新华社与搜狗公司共同发布了一个「AI 合成主播」,引发行业热议,并从人工智能领域延伸到新闻领域。透过全球主流媒体的报道,这个「AI 主播」更是得到欧美民众的关注,但与国内几乎一致的「厉害了我的国」声音形成对比的,国外媒体的声音比较多元化,比如英国《卫报》就提及社交媒体上的担忧:

For Xinhua’s already tightly-scripted and controlled state news presenters, the AI anchors take things a step further. Video of the Chinese anchor quickly spread on social media in China, with many viewers impressed as they were alarmed. “A little bit horrible,” one said, to which another responded: “Really scary.”

其次,「AI 主播」到底是不是中国人工智能领域的又一次创新呢?不妨先来看看这个「AI 合成主播」。根据新华社官方透露的消息,这位主播模仿的是新华社主持人邱浩,从外形、声音、眼神到脸部动作,都与真人十分相似。

新华社的新闻稿还指出:AI 合成主播是开了「外挂」,因为真人主播每天工作 8 小时,而这个「分身」却能不知疲倦地工作 24 小时......

虽然目前尚无法确认这个 AI 主播到底用了什么「黑科技」,但如果将当下的 AI 主流技术一一对照,也可以大概得出一个结论。

首先,利用图像生成引擎,通过对人类主播脸部图像、动作的抓取,生成「AI 主播」的脸部动作特点;其次,通过人类主播大量语音数据的训练,并将韵律、情感等多维度的特征加入其中。

最后,通过图像、声音的多模态合成,最终形成一位 AI 主播。雷锋网在一篇分析里指出:

......AI合成主播的核心技术是搜狗分身技术。

搜狗分身技术是搜狗人工智能推出的多模态合成技术,可以基于少量真实音视频数据,快速迁移生成虚拟的分身模型。使用时输入一段文本,即可生成与真人无异的同步音视频。

但不管是新华社还是搜狗,都有意无意在避开一个事实:这个「AI 主播」到底没有「智能」。

答案也显而易见,没有。

从技术上看,「AI 主播」的技术含量的确不错,尤其是能在少量数据的支持下实现快速生成。但由于新闻这样的特定领域,所谓「主播」的工作定义就是播新闻,尤其在中国这个更特殊的新闻环境里,新闻机构的新闻内容更是严格把控,这也意味着,即便是人类主播,其自主性的概率也几乎为零,那这样一个「AI 主播」也无法具备自主决策的能力,也从根本上决定了这个「AI 主播」 的地位:不过是官方新闻里的虚拟形象罢了。

海外媒体的确很关注「AI 主播」,但他们同样看到了其背后隐藏的缺陷。比如《MIT 科技评论》高级编辑 Will Knight 在接受 CNBC 采访时表示,场景化的设置以及虚拟形象的创造,让这个「AI 主播」具备了很大欺骗性,真正的 AI 主播应该是这样的:

If it were to get a bunch of reports, take some phone calls and then reproduce it, that would be incredible, but that’s way beyond what machines can do

伦敦帝国学院 AI 机器人助理研究员 Ali Shafti 则进一步指出:

What actually creates those images and the movement of the lips and the voice of this anchor is using algorithms that are related to artificial intelligence. But to call this an AI anchor is slightly overselling it

自此,所谓「AI 主播」的噱头也就清理干净了。

过去几年,人工智能的红火,引发了全球范围的炒作,从巨头到创业者,从资本市场到大众媒体,无一例外投入到这场「事关未来人类命运」的运动中去,Elon Musk 的「人工智能邪恶论」、波斯特罗姆的「超级智能」,这些鼎鼎大名的公众人物成为贩卖焦虑的主力军,我曾多次在会员通讯和社交媒体上强调一点:是否封杀 Elon Musk,是判断一家人工智能是否专业的重要标准

对普通消费者,面对一窝蜂的所谓「人工智能产品宣传」,又该如何判断呢?《MIT 科技评论》一位作者手绘了一张图,用于帮助大家分析某个产品是否使用了人工智能。

与消费者所面临的情况相比,企业需要解决的 AI 焦虑更多。过去的三年时间内,各个行业都感受到了 AI 带来的「压力」,不久前我曾在会员计划里分析了德勤的企业人工智能适应报告,其中就提到,尽管远期来看,每个行业都会从 AI 技术中获益,但每个行业的回报肯定是不一样的,尤其是在目前这个初级阶段。

那么,对于企业而言,是否应该选择人工智能呢?在日前举行的 VentureBeat 峰会上,一位企业家也手绘了一张图,试图帮助企业回答这个问题,如下图所示,这是一个看起来简单、却也是最难的企业发展方向思考框架。

以新闻行业为例,人工智能能带来价值吗?当然可以!《纽约时报》与 Google 合作,利用计算机视觉技术来分析《纽约时报》过去一百多年里积累的 500 多万张照片,通过将照片识别、归类,帮助人类记者在写稿时可以更好地利用历史照片。

另一个案例里,新闻网站 Quartz 也在将人工智能纳入新闻生产发行的多个环节。早先 Quartz 曾利用自然语言处理的技术,打造了一个聊天机器人,如下图所示,通过和用户的对话来推荐相应的新闻。

本周,Quartz 宣布成立 AI 工作室,更进一步推进机器学习在新闻生产中的应用,比如利用机器学习算法,帮助人类记者在复杂的材料、数据中寻找到基本线索,从而提升记者的工作效率。

但即便是 Quartz 也承认,机器学习并不适合每一个新新闻报道的制作,而且,对于未来一年的发展前景也非常保守,Quartz 计划在未来一年通过机器学习的帮助,完成 6 篇新闻报道。

上述这些宣传噱头与产业困境是中文人工智能领域每天都在上演的故事,不由得用这样一句烂大街的话来结尾:这是人工智能最好的时代,也是人工智能最坏的时代......

Google 云服务负责人易主、为什么 Google 玩不转云、押注 AI 三年的 Google 云计算又何去何从?

今年 2 月的时候,Google CEO 皮查伊在财报分析师会议上透露,包括 Gmail 企业服务、Google Drive 企业服务在内的整个云服务,已经是一个每季度 10 亿美元的业务。

这个数字当时引发行业热议,尽管并未公布具体云服务的营收规模,但众多行业分析师还是将 Google Cloud 放在亚马逊 AWS 和微软 Azure 之后。今年 5 月份,Gartner 发布全球云计算基础设施即服务的魔力象限,如下图所示:

Gartner 的魔力象限包括纵轴和横轴两个指标,其中横轴是前瞻性(Completeness of Vision),反应的是企业的产技术能力、市场领导力、创新能力等;纵轴是执行力(Ability to Execute),主要考量产品的易用性、服务能力和技术支持能力。

通过两个指标,Gartner 划分出四个象限,从而形成了对市场格局的基本判断。Google Cloud 虽然和 AWS 和 Azure 有一定差距,但还是踏入 Leaders 象限。而去年的时候,Google Cloud 还处在 Visionaries 显现,这个象限里的公司,技术前瞻性上颇具潜力,但产品打磨以及服务能力还比较欠缺。
img

但在 10 月财报公布后,皮查伊用一系列含糊的回答来应对分析师对于云业务营收的问题,他表示,云业务的投资效应正在显现,营收增长还需要一定时间。

这个回答让很多分析师感到不快,由于没有透露任何最新数字,这也导致分析师们无法预估出当下 Google Cloud 的营收规模,来自大西洋证券的一位分析师随后写道:

There were notably no metrics in relation to the cloud business, which we view as not an overly encouraging sign……

现在来看,这位分析师的判断或许是正确的。至少,Google Cloud 的发展状况并没有得到 Google 认可。上周五,Google Cloud CEO Diane Greene 正式宣布将在明年 1 月离职,并将由前 Oracle 高管 Thomas Kurian 接任。

这也再次将 Google Cloud 放在了聚光灯面前。

在咨询机构 Synergy 10 月份发布的第三季度全球云计算基础设施服务市场份额中,Google Cloud 的份额虽然增长了 1%,但排在全球第四的位置,其市场份额增速也低于微软 Azure,与 AWS 持平。

img

显然,这个成绩并没有达到 Google 的预期,事实上,Google 开始「认真」做云服务,不过三年光景。2015 年 Google 整合旗下三大云相关的业务,正式成立全新的云端服务部门,并邀请 Vmware 创始人 Diane Greene 为该部门负责人。

此举意义重大,这是 Google Cloud 各项服务整合的起点,包括 Google for Work(SaaS 产品)、Cloud Platform(IaaS 产品)、Google Apps(PaaS 产品),从而也将 Google 所有云服务的研发、销售、客服整合在一起。

另一方面,Diane Greene 作为企业级市场的「老兵」,她的到来也正式宣告了 Google 云服务不再是小打小闹,而是要真正切入到企业级市场,Diane 的经验和人脉也成为 Google Cloud 最大的保证。

2015 年开始,人工智能开始逐步被公众熟知,2016 年,Google Cloud 顺势而为,推出一系列基于 Google 云端服务的机器学习产品,一时间吸睛无数。与此同时,Google 还将图像识别大拿李飞飞招致麾下,出任首席科学家,进一步推动了人工智能在 Google Cloud 产品线中的影响力。

目前 Google Cloud 里的人工智能产品包括:

  1. Cloud AutoML:这是一个面向开发者的云端自动化机器学习产品组合,包括神经架构搜索技术(Neural Architecture Search Technology)、learning2learn以及迁移学习(transfer learning)等,旨在进一步降低机器学习的门槛,吸引更多人加入其中。
  2. Tensor processing units:这是 Google 自主研发的机器学习专属处理器,今年已经更新到第三代,并且推出了面向边缘计算的 TPU Edge 处理器。
  3. 基于 Kubernetes 的混合云:Google 今年开源了 Kubeflow 产品,旨在提供混合云和分布式的机器学习能力。
  4. Kaggle:这是一个超过 200万用户并且拥有 12000 个数据集的平台,也是目前全球数据科学家最多的社区,2017 年,Google 正式收购了这个社区。
  5. 基础研究。Google 目前拥有 Google Brain 和 DeepMind 两大研究机构,也是全球两个人工智能顶尖研究机构,不过目前并没有太多信号证明这些研究如何应用到企业级产品里。

过去三年时间,Google Cloud 一直希望通过机器学习作为突围而出的捷径,上述一系列布局和整合,的确让 Google Cloud 拥有了人工智能领域的号召力,但 Google Cloud 的这些成绩,更多的是「Google」的生意,而非「Cloud」的生意,或者换句话说,Google Cloud 的企业级服务能力,尤其是大企业的服务能力,始终是一个无法跨越的坎。

某种意义上说,这更像是一个企业文化或企业基因的玄学问题。Google 长期以来形成的工程师文化,促使这家公司在新技术上不断创新,以云服务为例,早在 2008 年,这家公司就发布了面向 PaaS 服务的 Google App Engine(以下简称 GAE)。

简而言之,GAE 提供了一个利用 Google 底层技术来构建 Web 应用的平台,开发者可以方便地部署自己的应用。

这在遥远的 2008 年是一件非常炫酷的事情。彼时,亚马逊 AWS 只能提供最底层的 IaaS 服务,而微软的 Azure 还要至少两年才会发布,但 GAE 作为一款典型的 Google 产品,迷失在炫酷的技术与实用的功能之中,忽略了企业客户的核心诉求:稳定性

Google 越成功,其内部的文化惯性也越大。一年前,Diane Greene 曾邀请前英特尔数据中心部门负责人 Diane Bryant 出任 COO,外界当时普遍认为,如此两位在企业级市场拼杀多年的人在一起,或许可以加速 Google Cloud 与 Google 的「切割」。

img

但事实却也非常残酷,仅仅七个月后,Diane Bryant 就离开了 Google Cloud。

如今,所有的难题都摆在了 Thomas Kurian 面前,他同样是企业级市场的「老兵」,过去的 20 多年时间,他都在 Oracle 工作,已经做到了 Oracle 2 号人物,若不是和创始人拉里·埃里森之间的矛盾,他或许将成为这家全球第二大软件公司(第一大是微软)的掌门人。

img

对 Thomas Kurian 而言,他首先要做的,是调整整个云服务的产品理念:技术含金量高的产品并不是企业所需要的产品

人工智能同样如此。人工智能当然还将是 Google Cloud 关注的领域,但 Thomas Kurian 的到来,会更进一步关注这些人工智能产品的落地场景,从而让企业心甘情愿地掏钱。

这也是最难的一步,如果你关注 Google Cloud 的官方博客或者其在 Youtube 的官方频道,你会不断看到这支团队又有哪些新产品和新理念,但真实用户,尤其是大客户的的反馈却非常少。

其次,Google Cloud 里的产品整合。目前 Google Cloud 包括涵盖了 IaaS、PaaS 和 SaaS 等多个产品,这些产品理应成为 Google 云技术整体输出的出口,不过情况并不乐观。

7 月份,Google Cloud 迎来一个重磅客户 Target 连锁超市,引发行业轰动,但 Bloomberg 记者 Mark Bergen 却在随后的 Google Cloud Next 大会上注意到一个细节

Case in point: The bulk of Target’s cloud spending goes to Google, McNamara said, but the company hasn’t bought G Suite apps like Gmail and Drive, despite all the new bells and whistles unfurled this week. “It’s never been on my priority list,” McNamara said. “Our business is selling dresses and cornflakes, it’s not collaborating on documents.” Target pays for Microsoft’s office productivity software instead.

而 Thomas Kurian 在 Oracle 先后管理过数据中心、硬件以及应用软件等多个团队,这些管理经验有助于其在 Google Cloud 的产品整合。

第三,Thomas Kurian 需要再次向企业级市场重建 Google Cloud 的品牌。需要注意的是,尽管 AWS、Azure 拥有不小的市场份额,但即便是美国云服务市场,也依然在高速增长中,尤其是在企业「多云」策略的影响下,企业对于云服务的需求也会越来越多样化,这些新的需求会促使包括 Google Cloud 在内的云服务商继续开拓新的产品线,从而抢占更多市场机会。

随着 IBM 收购红帽,从而进一步推进其混合云的策略后,阿里云也在这一年持续推进其国际化步伐,在东南亚和欧洲市场持续发力。2019 年,Google Cloud 也会面临不少压力,能否力挽狂澜,值得长期关注。