为什么现在的人工智能助理都像人工智障?

2016-11-25 03:49:15 来源:济宁新闻网

本文来自微信公众号S先生(ID:TheMisterS),作者 Mingke

我不是针对谁,只是在座现在所有做 C 端智能助理的都是坑。

- S 先生

对群嘲做一个限定

现在:在 ApI 困境 被解决之前(后详)。人工智能助理:这里指的是Intelligent personal Assistant/Agent (IpA)又称为 Virtual personal Assistant/Agent (VpA)帮助个人完成多项任务或多项服务的虚拟助理,当前讨论的核心驱动力是人工智能。(什么你说用人来做处理单元?那是呼叫中心,也叫客服,最看不起挂羊头卖狗肉的了。)在座:不止是创业公司,大公司也搞不定,国内国外无所谓。都是坑:创业公司做消费端的虚拟助理,一定无法实现消费级产品效果。对于巨头也是,我相信大部分的相关负责人都以 进步 为目标,而不敢跟自家 CEO 担保要以 搞定 为目标。

什么是智能助理?

智能助理属于对话式服务

两者的边界不是很清晰,智能助理的功能在前面解释过了;而 对话式服务(Conversational Service/Commerce)这是包含智能助理在内的多个产品形态统称,核心特点是:

对话式:人机交互的方式由图形化交互(GUI-Graphical User Interface)变为以对话作为交互方式(CUI-Conversational User Interface 业界暂时还没有定义,这是我自己瞎编的),就是用说话来代替触摸或者鼠标,操作计算设备。服务:提供服务,解决问题都算,如订机票,购买礼物等。不包括信息查询(如天气)。

image

Facebook M, 真人和 AI 结合的服务

去年(2015)起来的这一波对话式服务在硅谷有多火?看看创业团队增长的数量就知道了:2015 年的时候有 129 个类似的项目出现,而 14 年的时候才 42 个。

ukirdqxobk0ytsmp

Tracxn Report:Conversational Commerce

在各类科技博客上,对Conversational Commerce的讨论也非常热烈,尤其是在medium.com上有大量的探讨。基本的观点就是 对话式的交互将会成为下一个风口,大家赶紧上啊!。截止到 2016 年 6 月的时候,在producthunt 上标记为对话式服务(ConvComm)的有一百多个创业项目。

除了智能助理以外,还有很多类似的概念如 Digital Agent、Bot、Service Bot、 Chatbot、p2p 的电商。比如 Operator 现在用真人专家帮用户做消费决策,在过去尝试过用 Bot/AI 但可惜达不到效果,或者 Magic 模式,完全是靠 真人帮懒人用 app驱动运营。

本文主要讨论的是基于人工智能的智能助理就像 IBM 提到的一样,只有如此才能真正规模化。

智能助理应该解决服务需求

巨头的人工智能助理基本都已亮相了:

Facebook MAmazon EchoGoogle Assistant,AlloApple SiriIBM WatsonMicrosoft Cortana

以上智能助理的服务范围大都是在信息检索,帮助用户获得资讯。绝大多数的内容是不牵涉 推理 的查询类信息服务。比如:

明天的天气找附近的星巴克苹果的股票信息

如果用户问到在基础信息以上,一旦牵涉推理的问题,就无能为力了。比如:

明天这个天气状况会造成航班延误么?附近的星巴克可以用支付宝么?我什么时候该买苹果的股票?

使用体验方面,这些助理的服务范围覆盖面基本跟当前所有引擎一样。在设计逻辑上,基本都是基于用命名实体识别来代替打字输入关键词然后返回检索结果 SERp。而信息检索,离人们要完成的服务需求有很大的区别。

就好像 Viv.ai 的联合创始人Dag Kittlaus 说的,当初他创建 Siri 的时候,是想要重新挑战移动服务,而不是造一个 Chatbot。

image-1

Dag Kittlaus(中间)

除此以外,巨头的助理与其关联生态产生的操作关联。比如 Siri 对 iOS 和 macOS 的操作;Cortana 对 Windows 的操作;Echo 对关联智能家居设备的操作等等。此类操作的一个特点,是对结果非常的确定,出现个性化选择范围非常的少。

另一方面,对于创业项目而言,因为不具备类似的生态和硬件入口条件,大都定位在资讯和服务上。我们选择 producthunt 当中排在最前 150 位的项目进行分析,其中高达 70% 的项目定位都在 2C 的个人助理(Agent)上,其中大部分都想做切入服务,包括垂直类的和多任务的。

这些助理服务当中有 23.1% 是专业类型的服务,主要是在医疗和理财方面。而剩下来 76.9% 的助理,干得最多的活儿是生活综合帮助、出行安排、日程管理、购物订餐厅等等这一类是坑最大的地方特别是那些试图把生活上各种服务都打包进去的产品。

s6yvyolsl80we6f2

producthunt 上面 69.7% 的对话式服务都是智能助理产品(但并非所有都具备 AI)

人工智能助理的潜力

移动红利的结束,行业需要新的增长点

很多迹象都指向同一个结论:移动互联的高速增长已经饱和。比如用户已经不再愿意下载新的 app。

rj61l0y9nj8jp6lx

qz(based on comscore data) statista

2016 年 1 月有超过 5 万个新的 app 被提交到了 App Store,但是在美国市场有 65% 的智能手机用户在一个月内下载新 app 的数量为 0,下了 1 个新 app 的人占 8.4%。

2015 年中到现在,在国内 2C 市场中,几乎找不到一款真正能爆发并留存的移动产品。对于移动开发者而言,能放首屏的高频应用早就挤不进去了。

而且很多中低频的服务,并不是最适合用 app 来承载的。比如订生日蛋糕,作为商业其价值一直存在,能通过信息化的方式来解决获客或者能效问题么?

宏观来讲肯定可以,但是开发一个 app 则会面临用户获取和使用成本高,难留存,用户难发现等等障碍这些问题,都让开发者怀疑要不要做 app,特别是在最开始 pMF 核心逻辑还没有被验证的时候。

但创业者的热情和投资人基金里的钱都不能等!于是大家憋着这口气四处找风口,或者又有怎样的产品形态可以把商业形态再颠覆一次,好比 app 颠覆了网页,宏观上有没有新的产品形态可以再来一次?甚至运气更好点,开拓出以前没有被耕耘过的维度?

对话式服务具备新的增长点潜质

回顾过去,最大的几次浪潮基本都伴随着一个规律:核心技术(软硬一堆)的出现和整合,带来全新的人机交互方式 ,在此基础上大量的商业应用应运而生。

ppuqeiwizh0lrd6e

从 90 年代开始,人际交互的三个变化

比如 2007 年末移动互联开始,核心驱动的硬件是触摸技术、各种 sensor 的成熟以及整体计算能力的提升和小型化;软件方面则是 iOS Android 的颠覆式出现。

软硬结合创造出完全颠覆过去的触摸操作体验,并使其称为真正可用的人机交互方式让图形化界面的输入工具,从键鼠时代跨越到了更 intuitive 的触摸,并完美的与后面开放的生态系统结合起来(不得不再次对乔大爷表示敬佩)。

人机交互越来越倾向于人

可以看到随着技术的平民化 (democratization),人机交互正不可逆转地向人的方向靠近不需要学习的人机交互。

pda4pzdmfp0nubgq

将来越来越多的人都能更自然地通过计算设备来获得价值。下一个超级增长点的交互方式,一定是交互更接近人的自然行为,更多人可以使用的。

因为软硬件限制,过去用上计算设备的人很少。一方面,当时的人机交互是让人来 将就 机器人学习机器的语言操作需要专业技术,如打孔(在个人电脑方面,当年知道 cd 文件夹名 的命令行的人也都是高端人士);另一方面计算设备巨贵,还不属于个人设备,大众都买不起;再者,日常应用和普通生产力应用几乎没有,所以买来设备学会了 UI 也没啥用。

而移动设备出现就让更多的人从使用计算设备中获利,更多不会键盘鼠标的人,通过触摸手机屏来操作。将来人们想要获得服务的时候,或许不需要有 计算设备 这个中间载体的概念。直接提出需求,就能获得结果。

下一代交互方式,似计算设备能覆盖更广的商业

image-2

Google Assistant Allo

看看过去 app 如何颠覆 web 的,在没有移动互联之前,大众点评只是一个不知道几流的小众产品,web 也并非最合适这个商业模式的产品形态比如大部分情况下,人们想要找餐厅的时候,身边都没有 pC 来获得其他人的点评信息;而移动互联的 app 解决了这个问题。

这并不是说 app 代替了 web(比如 pS 还是在桌面端更好用),而是借由移动设备,app 开启了过去没有的维度,继而大众点评的商业模式有了更合适的产品形态。

我相信 app 颠覆 web 的历史,也会同样发生在下一代人机交互的形态来颠覆当前 app 的时候。不仅很多商业模式和形态都可以被重新考虑一次,甚至几乎可以肯定 CUI 会打开新的维度,解放更多的商业价值。

如果一个 C 端产品做得好,传播不受硬件束缚,没有用户的使用成本障碍,并且不需要下载新的 app,直接在熟悉的 IM 或者 SNS 里实现过去用 app 承载的服务,甚至还能开拓新的形态

比起当前的其他选择 AR/VR/IOT / 区块链,CUI 带来的想象空间更大。所以,就有很多人,巨头小头没头的都来尝试。

对 CUI 的特点的理解决定产品价值

不可否认的,真正的 CUI 产品一定是基于人工智能的自然语言处理的。如何深入利用 CUI 的特点,是产品打造的关键。

话说当前国内有很多投资人认为,只要是做人工智能的团队,就必须是 MIT,Caltech 出来的机器学习博士或者是 Google、Facebook AI 团队的人;如果团队不是顶级院校的学者或者是巨头出来的项目带头人,就没有什么好搞的这是典型的误区,或者说对行业的理解太浅了。

这种理解基本等于 听说你是计算机专业毕业的,帮我装一下电脑吧这样的水平。很不幸国内好多年轻点的投资经理基本都是这种水平(为什么年纪大点的不是?因为他们理解 不懂就不要轻易判断 这样的人生道理)。

看不懂本质,就看表面,也是不得已。

这里,我非常赞同顺为资本孟醒的几个观点:

    所谓 做 AI 的 也有几个类型,底层研发和做应用的是两码事。人工智能的底层交给大公司,小创业公司可以做点小模块。而应用层则有大量的空间给创业公司来实现商业化。这个行业缺 AI 的产品经理,不缺一般意义上的明星,特别牛 x 的算法达人,牛 x 的北京 BAT 出来的人。 这方面吴恩达也有类似的观点,人工智能社区是极其开放的,大多数顶级研究者会出版他们的著作/分享他们的想法甚至开源代码。因此,在这个技术开元环境下,数据和人才就是稀缺的资源。

有点跑题了,在这里就强调一下,CUI 的核心技术是 AI(不仅限 NLp 后面会提到)。对 CUI 作为新一代颠覆性人机交互的理解,才在产品形态上能发挥底层技术的商业价值。

最后,再举个例子,GUI 的核心突破是技术大牛(Xerox)带领的,而其商业应用的发扬光大则是产品经理乔布斯从 Xerox 那儿 偷来 的。

image-3

1973 年,Xerox 推出第一款 GUI 技术个人电脑;在 1983 年,苹果也推出了他们首款 GUI 电脑 Lisa(乔老爷 完美借鉴 )

年轻人不懂就要多看书。

CUI 不可延续 GUI 的特点

为了深入理解这个问题,我们可能要先分析一下,CUI 和 GUI 究竟给用户体验带来什么影响?因为这绝不是现在主流的 把按钮变成语言操控 那么简单的事情。

当移动设备出现的时候,大家对如何在智能手机上开发产品还没来得及有深入的了解。所以当时开发者基本都是从最明显的地方起步,也就是触摸代替键鼠操作。

早期的大量应用,都是从 如何把 web 缩小到手机屏幕 的思路出发来设计 app 的。这是典型的延续上一代交互的思路。

随着开发者不断思考和挖掘移动端的潜力,慢慢有了对移动端真正的核心特质的理解这些 圣杯属性 才是真正让移动端产品设计出众的要素。比如 碎片时间、个人身份绑定、LBS 等等,这些特质才是真正让移动产品体现价值的这些是完全颠覆上一代交互的属性。

而且我们发现这些属性几乎跟 触摸 这个明显的交互行为没有直接关系。

现在 CUI 出现的时候,产品经理也会面临类似的问题。当前大多数智能助理的设计思路都是 过去 app 是怎么用的,我现在用语言来代替触摸操作。好比是用语言来代替手指去触摸屏幕,或者是用说话来代替手指打字。

而能让用户感觉真正智能的核心,我认为依然藏在 CUI 的 圣杯属性 里,有待大家发掘。

CUI 的特点:高度个性化

举一个例子,根据实际研发和市场运作的经验,我们发现有一个算得上 圣杯属性 是特质是:高度个性化。

在 GUI 时代,用户使用产品时,有一个可视化的界面,比如找餐厅,我们打开点评看上去是这样:

i3bklksdxvo7bz76

这看上去是一个大家非常熟悉的界面,只是所有用户能做的选择范围,都明确地显示在界面上(所见即所选)。找美食,用户能做的选择基本就是:附近,类型,智能排序(不点开可能还不知道是什么意思)以及排序。当用户自己不知道该如何决策时,这些视觉化框架,给了用户提示该从这些方面根据自己的需求来做筛选和匹配。

但是在智能助理的界面,用户看到的是这样的:

fgdhzckghuey0vvm

用户对可以做哪些选择一无所知在没有可视化的参考下,面对如此开放的交互,当用户要找一个餐厅的时候,他们提出的要求,大都不在 GUI 设定的范围以内。

根据我们实际操作的经验,用户提出的问题是这样的:

4h370iwnexyolpvz

只有 在外滩附近的 是之前 GUI 查询范围当中的,其他需求都是过去 GUI 类型当中不存在的维度。但因为 CUI 的开放性,用户很容易给出上面这样高度个性化(非结构化)的需求。

如果 GUI 的产品试图在个性化同样给用户那么多选择,就不得不面临用户使用成本的问题。一个界面可能会被大量的下拉列表、层级关系、各种填空和操作充满。如此是加深了个性化程度,但是操作成本会让用户放弃使用。

如果在智能助理的产品设计上,不尊重用户 高度个性化 的需求,只提供过去 app 本身提供的个性化程度在 XX 附近找个 YY 菜,那么用户在实际提需求的时候得靠运气撞到既定条件上,不然就是无法识别的范围,继而失望。

另一方面,如果 CUI 只是在做 GUI 范围内的事情,会远不足以颠覆 app。

除此之外,CUI 还有一些专属的特点。比如:

使用流程非线性:譬如 GUI 是线性的流程,界面引导用户一步一步走到结果;而 CUI 则可以是完全无视先后顺序的,用户可以在最开始就提出到本来排在最后的条件当中。可避免信息过载:用户打开 GUI 的一个界面,比如点评上找一个餐厅,用户得在一个列表里去找寻自己最想要的选项(典型的案例是,GUI 让用户选择国家的时候那一长排的列表)。而 CUI 则可以规避用户信息过载,直接给出期望结果。这个特点的另一面是,GUI 因此是 informative 的,给不熟悉场景的用户更多提示,或者比较结果的机会。复合动作:明天后天,晚上最便宜的机票从用户的操作和实际体验来看,GUI 无法一次给出结果,只能用户先查一次明天的机票,再查一次后天的机票,然后手动来对比。CUI 完胜可以直接给出相关条件的检索结果,前提是 AI 足够优秀。

这里只是抛砖引玉,详细更多特质会不断被开发者发掘出来。在这里就不详细展开了。在另一篇《人工智能时代的产品经理》文章当中,会做更多关于 CUI 的分析。

什么样的 AI Agent 能满足 C 端的需求?

为什么现在的助理产品都是坑?很多团队不是底层的算法差,而是团队对产品的理解有问题。

要满足 C 端用户的需求,确实非常难。

10 次使用,有一次因为任意原因的失望,用户心理就会开始有疑虑。从体验上来看,在用户熟悉的场景下得全面理解用户提出的需求;在用户自身不清楚场景下,得自然的协助用户挖掘需求;获得需求后得帮助用户做决策,并最终呈现结果。以此来看,对话式的 Agent 得至少满足以下功能:

具备基于上下文的对话能力(contextual conversation)具备理解口语中的逻辑 (logic understanding)所有能理解的需求,都要有能力履行(full-fulfillment)基于上下文的对话能力(contextual conversation)

在当前,做助理的产品底层技术基本都是围绕 NLU(自然语言理解)打造的,很多还没有涉及到 NLp。可是无论是大公司还是小公司的 NLU 都是让人失望的。

举个简单的例子,在大公司的几个产品上提出需求:我下周五要去北京,帮我查一下航班。

需要识别意图:查机票需要识别 entities:时间(下周五),目的地(北京),出发地(无 / 当前地理位置)

我们看看结果,首先看三家的回复,从左到右分别是苹果的 Siri,微软的 Cortana,Google 的 Allo。

wzkyfduuaqcfj5mp

没有一个能识别出来意图,全部用关键词来检索网页 (SERp)。没有识别出意图,继而也就没有可能识别 Entity 所在的场景。对于 C 端用户而言,这可能算是最基础的服务之一,而三大巨头提供的产品完全不能用。

不过当我们看到国内的创业公司,却能按照需求识别出意图,并且识别出对应的 Entity,组合查询出结果,看上去比几个巨头更强大。

me905srlmzcwd4t8

我们继续测试上下文的对话。比如,我是国航的会员,Agent 给出上面的结果里没有国航的航班,我自然会问: 有没有国航的?

结果并没有如期望那样,在给出的列表里找到国航的航班,而是重新开始了一次查询。

wrjsykjfvdapl8pj

换一句话来说,没有结合上下文的对话。我并不是为了黑,事实上这个产品在国内的创业公司中也算不错的技术了。但是不会结合上下文的对话,会造成的最严重的问题就是这个 Agent 基本不能独立完成服务。因为用户不会在一个句子里把所有的条件都列出来。

以上是基本要素,就当前的产品形态来看,只有非常少的产品能真正做到第一点。大部分号称能做到的,都是滥竽充数,连续问问题而已。

不能真正理解上下文的对话(机票查询):

AGENT: 从哪里出发?

用户:上海虹桥机场。

AGENT:到哪里?

用户:还是从浦东走吧。

AGENT:好的,从虹桥出发到浦东的航班是

在上面的对话,AI Agent 在问第二个问题的时候,不能理解用户对前一个回答的修改(出发地从 虹桥 改为浦东),只是按照预先设计对话的顺序,填上命名实体识别得来的 Entity。继而查询不到结果,给用户的感觉就是笨。

真正理解上下文的对话(机票查询):

Agent:从哪里出发?

用户:上海虹桥机场。

Agent:到哪里?

用户:算了,从浦东走吧。

Agent:好的,出发改为浦东。那到达城市呢?

用户:北京。

Agent:好的,从浦东到北京的航班是(给出正确的结果)

而具备真正上下文理解的对话,Agent 可以正确理解用户第二个回答的内容(从浦东走),其实是在修改上一问题的回答(出发机场),而不是真的在回答第二个问题(到达地在哪里)。

这只是上下文的例子,而对于服务类 Agent 而言,所有后续的 NLp 功能都基于上下文对话为前提。这些看上去其实都是非常简单的需求,但是当前没有任何一个 2C 的 Agent 可以做到。

可能有人会问,大部分用户都应该在第一时间把需求表达出来吧,为什么还需要对话?实际上,真正操作过大量案例的同学就会发现,用户不可能如此 贴心 地按照开发者的设计来提出需求。

帮我看看下个星期五去北京,下午 3 点多,从虹桥出发,国航的航班。这一类的表达方式在几乎从来没有出现过。哪怕是在用户最熟悉的场景,也很难确保一个句子的表达里包含了所有必须的检索条件。而且,用户还会不停地补充更多个性化需求。

对于用户自己比较了解的场景,如:订机票需要提供到达地,用户提出的大多数需求,在最初都非常简单,然后逐渐开始细化。所以需要当用户提出不完整需求的时候,根据其意图,结合之前已经给过的条件,通过对话,向用户提出问题,再获得答案来补全剩下还需要的条件,最后再完成服务。

对于用户自己不熟悉的场景,用户根本就不知道自己该提出哪些方面的需求。如:不懂酒的用户,想买一瓶合适的威士忌。他就根本很难提出除了价格以外的需求,比如产地、年份、酿造原料、水源等等。因此,Agent 得以合适的方式来提问,引导用户给出偏好,并且用对话提出推荐。

而且对于 Agent 而言,很难判断哪些用户对服务的认知有多深。如果不做识别,就容易问 老手 一些 新手问题,继而让老手觉得我还不如自己下单;而给新手又留下你在说什么我都不懂 的印象,也是不聪明。

所以要有好的体验,这是非常困难的。而基于上下文的对话,只是最基础的用户需求之一。

理解口语中的逻辑 (logic understanding)

在我们的实践中,我们发现对 逻辑 的理解直观重要。原因也是因为用户的正常对话,大部分都不是开发者预设那样的。

再做一个简单的测试,比如找餐厅,试试:帮我推荐一个附近的餐厅,不要日本菜。

这是一个简单逻辑,但是你看所有的服务,这次包括刚刚那个国内创业公司 C 一样,都会是一个结果:全部推荐日本菜。

nmrvj2wnpgqa4ewn

也让朋友测试了亚马逊 Echo 的 Alexa,结果也无法识别 不要 这个最简单的逻辑

这次其实比刚刚好多了,至少 4 家里面除了 Google Allo,都识别出来我的意图是找餐厅但是,当我明确提出不要日本菜的时候,给出结果的三家全部都是日本菜 也就是说 不要 两个字被完全忽略了。

观察大量的用户案例表明,当用户越是个性化需求强烈的时候,对话中出现逻辑和指代关系的频次越高。

有没有更便宜的?

除了大床房以外的房间有么?

后天会比今天更冷么?

就要刚刚的那个 2 千多的吧。

除了廉价航空,其他的航班都可以。

以上这些是提需求的时候,在对话中经常出现的表达方式,而且看似简单,但是目前没有任何一个 NLU 的系统或产品能够正确的理解。主要的阻碍就是对逻辑的理解,还有在基于上下文对话中的指代关系的理解失败。

NLp 不是全部,还要有能力履行(ApI 困境)

NLU 并不是智能助理发展的瓶颈,供给端的数据才是。

我们假设如果有一个黑科技出现,使得 NLp 有了极大的进步,以至于两个条件:

基于上下文场景的对话;口语逻辑,都能被理解了,甚至还能基于场景和上下文用 NLG 来生成各类问题它能理解我们所有讲出来的需求。

在用户熟悉的范围内,它能结合所有过去的对话、历史记录等等内部外部条件,帮助用户尽可能实现 不用开口,就知道我在这个的需求。比如当用户提出 推荐餐厅的需求:

用户:女朋友周日过生日,推荐一个餐厅,找有江景的,最好桌子旁边有一个大落地窗户,能看到外面的夜景。吃的不要太贵,环境好点,有现场音乐的最好是爵士,不要太吵的。 (btw,这是一个真实需求)

Agent:菜系有偏好么?

用户:意大利餐和法餐都可以,对了不要离外滩太远了

Agent 解析出以下选择餐厅的条件:

周日晚(营业)适合女朋友过生日有江景有大落地窗不要太贵环境好有现场音乐,爵士不能太吵意大利餐或者法餐距离外滩不能太远

然后它去哪里找到这样的餐厅呢?在地图服务提供商,或者点评的 ApI 提供的信息里只有 8,9 两项能找到数据。假设评论中有这样的数据,该用什么方式来传递呢?

接口提供的都是结构化的数据,而 环境好 这样的非结构化数据,最多以标签的方式来做,但是这样的话,标签就会无止境得多也不现实。

这就是我们所谓的 ApI 困境当前基于 ApI 的数据传递方式,只能

    承载结构化数据;承载数量非常有限的结构化数据。

当前基于 GUI 的产品,都是用 ApI 来传递结构化数据。但大量个性化数据往往是非结构化的,以当前 ApI 的方式很难被处理。这还是在使用场景或者服务比较简单的情况下。

在用户不熟悉的场景下,Agent 面对稍微专业一点的服务,就会遇到知识图谱的问题。简单来讲,Agent 要做推荐的前提是对推荐的内容得先有了解。

好比,要向一位不懂酒的用户推荐一款威士忌,那就不能依赖这位用户自己提出的问题(很可能提不出要求),而得依赖 懂行 的自己对威士忌理解的方方面面来引导用户做合适他的选择。一个助理显然无法拥有所有服务所需的知识图谱。

从知识图谱的结构来看,是相对可被结构化。一个服务可以以各种方式被拆解成多个方面,但大量的方面在当前是没有结构化数据的(比如我们没有每家餐厅的 营业面积 数据);甚至很多方面无法用结构化数据来表达(比如每家餐厅有否 适合浪漫约会 的环境)。

因此,智能助理就算有了强大的 NLp,还需要全面的知识图谱(结构化数据)和处理并传递非结构化数据的能力而这两点,在目前是无解的。

总结

在ApI 困境 解决之前,再加上 NLp 本身还有很长的路要走,基于人工智能的多任务服务 Agent 不大可能达到 C 端满意的水平。

创业团队各自最基础的认知计算的能力不会有太大的区别,都是踩在世界顶尖大牛的肩膀上在这个领域创业团队想和大公司扛正面,不是很理性。

创业团队在垂直领域有些自己的技术突破可以创造一些阶段性的优势,但面对教育市场的大山而言,这点差异远不足以 make a difference。

在各自领域,开发者对人工智能相关技术的理解和其带来的交互层面的有效应用,可能会在垂直商业应用上创造更大的差异比较起 95% VS 98% 的识别率 而言。

济宁IT新闻