最近这段时间互联网上刮起了一股令无数码农和文字工作者们胆寒的狂风,究竟还有哪些工作不会被机器取代,一下就成为大家关注的问题。这股狂风正是由ChatGPT制造的,这样一款发布于去年底聊天机器人程序,在最近彻底火了。我们来详细看看。
ChatGPT能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,可以说完全就是和正常人沟通的感觉,它会根据要求撰写各种文案、翻译、代码等等,人类活动中的各种文字、代码类工作,它几乎都可以胜任。
可是,在“人人自危”的当下,有相当一部分看衰ChatGPT的人士:
包括银行、券商以及金融科技公司在内的多家机构均表示对ChatGPT十分谨慎,后续业务中还无法确定是否会用到ChatGPT,它获取信息的范围太广泛,很多数据真假难辨。
2018年图灵奖得主杨立昆表示:就底层技术而言,ChatGPT并不是多么了不得的创新。虽然在公众眼中,它是革命性的,但是我们知道,它就是一个组合得很好的产品,仅此而已,另外其盈利的方式还不太明朗。
ChatGPT很香,但是它贵,可贵就没有未来?
当然,不少车主朋友们看到ChatGPT这款产品,瞬间就会联想到智能车机系统,这东西要是能用在车机上,就不会再有被大家吐槽的人工智障表现了。那么ChatGPT真的能够用在智能汽车上吗?在ChatGPT出现之后,智能化的训练逻辑是不是都要大改了?
对于绝大多数用过ChatGPT的朋友们,都会对这款AI助手的表现多少会表示赞叹,它的能力确实不是我们最常见的“Siri、NOMI、理想同学、小P、小迪......”它们能比拟的(除了反应速度)。
ChatGPT拥有很强的搜索和总结归纳能力,同时它还有一定的再创造能力,我们每一次向它提问,与它交流,都是在无形之中把它训练得更强大。
但是短期之内,ChatGPT确实还是很难直接用在车机系统之中的,主要的问题就一个字——贵。
我们经常会像苹果Siri或者智能车机问一些问题,比如“附近有什么餐厅,最近的充电站在哪”这样的问题,而且也有不少我们与无聊打趣的问题,而这些问题如果是让ChatGPT来回答,这样每回答一个问题的平均成本大概是0.8美元,大概5块钱人民币,比如说你和ChatGPT就这样一问一答,一问一答的对话了两分钟,成本可想而知。
当然这不是每回答一个问题都这么贵,这是平均下来,而像问一些复杂的问题,那么它查找的资源会更多,导致成本肯定会更夸张。
智能座舱和自动驾驶卷到今天,算力的高低变得原来越重要,而昂贵的算力资源也是目前限制ChatGPT向更广阔市场发展的桎梏。
如今平均每天约有2000万独立访客使用ChatGPT,基本上所有用户都是抱着好奇的心态,来试试看,目前主要应用的核心处理器为英伟达A100芯片,服务器为DGX A100,单个服务器搭载8颗英伟达A100 GPU,AI算力性能约为5PetaFLOP/s,单机最大功率约为6.5kw,售价约为19.9万美元/台。
推算如今每日2000万访问量为基础,资讯的问题数量超过2亿个,ChatGPT为满足这个规模下的用户咨询量,需要投入的成本超过8亿美元,至少对应约4000台服务器,芯片数量超过3.2万枚,当然还有几乎可以忽略的每日超过5万美元的电费。
即便是已经拥有这样恐怖的算力,但是这依然不够用的,大家在用ChatGPT时,可以很明显地发现它回答问题是需要一定的时间的,并不是那种立刻就会回答你(除了一些别人已经问过的问题)。如果把现在的ChatGPT搭载到智能汽车上,可能你会更加爱上“功能机”,虽然它傻,但是它快。
车上应用场景有限,但它的数据谁都想要?
另外,ChatGPT发展到今天,与车企们训练自动驾驶和智能座舱AI一样,都是经过了不断迭代升级的。
GPT至今已经公开了三次迭代,第一代GPT-1诞生于2018年6月,当时的训练参数量仅为1.2亿个,数据库规模为5GB。第二代GPT-2诞生于2019年2月,训练参数量提升到为15亿个,数据库规模为40GB。第三代GPT-3诞生于2020年5月,训练参数量已经增长到了1750亿个,数据库规模达到45TB。
第三代模型较第二代的训练参数增长超过100倍,数据库规模则增长超过1000倍,虽然看上去很多,但是我们可以给大家换算一下,蔚来ET2.0带激光雷达的车型,在辅助驾驶开启后,每秒产生8G数据,产生1TB数据的时间大概是96秒,那么产生45TB数据大概需要72分钟。当然蔚来产生的绝大多数都是高清的视频数据,而且其中绝大多数都是需要被过滤掉的无用数据,但是ChatGPT就不一样了,45TB对应的是浩如烟海的文字数据,几乎没有要被过滤掉的,这样的数据量单次的训练成本达到460万美元,折合人民币超过3000万。
而在最近爆火之后,下一代大模型的参数量和数据库规模,还将比上一代实现百倍、千倍的升级,这意味着如果底层的芯片性能止步不前,就会令训练时长长达几年,但显然业内需要在半年或一年内就推出下一代更强的模型。暴增的数据量会让它下一次的训练成本达到难以估算的水平,特别是可能还会涉及一些芯片在高负荷工作环境下的耗损。
其实说到这里,这些都算是一个新事物在发展初期所遇到的困境,这是一个必然的过程,虽然短期内不能真正上车使用,但作为一款更高阶的AI工具,其实它完全可以应用到对于目前车机智能化的开发中,甚至对于自动驾驶的训练也有一定的帮助,但只要还是会在智能语音和一些特定化的场景中得到应用。
如今大部分新势力车机的智能语音系统,都可以做到可见即可说,并且主要是完成一些功能性的指令,但是随着大家对于场景化以及个性化的追求,那么更贴近人实际交互体验的AI需求会变得更为迫切,而ChatGPT确实可以给予车企们在这方面的帮助。
但是我们也会发现新的问题,就是ChatGPT目前对于一些简述的或者说是不完整的问题,并不能做到很全面的回答,甚至还会出现它不明白的情况,它对于那些比较具体,并且完整的问题,能够回答得比较令人满意,开始开车的过程中,主要使用语音系统的驾驶者并没有很多的精力,能够用在如何细致的组织ChatGPT能够听懂的语言方面。
甚至还有用户发现,ChatGPT对中文问题的理解远没有相同意义的英文问题的敏感性高,这些也能够算是初创功能的一些小BUG吧,给它一定的时间,肯定会改善的。
目前的ChatGPT使用神经网络来分析文本信息,并且根据上下文来生成回复,而在训练自动驾驶方面,ChatGPT可能就没有什么用武之地了,目前绝大多数的自动驾驶系统都是依赖于人工智能深度神经网络算法来执行感知、决策和控制等复杂任务。像蔚小理它们建设的超算中心,还有特斯拉的超级计算机,在底层逻辑方面与ChatGPT区别不大,所以开头我们就提到了一些学者的言论:它就是一个组合得很好的产品,仅此而已。
总结:
作为一款AI工具,它的出现可能真的会产生深远的影响,即便是它没能征服世界,世界也很有可能会被它的竞品们征服。
整体看下来,目前ChatGPT还不能上车的关键症结就是卡在贵的问题上,可是这也是这种初创新事物的共同特点,当初机械旋转式的激光雷达动辄几十万一个,怎么可能把它装置二十几万的车上,可如今激光雷达的成本已经降至了千元大关,而ChatGPT的成熟与成本降低,也是一个时间问题。
而真的等ChatGPT或者它的类似产品们成熟之后,那么汽车的智能化会面临重新洗牌,不少车企可能会直接寻求合作,放弃自己的原有思路,到那时可能ChatGPT并不是什么高科技,可ChatGPT拥有的数据量和先发优势,就是它最大的资本,好像这种故事已经在自动驾驶领域上演过了,对吧?更多相关的汽车资讯小编会持续关注。