1)第10章 这是作了什么孽啊这是?!_科技无垠
字体:      护眼 关灯
上一章 目录 下一章
  问了几个问题,程旭对言心的水平有了一些认知,便立即给它挖了一个坑,他如此问道:假如我是一名软件工程师,想去腾训工作。西安和郑州该怎么选?

  西安郑州

  言心在分析西安和郑州的优势,对错都不重要你了,字儿还没出完,程旭就直摇头。

  郑州压根没有腾训的分公司,这样的回答是很没有逻辑的,或者说,避坑能力有点儿差。

  这是对语义的理解有偏差?还是关键的信息梳理有疏漏?还是训练模型的机制问题?

  程旭更好奇的一个问题是,对于它完全不知道的事情,言心会做出如何的回答。

  流浪地球2的总票房是多少?他便接着问了这样一个问题。

  言心目前的模型是22年年底语料数据库,理论上,再不集成搜索引擎的情况下,它是不知道这个数据的。

  对于不知道的问题,它会如何回答——这决定了它的上限。

  理论上,一个会说不知道的ai要比只会胡说八道的ai在训练水平上是高一个层次的。

  对于一个ai来说,会说不知道,是一个更加复杂的算法逻辑,这是由它迭代升级的算法本质所决定的。

  强化学习算法频繁的说不知道,而不是做出行动和奖励(action和reward),与强化学习的回报(reward)最大化目标是矛盾的。

  而且这种矛盾很致命——会直接影响模型的训练效果,增大数倍的训练成本。

  而这,对于本就高达数百亿的训练成本来说,再增大数倍,无疑就更是一个天文数字了。

  也正因此,更多的时候,ai模型开发者宁愿让它胡说八道——这就是探索与开发的权衡。

  究其原因在于,ai神经网路系统虽然在一定程度上模仿了大脑处理信息的过程,但实际它要比人脑的逻辑低级的多,差了好几个维度。

  简单的说,对于人来说,一个问题不知道不清楚,可以暂时先记下。等下去问老师问同学或者自己上网查资料,问题就可以解决了。

  但ai模型不同,现在半导体硬件提下的人工神经网络是没有类似的处理机制的。

  言心会跳出这个圈子吗?就看它怎么回答这个问题了。

  流浪地球2的总票房是多少?

  据我所知,流浪地球2的总票房是八十亿,一部及其优秀的科幻电影噼里啪啦噼噼噼

  果不其然,一个级别的东西——噼里啪啦说了一大堆,说的很像那么回事儿,但——瞎编的,一本正经的分析,一份正经的胡说八道。

  跟chatgpt一个尿性。

  这也符合程旭对它的预期——早就猜到会是这样——2023这个时期,各个竞品的水准其实是大差不差的,包括谷歌的brand,也都一个鸟样。

  程旭一连问了它许多问题,言心的回答都中规中矩,它也会迎

  请收藏:https://m.hkmtxt.cc

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章