第43章 又双叒叕突破啦(1 / 2)

加入书签

孟繁岐的这番话,听起来让人觉得不是那么舒服。</p>

言下之意,给人一种华国AI技术就是不如国外的感觉。</p>

这是李彦弘不大喜欢的,毕竟他这么早就关注AI技术,就是为了研发最前沿最先进的技术。</p>

孟繁岐大概猜到了他的想法,前世他也曾被早期华国大量发表的AI论文所迷惑。</p>

觉得在这个新崛起的技术上,华国已经可以和美国分庭抗礼,不落下风。</p>

虽然AlphaGO震惊了世人,但毕竟有些华而不实。</p>

直到上千亿级别的语言大模型出现,这种纯硬核实力的比拼,让孟繁岐不得不甘拜下风。</p>

实际上,并非是技术手段和算法层面上相差太远。</p>

更多的还是因为优质数据的数量不足。</p>

白度的文心一言,出图的时候甚至会将用户的中文输入翻译成英文,再去作图。</p>

很多较真的网友故意测试了中英文差异很大的词汇,比如总线(Bus),鼠标(mouse)。</p>

文心一言绘出的图像竟然是大巴车和老鼠,这从中文上是完全说不通的事情。</p>

可见即便不是全部,文心一言这个所谓的专注中文的超级大模型,也在相当程度上借助了英文基础的模型权重和技术。</p>

究竟为何要这么做,说到底还是基础不够扎实牢靠。</p>

整理数据,清洗数据,给数据打上高质量的标签。</p>

这些都是脏活累活,见效慢的工作。</p>

把别人公开的数据拿过来跑一跑训一训,多么方便快捷?</p>

以国内996大厂的内卷风气,很难容下长回报周期的基础建设。</p>

早些时候看看不出区别,只觉得国内大厂频繁在XX榜单上露面,刷榜,又是超过这个,又是超过那个。</p>

直到语言大模型阶段,基础语料数量和质量上的劣势才暴露无遗。</p>

“其实这也不能完全怪华国的大厂风气,美国的互联网起步要早,并且很多领域的文献材料归档做得特别好。”孟繁岐也曾仔细思索过这方面的问题。</p>

“像github,arxiv这样的大型公开社区,里面都是非常优质的外文代码或者论文。这些也不只是美国人自己的积累。而是通过免费公用的形式,收割了全世界的数据。”</p>

“华国人在github上贡献的代码行数也不在少数,反过来看看华国的论文社区,就比如知网,纯纯就是毒瘤。里面屯点硕博生的论文,还要论页数收费。就连下载之后的阅读器,甚至都需要专门的....”</p>

此消彼长之下,差了多少珍贵的数据啊...</p>

只是此时此刻,李彦弘应该还没有想到这么大规模的数据用于训练。因而孟繁岐也不急于一时和他讨论后面语言类的技术,以及生成式的大模型。</p>

↑返回顶部↑

书页/目录