据量太少,中文的数据量很大,可是因为环境的限制有价值的数据也很少。
所以,想训练出世界级的AI模型,就只能用英文语料来训练。
这就需要一些弱势语言的AI模型,要有语言转换能力,去转换成英文。
就像使用文心一言,让他画一个起重机的图片。
结果画的是鹤。
这就很让人费解。
其实很简单,起重机的英文是crane,而crane在英文里主要是指鹤。所以AI模型就画出了鹤的图片。
又比如“可乐鸡翅”这种,放在中文语境里,其实很好理解,就是一道菜。可是,这里面有一道翻译的手续,把“可乐鸡翅”翻译成英文,在翻译过程中就造成了信息离散,导致画出来的可乐和鸡翅。
ChatGPT一样会遇到这样的困境。
用英文向ChatGPT提问,回答的速度会非常快,而且准确度极高;如果用中文、日文、韩文、法文、德文等其他语言来提问,反应速度就会很慢,给出的答案也会错误百出。
因为其他语言的数据量太小了,训练出的模型就不够智能。
只有英文版最智能。
文心一言想要表达得智能一些,就不能对接中文的语料,要去对接英文的训练数据才行,然后背后再增加一套翻译算法和内容审查算法。
所以,想做出一款伟大的AI产品,除了在人工智能领域的顶尖算法之外,还有很重要的一个因素,就是训练AI模型的数据。
这些数据里,有些是开源的公共数据,全世界都可以用。有一些是私有数据,只有自己可以用。
像微软、谷歌、Facebook这种硅谷的巨头公司,除了可以使用庞大的公有数据外,还有庞大的有价值的英文私有数据可以使用,他们做出来的AI模型就会比只根据公有数据训练的AI模型要更加强大。
所以,周不器对内容很重要,尤其是海外的英文内容。
这些都是私有数据,都有可能成为紫微星在未来世界竞争中最宝贵的资产。
如果拉里·佩奇说的这款Knol真的是对标维基百科的产品,那就太有意义了。维基百科是公有数据,Knol就是私有数据。
“维基百科更像是一个词典,内容都比较基础,是偏大众的产品。Knol是由一部分有能力的权威用户来共同协作,用来解释一件事物的是什么、怎么做、起因经过结果及其周边事物,并且
本章未完,请点击下一页继续阅读!