首次开源这一强大算法,我们向Meta致敬
2022-05-09 14:00
文本设置
小号
默认
大号
Plus(0条)
Facebook改名Meta后,“财务厄运”并未因此终止,但技术作风却一如既往的大胆。本周,来自Meta一小撮程序员的疯狂举动,在全球AI开发者群体中引发了巨大骚动——Meta AI 实验室高调宣布,将开放自己的语言大模型 OPT(Open Pretrained Transformer,预训练变换模型),毫无保留地贡献出所有代码。这是一种利用巨量网络文本与书籍进行训练,可以将单词和短语串在一起组成精彩文本的深度学习算法模型。不夸张地说,在人工智能圈,这算得上是一个里程碑事件。 | 相关阅读(虎嗅)
48
得瑟小缪
跟据微软老领导张宏江博士的观点,现在的AI等于算法+数据,其实按我的观点来看,还有一个算力。早年在微软做语音识别内核研发的时候,还是HMM这些主要通过数学和算法来实现的简单AI。后来随着计算机硬件水平的大规模发展(当然也不能忽略海量数据可以用来学习),神经网络及深度学习逐渐成为行业主流(可怜我当年在内部第一个做出神经网络的语音识别算法跟玩具一样没人理我)。随着行业的发展,我们看到很大中国的AI公司异军突起,这里面除了有很大一部分原因是中国市场有其他地方难以达到的海量用户数据可以用来训练模型。Meta算法及模型开源,当然对促进行业发展大家相互学习是一件好事,但是从实际效果看,小型创业团队因为算力及成本的原因,其实也用不太起这种AI的能力。拥有足够财力的AI公司,其实各自选型和认知上仅有些许区别,更多的仅仅是参考谈不上改变行业。