在全球人工智能(AI)的比赛中,最新的研讨标明我国科技巨子百度在重要理论“Scaling Law”的发现上早于美国OpenAI,这一现象引发了媒体热议。闻名媒体《南华早报》的报导指出,虽然美国在AI模型立异方面有着极其坚定的位置,但这一论题的评论突显了我国可能在有关技能研讨上走在了前列。
“Scaling Law”是指练习数据和模型参数与智能才能之间的正相关联系,简略来说,便是数据和核算才能越强,模型的智能体现也就越好。这一中心准则常常被认为是OpenAI于2020年宣布的论文《Scaling Laws for Neural Language Models》的创见,但是,状况并非如此简略。
前OpenAI研讨副总裁、Anthropic创始人Dario Amodei在一次播客中说到,早在2014年,他与谷歌AI前锋吴恩达在百度进行研讨时,就已调查到了这一现象。他指出,经过添加数据量、扩展模型规划并延伸练习时刻,模型功能的明显提高成为了要害发现。这一非正式调查后在OpenAI的GPT-1模型中得到了进一步验证,并演变为大模型技能发展的“黄金规律”。
但是实际上,有研讨人士称,关于“Scaling Law”的原始研讨可追溯到2017年由百度的硅谷人工智能实验室发布的一篇论文《Deep Learning Scaling is Predictable, Empirically》。该论文具体讨论了机器翻译和言语建模等范畴的“Scaling”现象,却在随后长时间处于忽视的地步。
这种新的调查不只重塑了对这一理论的认知,也挑战了科技界关于AI职业散布的风闻。跟着百度的持续立异,其最近在2024年百度国际大会上展现了新技能,致力于处理图画生成中的错觉问题。到11月初,百度文心大模型的日均调用量突破15亿次,较一年前的5000万次增长了约30倍。
这一系列前进使得我国在全球AI职业中的影响力日益闪现,并引发了外界对百度在技能讨论研讨和应用上的更多重视。正如《南华早报》指出的那样,随技能的渐渐的提高,我国的AI企业在全球科学技能范畴将走向领导位置。回来搜狐,检查更加多
上一篇:国内首个!AI儿科医师正式“上岗” 下一篇:聚焦AI安全 筑牢可信基石——第四届互联网空间内生安全学术大会“人工智能论坛”顺利举行