设为首页 - 加入收藏
广告 1000x90
您的当前位置:主页 > 资源 > 效果代码 > 正文

效果达OpenAI同规模模型96%国内团队新发大模型C

来源:未知 编辑:天选资讯 时间:2023-06-08

  最新消息,多模态大语言模型TigerBot正式亮相,包含70亿参数和1800亿参数两个版本,均对外开源。

  评测结果显示,TigerBot-7B已达到OpenAI同样大小模型综合表现的 96%。

  △公开 NLP 数据集上的自动评测,以OpenAI-instruct GPT-6B-SFT为基准,归一化并平均各模型的得分情况

  而更大规模的TigerBot-180B或是目前业内开源的最大规模大语言模型。

  目前TigerBot对话AI已邀请内测,开源代码数据等已上传至GitHub(详细链接见文末)。

  如上这些重磅工作,来自一支最初只有5人的小团队,首席程序员&科学家就是CEO本人。

  从2017年起,他们就在NLP领域开始创业,专长垂直领域搜索。最擅长对数据重度以来的金融领域,和方正证券、国信证券等有过深入合作。

  创始人兼CEO,有着20多年从业经验,曾任UC伯克利客座教授,手握3篇最佳顶会论文和10项技术专利。

  而且一开始便从最底层的基础天选团队模型做起,3个月内完成3000次实验迭代,还有底气将阶段性成果对外开源。

  覆盖生成、开放问答、编程、画图、翻译、头脑风暴等15大类能力,支持子任务超过60种。

  比如让它来帮我写一条Apple Vision Pro的新闻快讯,效果有模有样:

  这些成果主要得益于团队在GPT和BLOOM基础上,在模型架构和算法上都做了更进一步的优化,也是TigerBot团队过去几个月来的主要创新工作,让模型的学习能力、创造力和生成可控上都有明显提升。

  在并行训练上突破deep-speed等主流框架中的内存和通信问题,实现千卡环境下数月无间断

  针对中文语言更不规则的分布,从tokenizer到训练算法上做了更适合的优化

  它能让模型在只使用少量参数的情况下,就能快速理解人类提出了哪类问题,提升回答的准确性。

  通过Mark-up Language(标记语言)的方式,用概率的方法让大模型能够更准确区分指令的类别。比如指令的问题是偏事实类还是发散类?是代码吗?是表格吗?

  因此TigerBot涵盖了10大类、120类小任务。然后让模型基于判断,朝着对应方向优化。

  带来的直接好处是调用参数量更少,同时模型对新数据或任务的适应能力更好,即学习性(learnability)提高。

  在同样50万条数据训练的情况下,TigerBot的收敛速度比斯坦福推出的Alpaca快5倍,在公开数据集上评测显示性能提升17%。

  TigerBot一方面采用ensemble的方法,将多个模型组合起来兼顾创造性和事实可控性。

  它能让模型在生成内容的过程中,根据最新生成的token,给出两个概率。一个概率判断内容是否应该继续发散下去,一个概率表示生成内容离事实内容的偏离程度。

  综合两个概率的数值,模型会在创造性和可控性上做一个权衡。TigerBot中这两个概率的得出由专门数据进行训练。

  考虑到模型生成下一个token时,往往无法看到全文的情况,TigerBot还会在回答写完后再进行一次判断,如果最终发现回答不准确,便会要求模型重写。

  我们在体验过程中也发现,TigerBot生成回答并不是ChatGPT那样逐字输出的模式,而是在“思考”后给出完整答案。

  除了思考到模型底层架构的优化,TigerBot团队认为工程化水平在当下大模型时代也很重要。

  一方面是因为要考虑运营效率——随着大模型趋势持续,谁能更快迭代模型非常关键;另一方面当然还要考虑算力的经济性。

  因此,他们在并行训练方面,突破了deep-speed等主流框架中的若干内存和通信问题,实现了千卡环境下训练数月无间断。

  最后,针对中文连续性强、多义歧义情况多等问题,TigerBot从tokenizer到训练算法上,都做了相应优化。

  总结来看,TigerBot实现的技术创新,全都发生在当下大模型领域中最受关注的领域内。

  不仅是底层架构的优化,还考虑到了落地层面的用户需求、开销成本等问题。并且整个创新过程的速度非常快,是10人左右小团队在几个月时间内实现。

  虎博科技给自己的定位是“一家人工智能技术驱动的公司”,专注于NLP技术的应用落地,愿景是打造下一代智能且简单的搜索体验。

  具体实现路径上,他们选择了对数据信息最为敏感的领域之一——金融。自研了垂直领域内智能搜索、智能推荐、机器阅读理解、总结、翻译等技术,推出了智能金融搜索和问答系统“虎博搜索”等。

  他博士毕业于威斯康辛大学麦迪逊分校,曾任加州大学伯克利分校客座教授,到现在为止从业已有20余年。

  他先后在微软、eBay、雅虎担任主任科学家和研发总监等要职,主导研发了雅虎的行为定向系统、eBay的推荐系统以及微软搜索广告竞拍市场机制等。

  2014年,陈烨加入大众点评。之后美团点评合并,他任美团点评高级副总裁,分管集团广告平台,助力集团年广告收入从1000万提升至40多亿。

  学术方面,陈烨曾三次获得顶会最佳论文奖(KDD和SIGIR),在SIGKKD、SIGIR、IEEE等人工智能学术会议上发表20篇论文,拥有10项专利。

  2017年7月,陈烨正式创立虎博科技。成立1年后,虎博便快速拿下超亿元融资,目前公司披露融资总额达4亿元。

  7个月以前,ChatGPT横空出世,AI在时隔6年以后,再次颠覆大众认知。

  天选

  即便是陈烨这样在AI领域内创业多年的技术专家,也用“从业以来前所未有的震撼”来形容。

  陈烨说,看到ChatGPT后,几乎不用思考或决定,内心的呼唤让他一定会跟进趋势。

  团队最初只有5个人,陈烨是首席程序员&科学家,负责最核心的代码工作。后面成员规模虽有扩充,但也只控制在了10人,基本上一人一岗。

  我认为从0到1的创造,是一件很极客的事,而没有一个极客团队是超过10个人的。

  第一阶段,也就是ChatGPT爆火不久后,团队迅速扫遍了OpenAI等机构过去5年内所有相关文献,大致了解ChatGPT的方法机制。

  由于ChatGPT代码本身不开源,当时相关的开源工作也比较少,陈烨自己上阵写出TigerBot的代码,然后马上开始跑实验。

  他们的逻辑很简单,让模型先在小规模数据上验证成功,然后经过系统科学评审,也就是形成一套稳定的代码。

  在一个月时间内,团队就验证了模型在70亿规模下能达到OpenAI同规模模型80%的效果。

  第二阶段,通过不断吸取开源模型和代码中的优点,加上对中文数据的专门优化处理,团队快速拿出了一版真实可用的模型,最早的内测版在2月便已上线。

  第三阶段,也就是到了最近的一两个月内,团队在基础研究上实现了一些成果和突破。

  同时在这一阶段内整合更大规模算力,达到更快的迭代速度,1-2个星期内,TigerBot-7B的能力便快速从InstructGPT的80%提升到了96%。

  陈烨表示,在这个开发周期内,团队始终保持着超高效运转。TigerBot-7B在几个月内经历了3000次迭代。

  小团队的优势是反应速度快,早上确定工作,下午就能写完代码。数据团队几个小时就能完成高质量清洗工作。

  因为他们仅凭10个人在几个月内肝出来的成果,将以全套API的形式向行业开源。

  第一,作为一名AI领域内的技术人员,出于对技术最本能的信仰,他有一点热血、有一点煽情。

  我们想要以世界级的大模型,贡献于中国创新。给行业一个可用的、底层基础扎实的通用模型,能让更多人快速训练出专业大模型,实现产业集群的生态打造。

  第二,TigerBot接下来还会继续保持高速迭代,陈烨认为在这种赛跑的局面下,他们能保持身位优势。即便是看到有人以TigerBot为底层开发出了性能更好的产品,这对于行业内来说又何尝不是一件好事?

  陈烨透露,接下来虎博科技还会持续快速推进TigerBot的工作,进一步扩充数据来提升模型性能。

  在ChatGPT发布6个月以后,随着一个个大模型横空出世、一家家巨头火速跟进,AI行业格局正在被快速重塑。

  尽管当下还相对混沌,但大致来看,基本上会分为模型层、中间层、应用层三层。

  而应用层的发展是大模型趋势演进的外化体现;更是AIGC愿景里,人类社会生活走向下一阶段的重要影响因素。

  在陈烨看来,目前人类才只开发了大模型10-20%的潜力,在fundamental层面还有非常大的创新和提升空间。

  所以在这样的趋势和行业发展要求下,虎博科技作为国产领域创新代表,高举开源大旗,迅速起跑、追赶世界最前沿技术,确实也为行业内带来了一股与众不同的气息。

  国产AI创新正在高速狂奔,未来一段时间内,相信我们还会看到更多有想法、有能力的团队亮相,为大模型领域注入新的见解、带来新的改变。

  想体验TigerBot的童鞋,可以通过下方链接或点击“阅读原文”进入网站,点击“申请内测”,组织代码中写“量子位”即可通过内测~

  原标题:《效果达OpenAI同规模模型96%,发布即开源!国内团队新发大模型,CEO上阵写代码》

  本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。

相关推荐:

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片

织梦模板大全 dedecms.codesdq 联系QQ:121673232 邮箱:121673232@qq.com

Copyright © 2002-2011 DEDECMS. 织梦科技 版权所有 Power by DedeCms

Top