优亿链收录网_自动秒收录外链

开源“卷王”阿里云,投下“深水炸弹”


文章编号:986 / 更新时间:2024-03-19 14:30:07 / 浏览:

开源“卷王”阿里云,投下“深水炸弹”

哈喽大家好,我是弘一。想用大模型做一个属于自己的AI应用,开源大模型是很多人的首选,因为用开源,一来不用重复造轮子,二来省成本,比如说在阿里云魔搭社区ModelScope平台上,仅用一句提示词,就可以创建自己的AI助手,然后再对通义千问开源模型进行微调,甚至可以做一些定制化开发。这就好比我们踩在了一个大模型巨人的肩膀上办事儿,省时省心又省力。

我们知道,自Meta发布了Llama2大语言模型以来,这个大模型的开源圈就热闹了起来,但要说国内能对标Llama(模型)的目前只有阿里云的通义千问。从8月到现在,阿里云陆续开源了通义千问70亿参数模型Qwen-7B、140亿参数模型Qwen-14B、720亿参数模型Qwen-72B和18亿参数模型Qwen-1.8B。

可以说,阿里云率先实现了国内开源模型的全尺寸套件,以远超业界的开源力度成了当之无愧的开源卷王,也为AI赛道的企业和开发者提供了更优的选项。

其实,企业选开源还是闭源,还是要看对自身的定位以及业务的场景需求。更重要的是,模型本身的能力怎么样,能不能帮公司解决问题、创造价值。 开源卷王阿里云,投下深水炸弹就拿通义千问720亿参数模型来说,它的性能就超越了开源标杆Llama2-70B以及大部分的商用闭源模型。

据了解,在10个权威测评中,它获得了开源模型的最优成绩。在部分测评中,它甚至超越了闭源的GPT-3.5和GPT-4。而且,Qwen-72B的上下文窗口长度也扩展到了32k,可以处理最多32k的长文本输入。在长文本理解测试集LEval上,它取得了超越ChatGPT3.5-turbo-16k的效果。

此外,研发团队还对Qwen-72B的指令遵循工具使用等技能作了技术优化,使得它能够更好地被下游应用集成。

开源的本质是为了更开放,更快速地迭代和发展。而这对一家企业的技术能力也提出了更高的要求,尤其是研发720亿参数级别的大模型也需要更高的技术水平。而在AI的投入上,阿里云其实一直在持续投入不断迭代,给个人开发者科研团队以及AI创业公司提供了更多的可能性,也形成了一个更丰富的开发者生态。

我们也相信,开源大模型将会给整个人工智能领域的发展带来更多的机会。一览弘观,与你有关,我们下期见。

@新媒体制作与运营:林晓@图文校对与视频后期:耿琪琪

原文标题:开源“卷王”阿里云,投下“深水炸弹”

华章智能亮相2023工博会,助推工业智造高速发展!

端侧AI大模型很可能是为5G而生?

东方通:“技术中间件行业安全”双轮驱动

秦淮数据,“绿色”大型数据中心样本

云端时代,谁掌控了增长密码?

拐点已至!你的企业“云原生”了吗?

聊聊广汽本田云原生的心路历程

不需主机畅玩,云游戏时代还有多远?

专注IoT移动应用软件开发连接物联网智能时代


相关标签: 阿里云

本文地址:https://www.uel.cc/article/69626395a47710b26e08.html

上一篇:云计算如何创芯逆向工作法的性感之处...
下一篇:华为欧拉,谁是成长最快企业?...

发表评论

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="https://www.uel.cc/" target="_blank">优亿链收录网_自动秒收录外链</a>