导航
主页 CG艺术长廊 AI技术前沿 创新应用案例 行业深度解析 搜索技巧指南 社区互动论坛 AI教程资讯

12月大模型推荐:OpenAI、微软、谷歌等大厂纷纷发布全新AI模型,生成式AI赛道悄然又开始一场大战

来源: aicg搜索日期:2025-05-07 12:36:56

分享一下进入12月以来发布的几个备受关注的AI大模型动态:

①几天前,一家叫做Mixtral AI的创业公司,在社交媒体上发布了一条磁力链接,其他啥都没说?。

有网友下载来研究,发现竟然是个AI大模型的源文件,整体模型文件竟然有87GB那么大!

这个开源大模型叫做MoE 8x7B,简单来说它由8个70亿参数(7B)的大模型组成的混合超大模型,跟GPT-4.0是类似的结构。

该模型在短短几天内迅速登顶开源模型排行榜,据评测性能超过Meta的Llama 2系列和GPT-3.5,接近GPT-4.而且有人做了微调版本,甚至能在一台Mac上运行这个大模型,容我研究一下,看看能否尽快分享给大家~

模型磁力链接在此,感兴趣的朋友可以自存:

magnet:?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%http://2Fopentracker.i2p.rocks%3A6969%2Fannounce&tr=http%3A%2F%http://2Ftracker.openbittorrent.com%3A80%2Fannounce

②微软发布最新的小型大语言模型Phi-2,参数只有2.7亿(作为参考GPT-3.5有20亿参数)。

别看它参数少,Phi-2在评测中超越了很多7亿,甚至13亿参数的大模型,这意味着大家以后有可能以更小的显存运行更强的大模型,搞不好一台家用电脑就能本地跑GPT-3.5了。

抓马来了,一开始微软本来不准备将Phi-2开源,结果好像不小心模型文件被泄露了,干脆就直接开源了,等于大家提前过个早年了哈哈。

模型链接:

https://huggingface.co/microsoft/phi-2

用户留言
跟帖评论
查看更多评论
访问电脑版