您的当前位置:首页 > 休闲 > AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍 名为“AMD-135M” 正文
时间:2025-01-18 16:47:23 来源:网络整理 编辑:休闲
快科技10月1日消息,AMD发布了自己的首个小语言模型(SLM),名为“AMD-135M”。相比于越来越庞大的大语言模型(LLM),它体积小巧,更加灵活,更有针对性,非常适合私
快科技10月1日消息,布首倍AMD发布了自己的语言亿首个小语言模型(SLM),名为“AMD-135M”。模型
相比于越来越庞大的推测提速大语言模型(LLM),它体积小巧,解码更加灵活,布首倍更有针对性,语言亿非常适合私密性、模型专业性很强的推测提速企业部署。
AMD-135小模型隶属于Llama家族,布首倍有两个版本:
一是语言亿基础型“AMD-Llama-135M”,拥有多达6700亿个token,模型在八块Instinct MIM250 64GB加速器上训练了六天。推测提速
二是解码延伸型“AMD-Llama-135M-code”,额外增加了专门针对编程的200亿个token,同样硬件训练了四天。
创建与部署流程
它使用了一种名为“推测解码”(speculative decoding)的方法,通过较小的草稿模型,在单次前向传播中生成多个候选token,然后发送给更大的、更精确的目标模型,进行验证或纠正。
这种方法可以同时生成多个token,不会影响性能,还可以降低内存占用,但因为数据交易更多,功耗也会增加。
AMD还使用AMD-Llama-135M-code作为CodeLlama-7b的草案模型,测试了推测解码使用与否的性能。
比如在MI250加速器上,性能可提升最多约2.8倍,锐龙AI CPU上可提升最多约3.88倍,锐龙AI NPU上可提升最多约2.98倍。
推测解码
AMD-135M小模型的训练代码、数据集等资源都已经开源,遵循Apache 2.0。
按照AMD的说法,它的性能与其他开源小模型基本相当或略有领先,比如Hellaswag、SciQ、ARC-Easy等任务超过Llama-68M、LLama-160M,Hellaswag、WinoGrande、SciQ、MMLU、ARC-Easy等任务则基本类似GTP2-124MN、OPT-125M。
预测RTX 5090将面临缺货 价格或飙升至3万元2025-01-18 16:41
日本第二季度實際國內生產總值環比增長0.8%2025-01-18 15:55
烏軍使用無人機襲擊俄羅斯4個軍用機場2025-01-18 15:50
菲律賓2023年貧困發生率為15.5%2025-01-18 15:39
《最终幻想7》蒂法和爱丽丝新3D图 性感养眼吸睛2025-01-18 15:35
美國7月生產者價格指數同比上升2.2%2025-01-18 15:14
日本第二季度實際國內生產總值環比增長0.8%2025-01-18 14:57
泰國議會8月16日將投票選舉新總理2025-01-18 14:44
PSN网络服务今早全球范围宕机 更新:现已恢复!2025-01-18 14:38
「731部隊」原隊員清水英男參觀侵華日軍第七三一部隊罪證陳列館2025-01-18 14:19
《塞尔达传说:智慧的再现》制作名单里没有宫本茂2025-01-18 16:43
日本認定波音貨機緊急降落事件為航空事故 將實地調查2025-01-18 16:36
中企助建東南亞交通項目增多 柬埔寨41號公路升級改造2025-01-18 16:34
玻利維亞對小麥和麵粉進口實行零關稅2025-01-18 15:48
《真知之岛》即将关闭服务器 游戏永久改为离线模式2025-01-18 15:16
伊朗官員:只有加沙停火 伊朗才不會報復以色列2025-01-18 15:06
美國7月生產者價格指數同比上升2.2%2025-01-18 14:47
聯合國安理會就加沙局勢舉行緊急會議2025-01-18 14:37
国外玩家:RTX 5070 549美元 买了PS5 Pro的作何感想?2025-01-18 14:29
沙特公布2034年世界盃體育場館建設計劃2025-01-18 14:13