相关结果约825个
m1k.me相关信息
2025-06-18 12:26:42 - 定价方面,M1根据文本大小分为三个价格区间:0-32k Token,输入0.8元/百万Token,输出8元/百万Token;32k-128k Token,输入1.2元/百万Token,输出16元/百万Token;128k-1M Token,输入2.4元/百万Token,输出24元/
2025-06-17 16:46:46 - MiniMax-M1开源技术报告截图 定价方面,在输入区间0-32K范围内,M1模型的价格为输入0.8元/百万Tokens,输出8元/百万Tokens;32k-128k范围内,M1模型的价格为输入1.2元/百万Tokens,输出16元/百万Tokens。
2025-06-25 14:01:49 - 传统模型如DeepSeek R1在处理10万Token生成任务时需消耗大量算力,而M1通过分块策略——局部上下文采用传统注意力、全局摘要采用线性注意力——将计算量压缩至竞品的25%。
2025-06-23 20:13:59 - 在工具调用(TAU-bench)、代码生成(SWE-bench)、长文本理解(MRCR)等17个主流评测中,M1 表现优异。其中,M1-40k在TAU-bench任务中超越所有开源模型;在MRCR任务中,位列全球第二。
2025-06-17 19:45:59 - 在17个国际主流评测集上,M1大模型显示出优越性能。在代码能力方面,M1-40k和M1-80k版本分别取得了55.6%和56.0%的优秀成绩,超越其他开源模型,跻身全球大模型第一梯队。
2025-06-17 15:42:21 - 根据官方介绍,M1的优势是支持目前业内最高的100万上下文的输入,跟闭源模型里面的Google Gemini 2.5Pro一样,是DeepSeek R1的8倍,以及业内最长的8万Token的推理输出。
2025-07-03 08:03:02 - 而在输出长度上,M1的8万token高于Gemini2.5Pro的6.4万token,对于需生成长篇技术文档、小说剧本等场景,这一优势极具含金量。 M1在保持性能的同时,其性价比让友商有些坐不住了。在用8万Token深度推理时,M1所需算力仅为DeepSeek的30%。
2025-07-03 08:07:01 - 前不久,上海AI公司MiniMax(上海稀宇科技有限公司)在其官网和开源平台GitHub上,抛出全球首个开源大规模混合架构推理模型——MiniMax—M1(以下简称“M1”)。该模型在权威评测榜单中,位列全球开源模型第二,仅次于DeepSeek—R1—0528。
2025-07-03 06:57:22 - 而在输出长度上,M1的8万token高于Gemini2.5Pro的6.4万token,对于需生成长篇技术文档、小说剧本等场景,这一优势极具含金量。 M1在保持性能的同时,其性价比让友商有些坐不住了。在用8万Token深度推理时,M1所需算力仅为DeepSeek的30%。
2025-06-17 16:17:00 - 在代码能力方面,M1-40k和M1-80k版本分别取得了55.6%和56.0%的成绩,稳居第一梯队。在长文本方面,依托百万级上下文窗口,M1系列在此项任务中表现惊艳;在工具调用方面,在模拟真实世界工具调用的复杂场景中,M1-40k模型领跑开源模型。