阿里发布Qwen2.5-Turbo,支持100万Tokens上下文!
专注AIGC领域的专业社区报道了阿里发布Qwen2.5-Turbo版本,其上下文长度从128K扩展至100万tokens,显著提升处理复杂长文本能力,并在保持价格不变的情况下实现了4.3倍的推理速度提升。
专注AIGC领域的专业社区报道了阿里发布Qwen2.5-Turbo版本,其上下文长度从128K扩展至100万tokens,显著提升处理复杂长文本能力,并在保持价格不变的情况下实现了4.3倍的推理速度提升。
专注AIGC领域的专业社区报道了国产大模型DeepSeek发布的全新推理模型DeepSeek-R1-Lite预览版。其最大特色是深度思维链推理,在数学和代码任务中表现出色,并在美国竞赛数据中击败OpenAI的o1预览版。
阶跃星辰自研万亿参数语言大模型Step-2位列全球第五,成绩逼近OpenAI。其表现突出的IF Average指标超越了包括GPT-4在内的所有国内外模型。
上周有学习者希望学习多模态大模型的部署与微调,Datawhale妙妙屋提供教程开源地址。同时,Qwen2.5-Coder因朋友圈刷屏引发热议,并开源了相关教程。
3名中国高中生在NeurIPS「高中组」中获得3篇Spotlight奖项。他们研究的论文涉及盲文图像到文本的翻译系统,且所有内容须由高中生独立完成。