14G跑满血DeepSeek-R1,清华最新开源力作ktransformers
清华大学开源框架KTransformers研究显示,仅需14GB GPU和382GB DRAM即可本地运行671B参数的DeepSeek-R1模型,并实现约13.69 tokens/s的推理速度。
清华大学开源框架KTransformers研究显示,仅需14GB GPU和382GB DRAM即可本地运行671B参数的DeepSeek-R1模型,并实现约13.69 tokens/s的推理速度。
这可能是最快的Flux模型。基于schnell,只需要4步就可以出图!小显存的福音,在3060上10秒可得768*1280高清大图。展示了都市夜行者装扮、花园中的少女沉思瞬间、新娘温馨时刻等5幅插图,以及优雅女性肖像和古典华服与温馨厨房场景。
UnslothAI 发布悬赏挑战,解决五个技术难题可获得50万美元年薪及股权。无需PhD学位或相关经验,挑战涉及深度学习框架优化、分布式训练、量化压缩等核心技术问题。
DeepSeek爆火,高性能低成本让企业接入AI成为必然趋势。年薪高达154W的大模型全栈工程师等岗位火热招聘,普通程序员面临被AI替换风险。知乎知学堂推出大模型应用开发工程师速成计划,免费学习名额仅限100人,助力入局大模型开发及提升竞争力。
微信灰度接入DeepSeek R1,支持更全面的回答。DeeSeek-R1采用Agentic RAG方式接入,可以设计通用AI Agentic框架,并结合官方Prompt和搜索接入实现。
Windsurf推出Wave 3版本更新,新增支持MCP协议和四个新模型。Tab跳转功能让编辑更智能,Turbo模式简化操作流程。Wind Surf Next作为测试版提供多种全新特性。