腾讯混元一口气发布并开源0.5B、1.8B、4B、7B四个模型,进一步丰富了混元开源模型体系,可为开发者和企业提供更多尺寸的模型选择。
在公开评测中,它们的表现均不逊于同参数模型,并且已经在腾讯多个内部业务场景中应用,经过了实践的检验。
持续创新、飞速迭代、拥抱开源腾讯混元技术团队热招中。
我们有着充沛的算力资源、丰富的训练数据,以及腾讯业务生态下多元的应用场景,给予你不设上限的战场和空间。
期待更多热爱AI大模型的优秀人才加入腾讯混元,共同探索智能上限,一起构建向善的AGI!
社招岗位
AIGC算法研究员(文生3D)深圳/上海/北京
AIGC算法研究员(文生图)深圳/上海/北京
AIGC算法研究员(多模态生成基模方向)深圳/上海/北京
大模型算法工程师(大模型推理能力)深圳/北京
大语言模型精调算法工程师(代码方向)深圳/北京
大模型强化学习研究员深圳/上海/北京
AGI模型架构研究员深圳/上海/北京
精调算法工程师(问答&RAG方向)深圳/北京
大模型应用算法工程师深圳/北京
数据算法工程师深圳/北京
大模型数据开发专家深圳/北京
大模型推理加速工程师深圳/上海/北京/杭州
大模型推理优化研发工程师(算子优化/编译) 深圳/上海/北京/杭州
异构Pytorch框架研发工程师/专家深圳/上海/北京/杭州
大模型训练框架研发工程师深圳/上海/北京/杭州
机器学习平台GPU调度研发工程师深圳/上海/北京
青云计划热招岗位
感兴趣的事业群和部门选择:
TEG-腾讯混元大语言模型部 /多模态模型部 / 机器学习平台部 / 数据平台部
技术研究-机器学习方向 / 自然语言处理方向 / 多模态方向 / 多媒体处理方向 / 高性能计算 / 数据科学(青云计划) 深圳/北京
现在,只要一部手机,普通人也能跟大模型交朋友,开发属于自己的小应用、小工具。
是的,你没看错。腾讯混元大模型团队一口气带来了4位新朋友:
0.5B、1.8B、4B、7B
全部开源,消费级显卡就能运行
开发者闭眼入
向左滑动查看更多
开发者“玩AI”再也不用盯着超算配置,手机、电脑、平板都能当“开发阵地”。
这些小而精的模型,能轻松住进你的手机、电脑,甚至智能座驾、智能家居设备里。
ARM、高通、MTK、Intel……等主流芯片全都兼容。
技术门槛直接砍半。
上Github 和 Huggingface就能直接下载使用。再也不用眼巴巴等专业机构的调用权限。
单卡就能跑。显存占用更少、计算更高效、部署更灵活。
SGLang、vLLM、TensorRT-LLM 这些主流推理框架,也都能搭伙。
双脑协作,反应超灵。
指的是这四款「小」模型,有两个 “脑子”:
一个反应超快,瞬间秒回你的信息;
一个擅长深思熟虑,替你处理复杂问题。
就像你问它 “附近好吃的川菜馆”,快脑能马上给出推荐;
要是问 “如何设计一个自动写周报的系统”,慢脑就开始替你细细规划。
有了它,就有了24h随时在线的「最佳拍档」。
超强记忆,有问必答。
能一次性处理 256K的上下文,相当于看一遍就熟记3 本《哈利波特》。
你和它聊项目方案,来回几十轮讨论,它都能记得每一个细节。后续再提问,它也能对答如流。
Agent能力出色,J人助理。
能帮你深度搜索资料,有「十万个为什么」不如先问问它;
替你「整理去年的消费账单」,自动生成excel进行分析;
甚至规划旅行,从路线搜索到制定攻略一手包办。
实测中:
四个新模型在语言理解、数学、推理等领域,得分都达到领先水平。
1.8B的那款,表现尤为出色。
这四款「小而精」的模型,也早已在腾讯内部「实战练兵」:
日常开会、看书就用得很多,
@腾讯会议AI小助手、@微信读书AI问书均搭载新模型,让AI帮你 “读完、记住、理解” 所有长内容。
在端侧应用上,
@腾讯手机管家利用小尺寸模型,精准实现垃圾短信毫秒级拦截,还不上传用户隐私。
@腾讯智慧出行智能座舱助手也能充分实现「低功耗+高效交互」,让车机「更聪明」。
在高并发场景中,
@搜狗输入法能准确识别吵杂环境的语音。
@腾讯地图更能「猜你喜欢」,帮你推荐更顺路的地点。
聊天时,也能用@微信输入法在输入框里直接「问AI」,边打边问更方便。
在垂直行业,
@金融AI助手,能够95%猜中你想办的业务
@游戏翻译和@QQ飞车手游的NPC,方言外语都能和你唠两句
这些能力,都来自腾讯混元模型的「小尺寸」+「强适配」。
以前自身在小尺寸开源模型的缺口,现在补上了。
以前难以满足的终端场景,现在可以跑起来了。
未来,腾讯混元还会有更多尺寸、更多本事的朋友来。
技术迭代是场接力赛,我们先跑这一棒。
去官网,立刻体验:腾讯混元
高招云直播